Connect with us

Noticias

Dentro de la sede de chatgpt de Sam Altman, están cambiando el mundo, otra vez

Published

on

SAM Altman no tiene una respuesta a la pregunta de que cada vez más personas hacen: a medida que la inteligencia artificial avanza con una velocidad aterradora, ¿qué les decimos a nuestros hijos? ¿Cómo preparamos la próxima generación para un mundo donde ninguno de ellos será mejor que una máquina en cualquier tarea cognitiva?

“Ha sido esta cosa muy popular a lo largo de la historia predecir que todos trabajaremos cuatro horas a la semana o lo que sea. Pero parece que estamos bastante cableados para querer crear, para ser útiles para otras personas, para hacer cosas, para que me gusten, sentimos que estamos haciendo algo significativo “, dijo el director ejecutivo de Operai en una exclusiva Entrevista la semana pasada con The Times Tech Podcast. “No creo que nos quedemos sin cosas que hacer y tendremos esta existencia miserable donde nos sentamos y simplemente tomamos drogas y jugamos videojuegos”.

Uno escucha alguna versión de su respuesta, un hombro encogiéndose de hombros que es a la vez refrescantemente honesto y profundamente inquietante, de las personas en toda la industria, y en su compañía, mientras corren para construir máquinas súper inteligentes. El Sunday Times recientemente obtuvo un raro acceso al círculo interno de ejecutivos y codificadores de Altman en la sede de la compañía en San Francisco, antes de pasar por Londres camino a la Cumbre de Acción de AI de París de París de la semana pasada.

Sam Altman en el Sunday Times Building en Londres

Fotógrafo del Sunday Times Richard Pohle

La reunión en la capital francesa, de líderes, ejecutivos y científicos de más de 100 países, se anunció como una oportunidad para finalmente unir al mundo en cuestiones clave de gobernanza sobre una tecnología preparada para devolver a la economía y la sociedad. Al final, se logró poco más allá de una fotografía. Ni América ni Gran Bretaña incluso firmaron una declaración que era notable solo por lo poco notable y sin dientes que era.

Mientras que los políticos juegan, Altman y Co funcionan lo más rápido que pueden para ofrecer inteligencia general artificial (AGI), un término utilizado para describir un sistema que es mejor que los mejores humanos en cualquier tarea, para 2030, si no antes. Parecen ser impulsados ​​por un optimismo de la costa oeste: una convicción de que están construyendo un futuro donde se curarán las enfermedades, se resolverán el cambio climático y se abrirán nuevos horizontes de posibilidades, todo con la magia de la inteligencia artificial.

Y, sin embargo, junto con el optimismo de la gasa, viene una admisión poco quirúrgica de que, para llegar allí, primero debemos pasar por un período de transición que, como lo expresó Altman, será muy “doloroso” y “desordenado” a medida que los trabajos se vaporizan, las picos de desigualdad y las puntas de desigualdad y Los gobiernos reaccionan. “Creo que habrá mucho bien y mucho mal. Mi esperanza y mi creencia genuina es que habrá órdenes de magnitud más buenas que malas de esto “, dijo Altman, y agregó:” Pero habrá muy mal, y creo que estás viendo algunas de ellas ahora “.

Escondido a la vista

Lo extrañarías si no supieras que estaba allí. La sede de San Francisco de Openai se encuentra en un almacén no notable en un área llena de almacenes: vestigios del pasado industrial de la ciudad. No hay letrero afuera, ni rascacielos que arroje una sombra sobre el horizonte, solo una gran caja gris.

Un tren de tren ligero pasa los modernos edificios de oficinas en San Francisco.

La sede de Operai en San Francisco

David Paul Morris/Bloomberg/Getty Images

En el interior, todo es pisos de concreto pulido, madera rubia, una cocina replante de agua y café, y una profusión de plantas bañadas en sol difundidas a través de ventanas esmeriladas. En resumen, se parece a cualquier otra nueva empresa, pero para el reluciente piano negro Yamaha en el área de recepción principal y una silla de aguacate, un mueble inspirado en una imagen temprana de Dall-E, el generador de texto a imagen de OpenAi. Eso, hace solo tres años, sorprendió al mundo pero ahora parece bastante pasada.

Había un frisson de energía en el aire el día de la visita del Sunday Times; Las acciones tecnológicas de EE. UU. Habían entrado en caída libre después de que Deepseek, una compañía china previamente poco conocida, lanzó un modelo de IA gratuito que estaba a la par con ChatGPT de OpenAI. La revelación puesta pagada a la noción de que Estados Unidos, dirigido por la compañía de Altman, había abierto una gran ventaja en China.

Nick Turley, jefe de Chatgpt, no era sorprendido, principalmente. “Una compensación de ser la primera es que verás a la gente ponerse al día”, dijo. Pero Turley no estaba pensando en eso porque el mundo, en su opinión, está a punto de cambiar de nuevo, al igual que lo hizo cuando él y su equipo desataron a Chatgpt en noviembre de 2022. “Es el año de los agentes, en mi opinión”, agregó .

Los agentes son herramientas de IA que se liberan de un sitio web o el cuadro de búsqueda de la aplicación para salir a la web para llevar a cabo tareas por sí mismos, desde reservar boletos y enviar correos electrónicos, hasta realizar investigaciones profundas y fundamentales sobre el nivel de un doctorado o una ciudad Analista financiero.

“El mercado total direccionable para un agente general sorprendente, el conjunto total de problemas de los usuarios, es todo lo que hace en el navegador hoy”, dijo Turley. “Esto es lo que siempre se suponía que era cuando nos propusimos construir chatgpt. Nunca se suponía que fuera un chatbot. Internamente, lo llamamos el ‘Super Asistente’ “.

Operai ha lanzado dos agentes en las últimas semanas: operador, que puede hacer tareas básicas como compras en línea; e investigación profunda, que puede realizar investigaciones y generar informes. El operador, en particular, es bastante torpe, pero eso es parte del enfoque de implementación “iterativo” de OpenAi: expulsar los productos defectuosos para que el público pueda usarlos y proporcionar comentarios como una forma de acelerar su mejora.

Tyler Cowen, el prominente economista, se quedó atónito por las capacidades de Deep Research. “Lo he hecho escribir varios documentos de diez páginas para mí, cada uno de ellos sobresalientes. Pienso que la calidad es comparable a tener un buen asistente de investigación a nivel de doctorado, y enviar a esa persona con una tarea por una semana o dos, o tal vez más ”, escribió. “Excepto que la investigación profunda hace el trabajo en cinco o seis minutos”.

Altman agregó: “Con este lanzamiento, mucha gente ha dicho: ‘Este es mi momento AGI personal: está haciendo un trabajo real y económicamente valioso y no pensé que un sistema iba a hacer esto'”.

Estando atento al peligro

Los agentes se han convertido en el foco central de la mayoría de los principales desarrolladores de IA. De hecho, Anthrope, un rival de OpenAI, ha lanzado una función similar de “uso de computadora”, mientras que Google lanzó su agente Mariner a un pequeño grupo de personas en diciembre.

Para Johannes Heidecke, el jefe de sistemas de seguridad de OpenAi, desatar miles, y, en última instancia, miles de millones, de agentes cada vez más capaces en la web hace que su trabajo sea dramáticamente más duro. Pero, dijo, Openai había ideado un “marco de preparación” para evaluar los “riesgos catastróficos planteados por modelos cada vez más poderosos”.

Probamos Chatgpt contra Deepseek. Cuidado con Sam Altman

Esto incluye un sistema de calificación sobre las habilidades de un modelo para, por ejemplo, evadir los controles impuestos por OpenAI o lanzar ataques cibernéticos, y un requisito para dejar de entrenar un modelo por completo si se vuelve demasiado peligroso. Y hay una ventaja, dijo, en modelos cada vez más poderosos: son mejores en la vigilancia de sí mismos.

“Vemos que, por ejemplo, nuestro [latest reasoning models]donde pasan un tiempo pensando antes de responder, se han vuelto mucho más robustos para los descansos en la cárcel “, dijo Heidecke, refiriéndose cuando las herramientas de IA calculan cómo evitar las limitaciones incorporadas. “Todavía hay mucho trabajo por hacer aquí, pero vemos muchos signos prometedores de que los modelos se vuelven más inteligentes y también lo que lleva a las victorias de seguridad”.

Y, sin embargo, solo días retirados de la cumbre húmeda de Squib en París, uno no puede escapar de la realidad de que tales medidas son en su mayoría voluntarias. No se ha aprobado una regulación significativa en Gran Bretaña o América, donde JD Vance, el vicepresidente, advirtió la semana pasada contra reglas “excesivas” que podrían “matar una industria transformadora”. La Ley de IA de la Unión Europea ha impuesto algunas restricciones básicas de “seguridad del producto”, pero se concibió en gran medida antes de que ChatGPT se lanzara en 2022.

Mientras tanto, las capacidades de IA se agravan con una velocidad increíble. Mark Chen, jefe de investigación de Openai, dijo: “Solíamos poder lanzar evaluaciones diseñadas para humanos en los modelos, ¿verdad? Los humanos compiten en concursos de matemáticas. Puedes tomar esas mismas competiciones de matemáticas y darlas a los modelos. Una de las cosas realmente notables durante el último año es que hemos roto esa barrera: hay muy pocos concursos o evaluaciones que podría diseñar para los humanos que aún son desafiantes para los modelos “.

Y, sin embargo, en estas primeras entradas de la Revolución AI, estas herramientas, para toda su capacidad de asombrosa, todavía hacen algunas cosas notablemente tontas. Google se avergonzó este mes cuando un anuncio de Super Bowl por su insignia Ai Gemini mostró un factoid erróneo sobre cuánto queso Gouda come el mundo. En diciembre, la IA de Apple reescribió un titular de la BBC sobre Luigi Mangione, alegando que el presunto asesino de un ejecutivo de atención médica de los Estados Unidos se había disparado.

Sam Altman, creador de OpenAi, en un podcast de tecnología.

Altman es entrevistado para el podcast Times Tech por Katie Prescott y Danny Fortson

Fotógrafo del Sunday Times Richard Pohle

Batalla por el dominio

A pesar de los pasos en falso, las fuerzas financieras y geopolíticas que empujan a la IA solo están creciendo. Operai es utilizado por más de 300 millones de personas cada semana, y está recaudando una nueva ronda de financiamiento, dirigida por SoftBank, que lo valoraría en $ 300 mil millones (£ 240 mil millones), 15 veces su valor en 2022. Los siete principales tecnologías estadounidenses Las empresas, Meta, Alphabet, Amazon, Microsoft, Nvidia, Tesla y Apple, están juntas gastando $ 560 mil millones en infraestructura de IA entre 2024 y finales de este año. Elon Musk, quien dirige su propia compañía de IA, Grok, ha tratado de reducir la velocidad de Openai a través de los tribunales, ha comenzado varias demandas, y la semana pasada anunció una oferta hostil de $ 97 mil millones para hacerse cargo de la compañía. Fue rechazado rápidamente.

SoftBank sufre una pérdida trimestral sorpresa

Los puñetazos son parte de la batalla por el dominio de una tecnología que podría absorber billones de dólares, ya que automatiza las franjas de la economía. Geopolíticamente, la IA ha tomado el centro del escenario, como las grandes potencias de China, América y Europa se empeñan por la supremacía. Todos los líderes estadounidenses de IA, incluido OpenAI, han comenzado a trabajar recientemente con el establecimiento de defensa.

Altman dijo: “Creo que sería muy malo si el gobierno de los Estados Unidos no entiende la IA y el impacto que tendrá, por lo que nos gustaría tratar de ayudar”. Añadió: “Una cosa que creo que no es tan fácil de resolver es, ¿nos dirigimos hacia una IA más autoritaria o una IA más democrática? Obviamente, estoy muy en el lado democrático de la IA, pero eso viene con algunas compensaciones y eso vendrá con algunas cosas malas en la sociedad, como nunca hemos empoderado a las personas tanto como estamos a punto de hacerlo “.

En la sede de OpenAI, esas preocupaciones son, para la mayoría, no frontales. En cambio, la fuerza laboral se centra en construir un producto que funcione, y que las personas y las empresas pagarán. Joanne Jang, jefa de comportamiento modelo en la compañía, ha creado un equipo completo dedicado a lo que podría describirse libremente como la “personalidad” de Chatgpt. En términos prácticos, eso significa ajustar la especificación para que el modelo no sea demasiado sycofántico, pero no demasiado predicador, no para alucinar, sino para minimizar los tiempos que dice, en efecto, “no sé”.

Jang es, en cierto modo, construir la personalidad de nuestro futuro jefe. Ella dijo: “Creo que a largo plazo, definitivamente queremos tener múltiples personalidades predeterminadas y presets que los usuarios puedan explorar”.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

La gran contratación de IA de Microsoft no puede igualar OpenAi

Published

on

De Tom Dotan, nuestro nuevo corresponsal senior, recién salido de dos años cubriendo Microsoft para el Wall Street Journal

En el Huddle ejecutivo anual de Microsoft el mes pasado, el director financiero de la compañía, Amy Hoodcolocó una diapositiva que trazó el número de usuarios para su herramienta Copilot Consumer AI durante el año pasado. Era esencialmente una línea plana, que mostraba alrededor de 20 millones de usuarios semanales.

En la misma diapositiva había otra línea que mostraba el crecimiento de ChatGPT durante el mismo período, arqueando siempre a 400 millones de usuarios semanales. El icónico chatbot de Openai se elevaba, mientras que la mejor esperanza de Microsoft para una herramienta de IA de adoptación masiva era inactividad.

Fue una tabla aleccionadora para el equipo de IA de consumidores de Microsoft y el hombre que lo ha estado liderando durante el año pasado, Mustafa Suleyman.

Ahorrar tiempo + crecimiento de aceleración: obtenga el cumplimiento del paquete de startups

Para escalar su empresa, necesita cumplimiento. Y al invertir en el cumplimiento temprano, protege los datos confidenciales y simplifica el proceso de cumplir con los estándares de la industria, lo que garantiza la confianza y la seguridad a largo plazo.

Vanta ayuda a las empresas en crecimiento a lograr el cumplimiento de forma rápida y sin dolor al automatizar más de 35 marcos, incluidos SoC 2, ISO 27001, HIPAA y más.

Comience con el cumplimiento de Vanta para las nuevas empresas, con recursos clave para acelerar su viaje.

  • Listas de verificación de cumplimiento paso a paso

  • Estudios de casos de nuevas empresas de rápido crecimiento

  • Videos a pedido con líderes de la industria

Consíguelo aquí.

Obtenga más información

Microsoft trajo a Suleyman a bordo en marzo de 2024, junto con gran parte del talento en su lucha contra la inflexión de inicio de IA, a cambio de una tarifa de licencia de $ 650 millones que hizo que los inversores de la inflexión completen, y algo más.

Fue un trato de tendencia que surgió cejas, que, como un puñado de otros en ese momento, parecía ser una buena manera para que el gigante tecnológico evite los problemas antimonopolio en su búsqueda de liderazgo de IA. Suleyman fue uno de los pocos nombres realmente grandes en IA generativo, alguien que podría ser un faro para el talento y un catalizador para un nuevo pensamiento en un gigante de la madera proverbial.

Sin embargo, desde el principio, la gente dentro de la compañía me dijo que eran escépticos. Muchos extraños han luchado por tener un impacto o incluso sobrevivir en Microsoft, una compañía llena de vidas que cortan sus dientes tecnológicos en una época diferente. Mis fuentes escépticas señalaron que la carrera anterior de Suleyman en una gran empresa no había ido bien, con Google despojándolo de algunas responsabilidades de gestión después de que las quejas de cómo trató al personal, el Wall Street Journal reportado en ese momento.

También hubo muchos ojos en el hecho de que Suleyman recibió el título de CEO de Microsoft AI. Esa designación generalmente está reservada para el principal ejecutivo de las empresas que adquiere y deja operar semiautonómicamente, como LinkedIn o GitHub.

Y sin embargo, el acuerdo tenía sentido. Satya Nadella No estaba contento con el rendimiento de la renovada Bing y su chatbot con alimentación de OpenAI. Las extraordinarias maquinaciones de finales de 2023 en Operai, donde el CEO Sam Altman fue despedido por el tablero sin fines de lucro solo para ser reinstalado menos de una semana después, convenció a Nadella y el tablero de Microsoft que necesitaban para destituir a la dependencia total de la compañía agregada por el drama y sus modelos. Microsoft también fue difícil para el talento: después de años de desviar los recursos lejos de su brazo de investigación para Openai, el gigante de la tecnología de Redmond necesitaba reavivar sus esfuerzos internos.

Al contratar a Suleyman, Microsoft estaba tomando un volante en un ejecutivo bien conocido pero controvertido con una sensibilidad del producto.

Y como la diapositiva de Hood dejó en claro, esa apuesta aún no ha valido la pena.

Microsoft está en medio de un cambio tectónico, uno sobre el que pasé los últimos años escribiendo para el Wall Street Journal. Al igual que Disney, ingresó a la era de la transmisión, o Uber encontró su camino después de la expulsión de su fundador, otros dos casos de transición corporativa dramática que he tenido el privilegio de cubrir, Microsoft necesita urgentemente redefinirse a medida que la industria tecnológica se restablece la IA. Es un buen momento para hacer un balance de cómo se gestiona el liderazgo de la compañía.

Desde que asumió el cargo de CEO, el enfoque de Nadella ha sido infundir a Microsoft con sangre fresca. Lo hizo con éxito con Kevin Scottque entró a través de la adquisición de LinkedIn y pasó la relación OpenAI, que a pesar de los baches se considera una victoria de señal dentro de la compañía.

Sin embargo, la llegada de Suleyman era casi tan rocosa como lo predijeron muchos de los escépticos iniciales. En primer lugar, significaba degradar al jefe anterior de Bing y otras empresas de consumo, Mikhail parakhinquien pronto se desvaneció para Shopify para convertirse en su CTO.

La nueva misión inicial del nuevo equipo de Suleyman, según mis fuentes, era crear sus propios modelos que pudieran ser atribuidos para OpenAi’s dentro de las aplicaciones AI de Microsoft. Bajo el ejemplo de Karén SimonyanCofundador técnico de Suleyman en la inflexión, se embarcaron en ese esfuerzo casi de inmediato y comenzaron a pre-entrenamiento de un modelo llamado MAI-1. (La información Primero reportado sobre el Modelo MAI-1 el año pasado.)

Varias carreras de entrenamiento de Mai aumentaron resultados decepcionantes, que es caro pero no raro: es el costo de jugar a la vanguardia de la investigación. Pero los problemas con Mai provocaron acritud.

A medida que el equipo de Suleyman absorbió otros equipos de IA dispersos por toda la compañía, surgieron más problemas. Un incidente involucró a un equipo dirigido por el vicepresidente de investigación generativa de IA Sebastien Bubeckque había desarrollado una familia de modelos llamado PHI. Estos modelos se construyeron utilizando datos sintéticos: datos de entrenamiento generados por modelos de IA más grandes.

El equipo de Bubeck estuvo involucrado en una gran carrera de entrenamiento para Mai el año pasado, donde mezcló sus datos sintéticos con datos web más tradicionales. Después de que los resultados resultaron decepcionantes, Simonyan argumentó que los datos sintéticos habían “contaminado” el proceso. Eso inició un debate entre los equipos PHI y MAI sobre si los datos sintéticos realmente pueden producir modelos con aplicaciones del mundo real o simplemente aquellos que pueden obtener bien en las pruebas.

El desacuerdo se desarrolló en un canal público de holgura, algo que solo sucedió porque al equipo de inflexión se le permitió seguir usando Slack cuando se unieron a Microsoft en lugar de cambiar a los equipos, y para algunos miembros del equipo de Bubeck, se sintió como un ataque.

No mucho después, el equipo PHI fue reorendido de debajo de Mai y volvió a la investigación de Microsoft. Desde entonces, Bubeck ha dejado a Microsoft para una publicación en Operai, donde está construyendo su equipo de datos sintéticos.

Suleyman también ha revuelto plumas en OpenAi. La relación entre Microsoft y su compañero de IA ha tenido sus altibajos, pero en general ha sido muy beneficioso para ambos jugadores. Aún así, Altman nunca le ha gustado Suleyman, mis colegas y yo anteriormente reportado en el diario.

El año pasado, mientras Operai estaba construyendo su tan tocada modelo O3, Suleyman arremetió contra el personal de Openi en frustración por la falta de acceso que su equipo estaba llegando al modelo de razonamiento. Ahora es un ampliamente informado incidentey mi sentido es Openai no le importa que esté ahí fuera, lo que sugiere que los malos sentimientos corren en ambas direcciones. No es del todo justo culpar a Suleyman por el estado de relaciones entre estas dos.

Lo que definitivamente es justo es preguntar si MAI puede construir un producto de IA de consumidores exitoso. En ese frente, el gran día de Suleyman llegó a principios de este mes cuando finalmente anunció el copiloto renovado, que fue diseñado para ser un compañero personal que puede reservar vuelos y recordar cosas sobre usted.

(El anuncio también fue cronometrado con el 50 aniversario de Microsoft, que en un golpe de mala suerte cayó dos días después de que las tarifas del “Día de Liberación” de Trump. Por lo tanto, Suleyman tuvo el honor de lanzar el producto en medio del telón escoltado de la habitación y luego despedido.

El anuncio de copilot no transformó la narrativa. Y en este punto, Microsoft no está en ejecución para construir un modelo que pueda competir con los mejores de OpenAI, Anthrope, Google e incluso XAI. Los proyectos que las personas me han mencionado se sienten incrementales, en lugar de saltar a la competencia.

Tal vez no necesiten hacerlo. En un mundo donde existen múltiples modelos de primera línea, hay menos presión para que haya un modelo hecho de Microsoft que reduzca su dependencia de OpenAi. Ese no era el caso hace un año.

Todo eso se enfoca aún más en Suleyman para entregar lo que Nadella realmente ha estado fijamente: un producto de consumo exitoso. Todavía no es hora de pánico: el CEO de AI todavía está muy enamorado del CEO. Pero Nadella tiene una tendencia a enamorarse de ciertos ejecutivos y luego, si no pueden estar a la altura, su mirada se desplaza en otros lugares.

Si eso sucede, Suleyman podría encontrarse directamente a la vista de Amy Hood, el CFO, que puede ser brutal al hacer recortes si una división no está entregando. Liderar un producto que está siendo lapado por ChatGPT no es lo que Suleyman fue contratado para hacer.

Sin ningún cambio, una línea plana puede significar que es hora de tirar del enchufe.

Podcast de recién llegado

Hemos pasado de las empresas de marketing de VC que intentan “ir directamente” a los medios tecnológicos genuinos.

Esta semana, Andreessen Horowitz contrató Erik Torenberg Como socio general, y trajo a sus firmes medios de trementina al gigante de la capital de riesgo.

Mientras tanto, los fundadores financian ejecutivo en residencia John Coogan anunció que iría a tiempo completo en su programa de noticias en línea diarias de 3 horas.

Madeline, Eric y Tom discuten el panorama de los medios en evolución en el podcast.

Escuchar

Una gran tabla

Los fondos crossover acumularon el ritmo de la inversión de inicio durante el auge de 2021, con uno de los actores más grandes, Tiger Global, una vez respaldando a más de 400 compañías en un cuarto.

Ahora estos fondos han retrocedido la cantidad de acuerdos, incluso cuando el total de dólares invertidos en el primer trimestre de 2025 alcanzó su más alto nivel.

El cambio en la dinámica refleja las enormes sumas que se vierten en compañías de modelos de base como Anthrope y las luchas de los sectores de inicio que no son AI.

Lo que dicen

Los inversores, los ejecutivos y los influenciadores de los medios no acudieron a las palabras sobre la llamada de ganancias de Tesla. El mismo Elon Musk cubrió los aranceles que han estado lastimando sus márgenes.

Continue Reading

Noticias

Virgin Atlantic Prueba agente Openai para el sitio y el vuelo • El registro

Published

on

Entrevista A pesar de todo lo que se habla de la “era de los agentes” de proveedores de IA como OpenAi, Google, Anthrope, Microsoft y casi todos los demás en el espacio, el uso corporativo de la tecnología sigue siendo tentativo. Virgin Atlantic ha estado realizando pruebas de vuelo de su sitio web con un agente de IA llamado operador, y los primeros resultados son prometedores, señalando el camino hacia cómo los agentes podrían usarse para ayudar a los clientes a reservar vuelos.

OPERAI anunció operador en enero. Es una vista previa de investigación de un agente de IA basado en un modelo llamado agente de uso de computadora (CUA); básicamente, el operador es la marca a través del cual CUA, el modelo real, está disponible para los suscriptores de OpenAI Pro en operator.chatgpt.com.

CUA combina la capacidad de visión de GPT-4O, la capacidad de “comprender” las imágenes y la “razón” sobre ellas, con capacitación que cubre las interfaces gráficas de los usuarios. El modelo puede mirar una página web y tener una idea de qué elementos representan botones y cómo aplicar eventos de clic. Es esencialmente la versión LLM de un marco de automatización de navegador como Selenium o dramaturgo.

Poco después de su debut, Virgin Atlantic comenzó a probar el operador para ver cómo el agente de IA navega por el flujo de reserva de su sitio web, si puede recuperar información útil y si puede monitorear el uso del sitio web y proporcionar comentarios relacionados con el negocio sobre las interacciones del usuario. Los primeros resultados son prometedores para ayudar a Virgin a ajustar su sitio web, según el vicepresidente de ingeniería digital Neil Letchford, y su equipo ahora está explorando cómo el operador podría usarse en interacciones reales orientadas al cliente.

El registro habló con Letchford para comprender mejor hasta qué punto se están desplegando los agentes de IA.

Letchford: Trabajo en la función de experiencia del cliente en Virgin Atlantic. Dirijo el grupo de ingeniería digital. Así que soy vicepresidente de ingeniería digital. Y mi equipo es responsable de construir todas las experiencias digitales orientadas al cliente para Virgin Atlantic. Entonces, todo lo que aparece en el viaje del cliente, eso es lo que mi equipo es responsable.

Entonces, cuando nos asociamos con Operai, y por cierto, no somos un equipo masivo, ¿verdad? Somos un equipo relativamente pequeño como lo son muchos equipos de ingeniería de software, pero cuando nos asociamos con Openai y hablamos sobre el operador, vimos una oportunidad real de escalar y automatizar algunas de las funciones que tenemos dentro de mi equipo, de aspecto internacional.

Pero también al hacer eso, hemos comenzado a explorar cómo los sistemas de tipo operador o de estos operadores podrían afectar las experiencias de los clientes del futuro. Cómo nuestros clientes podrían estar utilizándolos. Por lo tanto, nos llevó a los dos caminos durante este tipo de período, que han sido realmente interesantes.

El registro: Entonces, ¿qué tipo de cosas has encontrado?

Letchford: Lo hemos estado usando para algunos de nuestros casos de uso interno. Entonces, inicialmente, cuando pensamos en nuestro sitio web, por ejemplo, hablamos mucho sobre caminar por el viaje del cliente y comprender el viaje del cliente.

Nuestros casos de uso iniciales fueron alrededor de cómo podríamos utilizar básicamente el operador para buscar y reservar un vuelo, hasta el punto en que tal vez tenga que poner en los detalles de su tarjeta de crédito, ¿verdad?

Al hacer eso, descubrimos que, en realidad, el operador entendía UX [user experience]. Entonces, comprende efectivamente el UX y la estructura de su sitio web, que fue bastante interesante, ¿verdad? Porque tiene que aprender a navegar y cómo moverse a través de su viaje de clientes para reservar un vuelo, por ejemplo.

Y al hacer eso, extendimos el caso de uso para actuar como propietario de un producto. [In other words,] ¿Podría el operador darnos comentarios útiles sobre cómo podría mejorarse nuestro sitio web o está funcionando?

Así que le dimos algunas tareas como algunas tareas de optimización en torno al texto y cosas así. Le pedimos que encuentre esa información tal vez sobre Nueva York o Miami. Desaparecería y luego volvería y se presentaría formas en que tal vez podríamos mejorar nuestro contexto o mejorar nuestro pensamiento.

Luego dimos al operador, no sé si se nos permite hacer esto, pero le dimos acceso al operador a un correo electrónico, una cuenta de Gmail. Y luego, lo que haría es enviarnos los resultados por correo electrónico. Pondría sus resultados en los documentos de Google y luego nos envía un correo electrónico a los resultados.

Por lo tanto, es una automatización realmente interesante y valiosa de estas tareas cotidianas que necesita personas para hacer. Y podría ver un mundo en el que pudiéramos construir, construir y construir sobre esto para que estas diferentes personas de operadores realicen diferentes tareas en todo el sitio web.

Y luego, al hacer eso, también abrió pensamientos sobre cómo el operador entiende nuestro UX: la estructura de contexto o la estructura de navegación. Pero debido a que el operador no tiene el contexto de lo que es la web: cosas simples como un menú de hamburguesas, el operador en algunos casos no, tiene que aprender estas cosas.

Eso abrió algunas conversaciones realmente interesantes con nuestro equipo de UX sobre si estamos siendo claros sobre cómo nuestro sitio web está estructurado y otras preguntas de UX: preguntas sobre recolectores de citas y cosas así. [offered] Versión realmente valiosa sobre cómo funciona nuestra experiencia de usuario.

El registro: Por lo tanto, ha estado utilizando el operador para la optimización web interna. ¿Hay formas en que los clientes interactúan con la tecnología?

Letchford: Sí, así que lo estamos usando para esos casos de uso internos en este momento, pero también somos parte del piloto del operador Operai, donde lo hemos abierto a las personas que usan el operador como parte de ChatGPT.

El registro: Entre los clientes que lo han hecho, ¿qué ha aprendido sobre su experiencia?

Letchford: Por lo general, el operador es realmente bueno para comprender las tareas. Por lo general, el operador realmente no se abre [unless] Hay seguridad o información personal que debe ingresar. Se detendrá y el control de la mano volverá al cliente para terminar su tarea.

El registro: ¿Y cómo evalúa el operador en términos de sus objetivos organizacionales?

Letchford: No me gustaría compartir ninguna métrica interna, pero obviamente tenemos un montón de KPI [key performance indicators] Utilizamos en términos de rendimiento y deuda técnica y cosas así sobre cómo administramos internamente nuestro sitio web. Básicamente lo tratamos como otro miembro de nuestro equipo de manera efectiva y vamos a construir sobre él desde allí.

Y en términos de la pieza del operador externo, en este momento es una prueba de concepto con la que estamos trabajando en OpenAi. Lo estamos probando realmente para ver lo que está sucediendo en el mercado porque creemos que estas experiencias y agentes que tienen la capacidad de usar Internet podrían convertirse en un canal clave para nosotros en el futuro.

Por lo tanto, comprender la tecnología y cómo los agentes podrían interactuar con nuestro sitio es realmente importante para nosotros. Uno de los aprendizajes clave para nosotros no solo es esta idea de UX, sino que también estamos investigando, ya sabes, cómo podríamos darle al operador más contexto sobre nuestro sitio web. Por lo tanto, estamos pensando en cómo podríamos proporcionar un contexto específico del operador a los tipos de sistemas en el futuro para que puedan ser más eficientes.

Porque para alguien como usted, ir a nuestro sitio web, podría encontrar fácilmente contenido de ayuda sobre el equipaje. Es muy natural. Pero podríamos acelerar esas cosas para estos sistemas de tipo operador dándole el contexto de cómo navegar en nuestro sitio web y cosas así.

El registro: ¿Son la infraestructura y los costos computacionales de ejecutar esto sobre lo que esperaba?

Letchford: No, para nosotros, en lo cierto, todos los costos son efectivos por OpenAi. El único costo para nosotros es el tráfico para nuestro sitio web, que tenemos de todos modos.

El registro: ¿Tiene una idea de cuántos tipos diferentes de pasos o sistemas puede poner en un flujo de automatización antes de que se vuelva demasiado complejo para razonar?

Letchford: Bueno, realmente, la forma en que pensamos sobre el operador es que le das una tarea y luego le das las herramientas para llevar a cabo su tarea. Entonces realmente no lo limitamos. Obviamente, podrías decir: “¿Cuáles son los cinco vuelos más baratos a Nueva York?” Y se apagaría y llevaría a cabo esa tarea. Y también es realmente bueno para comprender cuándo no puede completar una tarea o cuando necesita más información, lo preguntará.

El registro: ¿Ha tenido algún incidente en el que se dio cuenta de que tenía que estar en la buñilla de algo, donde siguió adelante y retiró los datos del correo electrónico de alguien sin esperarlo?

Letchford: No, es realmente fuerte con los datos personales y cosas así.

El registro: ¿Qué le gustaría que el operador haga que aún no lo haga?

Letchford: La capacidad de darle sus datos de prueba e información que puede usar para superar como nuestros entornos de prueba internos sería realmente útil.

También estamos realmente interesados ​​en las personas y la accesibilidad. Entonces, por ejemplo, la capacidad de darle a Operator una persona, por ejemplo, por ejemplo, eres una familia de cuatro que organiza un viaje a Orlando.

Donación [the agent] Una persona y ver cómo eso funciona en nuestros viajes y anotar es realmente interesante para nosotros. Porque entonces podríamos entender cómo las diferentes cohortes de usuarios pasan por nuestro viaje del cliente.

La otra cosa que realmente nos interesa que esté relacionada con las personas es la accesibilidad: cómo podría el operador ayudarnos a mejorar la accesibilidad de nuestro sitio web al tener la persona de tal vez un usuario parcialmente avistado o alguien así es realmente interesante para nosotros. ®

Continue Reading

Noticias

Decir ‘Gracias’ a Chatgpt es costoso. Pero tal vez valga la pena el precio.

Published

on

La cuestión de si ser cortés a la inteligencia artificial puede parecer un punto discutible, después de todo, es artificial.

Pero Sam Altman, el director ejecutivo de la compañía de inteligencia artificial Openai, recientemente arrojó luz sobre el costo de agregar un adicional “¡Por favor!” o “¡Gracias!” a las indicaciones de chatbot.

Alguien publicó en X la semana pasada: “Me pregunto cuánto dinero ha perdido Openai en los costos de electricidad de las personas que dicen ‘por favor’ y ‘gracias’ a sus modelos”.

Al día siguiente, el Sr. Altman respondió: “Decenas de millones de dólares bien gastados, nunca se sabe”.

Lo primero es lo primero: cada solicita de un chatbot cuesta dinero y energía, y cada palabra adicional como parte de esa solicitud aumenta el costo de un servidor.

Neil Johnson, profesor de física en la Universidad George Washington que estudió inteligencia artificial, comparó palabras adicionales con el empaque utilizado para las compras minoristas. El bot, al manejar un aviso, tiene que nadar a través del embalaje, por ejemplo, papel de seda alrededor de una botella de perfume, para llegar al contenido. Eso constituye un trabajo adicional.

Una tarea de ChatGPT “implica que los electrones se mueven a través de transiciones, eso necesita energía. ¿De dónde vendrá esa energía?” El Dr. Johnson dijo, y agregó: “¿Quién lo está pagando?”

El auge de la IA depende de los combustibles fósiles, por lo que desde un costo y una perspectiva ambiental, no hay una buena razón para ser cortés a la inteligencia artificial. Pero culturalmente, puede haber una buena razón para pagarlo.

Los humanos han estado interesados ​​durante mucho tiempo en cómo tratar adecuadamente la inteligencia artificial. Tome el famoso episodio de “Star Trek: The Next Generation” “The Medy of a Man”, que examina si los datos de Android deben recibir todos los derechos de los seres sintientes. El episodio toma mucho los datos, un favorito de los fanáticos que eventualmente se convertiría en un personaje querido en la tradición “Star Trek”.

En 2019, un estudio de investigación de Pew encontró que el 54 por ciento de las personas que poseían altavoces inteligentes como Amazon Echo o Google Home informaron decir “por favor” al hablarles.

La pregunta tiene una nueva resonancia a medida que ChatGPT y otras plataformas similares avanzan rápidamente, lo que hace que las empresas que producen IA, escritores y académicos lidiaran con sus efectos y consideren las implicaciones de cómo los humanos se cruzan con la tecnología. (El New York Times demandó a Openai y Microsoft en diciembre alegando que habían infringido los derechos de autor del Times en la capacitación de sistemas de IA).

El año pasado, la compañía de IA Anthrope contrató a su primer investigador de bienestar para examinar si los sistemas de IA merecen una consideración moral, según el transformador del boletín tecnológico.

El guionista Scott Z. Burns tiene una nueva serie audible “¿Qué podría salir mal?” Eso examina las dificultades y posibilidades de trabajar con AI “La amabilidad debería ser la configuración predeterminada de todos: hombre o máquina”, dijo en un correo electrónico.

“Si bien es cierto que una IA no tiene sentimientos, mi preocupación es que cualquier tipo de maldad que comience a llenar nuestras interacciones no terminará bien”, dijo.

La forma en que uno trata a un chatbot puede depender de cómo esa persona ve la inteligencia artificial misma y si puede sufrir grosería o mejorar de la amabilidad.

Pero hay otra razón para ser amable. Existe una mayor evidencia de que los humanos interactúan con la inteligencia artificial se trasladan a cómo tratan a los humanos.

“Construimos normas o guiones para nuestro comportamiento y, por lo tanto, al tener este tipo de interacción con la cosa, podemos estar un poco mejores o más orientados habitualmente hacia el comportamiento educado”, dijo el Dr. Jaime Banks, quien estudia las relaciones entre humanos y IA en la Universidad de Syracuse.

La Dra. Sherry Turkle, quien también estudia esas conexiones en el Instituto de Tecnología de Massachusetts, dijo que considera una parte central de su trabajo para enseñar a las personas que la inteligencia artificial no es real, sino más bien un “truco de salón” brillante sin conciencia.

Pero aún así, ella también considera el precedente de las relaciones pasadas del objeto humano y sus efectos, particularmente en los niños. Un ejemplo fue en la década de 1990, cuando los niños comenzaron a criar Tamagotchis, las mascotas digitales ubicadas en dispositivos del tamaño de la palma requerían alimentación y otros tipos de atención. Si no recibieran la atención adecuada, las mascotas morirían, lo que provocará que los niños denuncien un dolor real. Y algunos padres se han preguntado si deberían preocuparse por los niños que son agresivos con las muñecas.

En el caso de los bots de IA, el Dr. Turkle argumentó que están “lo suficientemente vivos”.

“Si un objeto está lo suficientemente vivo como para comenzar a tener conversaciones íntimas, conversaciones amistosas, tratarlo como una persona realmente importante en nuestras vidas, aunque no lo está, está lo suficientemente vivo como para mostrar cortesía”, dijo el Dr. Turkle.

Madeleine George, una dramaturga cuya obra de 2013 “The (Curious Case of the) Watson Intelligence” fue finalista para un Premio Pulitzer, ofreció otra perspectiva: decir “Please” y “Gracias” a AI Bots les ofrece la oportunidad de aprender cómo ser más humanos. (Su juego reinventa diferentes versiones de Sherlock Holmes’s Sidekick, Dr. Watson, incluida una de inteligencia artificial).

Ofrecer frases educadas para Chatgpt, desde su perspectiva, deja abierta la posibilidad de que eventualmente “actúe como un ser vivo que comparte nuestra cultura y que comparte nuestros valores y que comparte nuestra mortalidad”.

Por otro lado, estas frases también pueden hacernos más dependiendo de la IA

“Estamos conectados. Estamos en una relación recíproca. Por eso usamos esas piezas del lenguaje”, dijo George. “Entonces, si enseñamos esa herramienta para que sea excelente para usar esas cosas, entonces vamos a ser aún más vulnerables a sus seducciones. “

Muchas preocupaciones de los observadores de inteligencia artificiales permanecen en lo teórico, a medida que cambia la tecnología. Por ahora, hay poco efecto tangible.

“Si te alejas de ellos y haces cena o se suicidas”, dijo el Dr. Turkle, “es lo mismo para ellos”.

Pero para el futuro Robot Overlords leyendo esta pieza, gracias por su tiempo. Es apreciado.

Por si acaso.

Continue Reading

Trending