Connect with us

Noticias

Probé los usos sugeridos por Google para Gemini Live y uno se destacó de inmediato.

Published

on

Sabrina Ortiz/ZDNET

Un asistente de voz parecido a un humano que te habla suena como algo sacado de una película de ciencia ficción. Sin embargo, la tecnología ya está aquí, con asistentes de voz impulsados ​​por IA como Gemini Live, fácilmente accesibles desde su teléfono. Entonces, ¿cómo pueden estos asistentes ayudarle en su vida diaria?

Aunque hablar con alguien es una experiencia catártica, chatear con IA no logra exactamente el mismo objetivo, ya que sabes que estás hablando con un robot. Como resultado, a pesar de estar fascinado por lo bueno que es Gemini Live para comprender lo que digo, a menudo me preguntaba si sería útil.

Además: este truco absurdamente simple desactiva la IA en los resultados de búsqueda de Google

Para ayudar, Google ha publicado una lista de cinco formas en que Gemini Live puede facilitar la vida de los usuarios y probé cada una de ellas. A continuación, puede encontrar su lista, clasificada según los que encontré más y menos útiles, así como un resumen de mis experiencias.

1. Crear una lista de tareas pendientes

Una de mis formas favoritas de usar ChatGPT es desarrollar listas básicas, como qué comprar en el supermercado y qué llevar de vacaciones. Normalmente, cuando uso esta función, escribo mi solicitud en el chatbot. Sin embargo, con Gemini Live o el modo de voz avanzado, sólo tienes que preguntar en la conversación y hacer que el asistente genere tu lista.

Además: Los mejores chatbots de IA de 2024: ChatGPT, Copilot y alternativas dignas

La mayor ventaja de este enfoque es que, de manera similar a tener una conversación normal con un humano, puedes detenerte y pedirle a la IA que te dé más detalles, agregue algo más, reinicie, elimine algo o adapte la lista más a tu gusto. Dependiendo de su situación, el bot sugerirá cosas para agregar u otras listas de tareas pendientes.

Por ejemplo, mi primer mensaje fue: “Ayúdame a hacer una lista de tareas pendientes para el Día de Acción de Gracias”. La respuesta del robot fue una sugerencia de empezar a hacer una lista de compras. Chatear así es una interacción más fluida y lleva menos tiempo ya que no estás pegado a tu computadora portátil o teclado. Entonces, estoy de acuerdo con Google en que este es un buen caso de uso y creo que es el más práctico.

2. Ejercicios de respiración dirigida

Aunque este caso de uso sugerido obtuvo el puesto número dos, quedó en segundo lugar de cerca. En el ajetreo y el bullicio de la vida, la clave es encontrar tiempo para dar un paso atrás y relajarse o priorizar la atención plena. Por esa razón, la mayoría de las mañanas comienzo mis días con una sesión de afirmación, que incluye ejercicios de respiración dirigidos por alguien en YouTube. Sin embargo, estas experiencias no se adaptan a mí y pueden volverse repetitivas; ahí es donde Gemini Live puede ayudar.

Además: Gemini Advanced de Google tiene una función ChatGPT muy útil, pero ¿cómo se compara?

Le pregunté al robot: “¿Puedes guiarme con afirmaciones para el éxito de la mañana?” Sin perder el ritmo, la IA generó algunas afirmaciones que podía dictar para comenzar.

Luego, para continuar con la sesión, puedes decir algo como “¿Puedes darme un poco más?”. o pídele que te dé un tipo diferente de afirmación. Lo mismo ocurre con pedir ejercicios de respiración. El robot generará una rutina de respiración atendida. Como alguien que confía en la atención plena guiada, este enfoque parece un punto de inflexión.

Sin embargo, esa es la buena noticia, y el resto de los casos de uso van cuesta abajo a partir de aquí.

3. Ensayar una presentación

Algunas cosas pueden mejorar objetivamente una presentación, incluido el ritmo al que habla, su concisión y la participación de su guión. Por ese motivo, Gemini Live puede escuchar tu presentación y aconsejarte cómo mejorar. También puede resultar útil ensayar en la privacidad de su propio espacio sin tener que utilizar a otro ser humano para deshacerse de los nervios.

Además: la IA acaba de darnos la despedida de Star Trek que siempre quisimos: mírala aquí

Sin embargo, la experiencia me pareció un poco antinatural. Sigo pensando que un humano puede dar mejores consejos, ya que otros factores que afectan una presentación incluyen la postura, las expresiones faciales, el movimiento y, lo más importante, la presentación misma. Si tienes una plataforma de diapositivas terrible, no hay mucho que pueda salvarte. Si su objetivo es mejorar el habla, entonces esta característica está bien, pero eso es todo.

4. Juego de roles

Como uno de los casos de uso, Google anima a los usuarios a aprovechar Gemini Live para tener una conversación simulada y difícil. Todo lo que un usuario tiene que hacer es explicar brevemente la situación a Gemini Live e iniciar la conversación, recibiendo comentarios a lo largo del camino.

Para mi caso, dije: “¿Puedes ayudarme a representar una situación en la que le digo a mi mejor amiga que no me gustan sus zapatos?” El robot me preguntó su nombre y me dio una oración de muestra que podría usar para decírselo, pero no creo que la conversación hubiera terminado bien si la hubiera usado.

Además: Cómo utilizar ChatGPT para digitalizar tus notas escritas a mano de forma gratuita

“Muy bien, aquí tienes una forma de manejar esta situación: Hola Melissa, ¡esos zapatos son realmente otra cosa! Nunca antes había visto un estilo así”, dijo Gemini Live.

Si mi objetivo era la agresividad pasiva, el robot lo logró. Cuando respondí: “¿No crees que eso es malo?”, la IA respondió:

Tienes razón; Puede que suene un poco sarcástico. ¿Qué tal esto: “Mel, noté tus zapatos nuevos. Son realmente atrevidos y llamativos”. También podrías preguntarle dónde los consiguió. De esta manera, los reconoces sin dar tu opinión sobre si te gustan o no.

Sin embargo, corregir el enfoque anula el propósito del juego de roles. Por lo general, juegas con un amigo cuando no sabes qué decir o hacer. Preferiría utilizar a un humano en esta situación porque la interacción es más natural y me aseguro de recibir el mejor consejo.

5. Elegir qué ponerse

Gemini Live aún no tiene capacidades multimodales (donde puede ver su entorno). Por ese motivo, este caso de uso finaliza en último lugar. En mi opinión, es completamente inútil. Además, para que el robot te ayude a elegir tu guardarropa, debes describir tu vestimenta en detalle y se deben considerar muchos factores diferentes, como la textura, los patrones y los cortes, que en realidad solo se pueden describir visualmente.

Como acceder

Si alguno de estos casos de uso le llamó la atención, puede acceder a Gemini Live de forma gratuita a través de la aplicación Gemini tanto en iOS como en Android. Una vez que haya descargado la aplicación, inicie sesión en su cuenta de Google, haga clic en el ícono de forma de onda y comience a chatear.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

La gran contratación de IA de Microsoft no puede igualar OpenAi

Published

on

De Tom Dotan, nuestro nuevo corresponsal senior, recién salido de dos años cubriendo Microsoft para el Wall Street Journal

En el Huddle ejecutivo anual de Microsoft el mes pasado, el director financiero de la compañía, Amy Hoodcolocó una diapositiva que trazó el número de usuarios para su herramienta Copilot Consumer AI durante el año pasado. Era esencialmente una línea plana, que mostraba alrededor de 20 millones de usuarios semanales.

En la misma diapositiva había otra línea que mostraba el crecimiento de ChatGPT durante el mismo período, arqueando siempre a 400 millones de usuarios semanales. El icónico chatbot de Openai se elevaba, mientras que la mejor esperanza de Microsoft para una herramienta de IA de adoptación masiva era inactividad.

Fue una tabla aleccionadora para el equipo de IA de consumidores de Microsoft y el hombre que lo ha estado liderando durante el año pasado, Mustafa Suleyman.

Ahorrar tiempo + crecimiento de aceleración: obtenga el cumplimiento del paquete de startups

Para escalar su empresa, necesita cumplimiento. Y al invertir en el cumplimiento temprano, protege los datos confidenciales y simplifica el proceso de cumplir con los estándares de la industria, lo que garantiza la confianza y la seguridad a largo plazo.

Vanta ayuda a las empresas en crecimiento a lograr el cumplimiento de forma rápida y sin dolor al automatizar más de 35 marcos, incluidos SoC 2, ISO 27001, HIPAA y más.

Comience con el cumplimiento de Vanta para las nuevas empresas, con recursos clave para acelerar su viaje.

  • Listas de verificación de cumplimiento paso a paso

  • Estudios de casos de nuevas empresas de rápido crecimiento

  • Videos a pedido con líderes de la industria

Consíguelo aquí.

Obtenga más información

Microsoft trajo a Suleyman a bordo en marzo de 2024, junto con gran parte del talento en su lucha contra la inflexión de inicio de IA, a cambio de una tarifa de licencia de $ 650 millones que hizo que los inversores de la inflexión completen, y algo más.

Fue un trato de tendencia que surgió cejas, que, como un puñado de otros en ese momento, parecía ser una buena manera para que el gigante tecnológico evite los problemas antimonopolio en su búsqueda de liderazgo de IA. Suleyman fue uno de los pocos nombres realmente grandes en IA generativo, alguien que podría ser un faro para el talento y un catalizador para un nuevo pensamiento en un gigante de la madera proverbial.

Sin embargo, desde el principio, la gente dentro de la compañía me dijo que eran escépticos. Muchos extraños han luchado por tener un impacto o incluso sobrevivir en Microsoft, una compañía llena de vidas que cortan sus dientes tecnológicos en una época diferente. Mis fuentes escépticas señalaron que la carrera anterior de Suleyman en una gran empresa no había ido bien, con Google despojándolo de algunas responsabilidades de gestión después de que las quejas de cómo trató al personal, el Wall Street Journal reportado en ese momento.

También hubo muchos ojos en el hecho de que Suleyman recibió el título de CEO de Microsoft AI. Esa designación generalmente está reservada para el principal ejecutivo de las empresas que adquiere y deja operar semiautonómicamente, como LinkedIn o GitHub.

Y sin embargo, el acuerdo tenía sentido. Satya Nadella No estaba contento con el rendimiento de la renovada Bing y su chatbot con alimentación de OpenAI. Las extraordinarias maquinaciones de finales de 2023 en Operai, donde el CEO Sam Altman fue despedido por el tablero sin fines de lucro solo para ser reinstalado menos de una semana después, convenció a Nadella y el tablero de Microsoft que necesitaban para destituir a la dependencia total de la compañía agregada por el drama y sus modelos. Microsoft también fue difícil para el talento: después de años de desviar los recursos lejos de su brazo de investigación para Openai, el gigante de la tecnología de Redmond necesitaba reavivar sus esfuerzos internos.

Al contratar a Suleyman, Microsoft estaba tomando un volante en un ejecutivo bien conocido pero controvertido con una sensibilidad del producto.

Y como la diapositiva de Hood dejó en claro, esa apuesta aún no ha valido la pena.

Microsoft está en medio de un cambio tectónico, uno sobre el que pasé los últimos años escribiendo para el Wall Street Journal. Al igual que Disney, ingresó a la era de la transmisión, o Uber encontró su camino después de la expulsión de su fundador, otros dos casos de transición corporativa dramática que he tenido el privilegio de cubrir, Microsoft necesita urgentemente redefinirse a medida que la industria tecnológica se restablece la IA. Es un buen momento para hacer un balance de cómo se gestiona el liderazgo de la compañía.

Desde que asumió el cargo de CEO, el enfoque de Nadella ha sido infundir a Microsoft con sangre fresca. Lo hizo con éxito con Kevin Scottque entró a través de la adquisición de LinkedIn y pasó la relación OpenAI, que a pesar de los baches se considera una victoria de señal dentro de la compañía.

Sin embargo, la llegada de Suleyman era casi tan rocosa como lo predijeron muchos de los escépticos iniciales. En primer lugar, significaba degradar al jefe anterior de Bing y otras empresas de consumo, Mikhail parakhinquien pronto se desvaneció para Shopify para convertirse en su CTO.

La nueva misión inicial del nuevo equipo de Suleyman, según mis fuentes, era crear sus propios modelos que pudieran ser atribuidos para OpenAi’s dentro de las aplicaciones AI de Microsoft. Bajo el ejemplo de Karén SimonyanCofundador técnico de Suleyman en la inflexión, se embarcaron en ese esfuerzo casi de inmediato y comenzaron a pre-entrenamiento de un modelo llamado MAI-1. (La información Primero reportado sobre el Modelo MAI-1 el año pasado.)

Varias carreras de entrenamiento de Mai aumentaron resultados decepcionantes, que es caro pero no raro: es el costo de jugar a la vanguardia de la investigación. Pero los problemas con Mai provocaron acritud.

A medida que el equipo de Suleyman absorbió otros equipos de IA dispersos por toda la compañía, surgieron más problemas. Un incidente involucró a un equipo dirigido por el vicepresidente de investigación generativa de IA Sebastien Bubeckque había desarrollado una familia de modelos llamado PHI. Estos modelos se construyeron utilizando datos sintéticos: datos de entrenamiento generados por modelos de IA más grandes.

El equipo de Bubeck estuvo involucrado en una gran carrera de entrenamiento para Mai el año pasado, donde mezcló sus datos sintéticos con datos web más tradicionales. Después de que los resultados resultaron decepcionantes, Simonyan argumentó que los datos sintéticos habían “contaminado” el proceso. Eso inició un debate entre los equipos PHI y MAI sobre si los datos sintéticos realmente pueden producir modelos con aplicaciones del mundo real o simplemente aquellos que pueden obtener bien en las pruebas.

El desacuerdo se desarrolló en un canal público de holgura, algo que solo sucedió porque al equipo de inflexión se le permitió seguir usando Slack cuando se unieron a Microsoft en lugar de cambiar a los equipos, y para algunos miembros del equipo de Bubeck, se sintió como un ataque.

No mucho después, el equipo PHI fue reorendido de debajo de Mai y volvió a la investigación de Microsoft. Desde entonces, Bubeck ha dejado a Microsoft para una publicación en Operai, donde está construyendo su equipo de datos sintéticos.

Suleyman también ha revuelto plumas en OpenAi. La relación entre Microsoft y su compañero de IA ha tenido sus altibajos, pero en general ha sido muy beneficioso para ambos jugadores. Aún así, Altman nunca le ha gustado Suleyman, mis colegas y yo anteriormente reportado en el diario.

El año pasado, mientras Operai estaba construyendo su tan tocada modelo O3, Suleyman arremetió contra el personal de Openi en frustración por la falta de acceso que su equipo estaba llegando al modelo de razonamiento. Ahora es un ampliamente informado incidentey mi sentido es Openai no le importa que esté ahí fuera, lo que sugiere que los malos sentimientos corren en ambas direcciones. No es del todo justo culpar a Suleyman por el estado de relaciones entre estas dos.

Lo que definitivamente es justo es preguntar si MAI puede construir un producto de IA de consumidores exitoso. En ese frente, el gran día de Suleyman llegó a principios de este mes cuando finalmente anunció el copiloto renovado, que fue diseñado para ser un compañero personal que puede reservar vuelos y recordar cosas sobre usted.

(El anuncio también fue cronometrado con el 50 aniversario de Microsoft, que en un golpe de mala suerte cayó dos días después de que las tarifas del “Día de Liberación” de Trump. Por lo tanto, Suleyman tuvo el honor de lanzar el producto en medio del telón escoltado de la habitación y luego despedido.

El anuncio de copilot no transformó la narrativa. Y en este punto, Microsoft no está en ejecución para construir un modelo que pueda competir con los mejores de OpenAI, Anthrope, Google e incluso XAI. Los proyectos que las personas me han mencionado se sienten incrementales, en lugar de saltar a la competencia.

Tal vez no necesiten hacerlo. En un mundo donde existen múltiples modelos de primera línea, hay menos presión para que haya un modelo hecho de Microsoft que reduzca su dependencia de OpenAi. Ese no era el caso hace un año.

Todo eso se enfoca aún más en Suleyman para entregar lo que Nadella realmente ha estado fijamente: un producto de consumo exitoso. Todavía no es hora de pánico: el CEO de AI todavía está muy enamorado del CEO. Pero Nadella tiene una tendencia a enamorarse de ciertos ejecutivos y luego, si no pueden estar a la altura, su mirada se desplaza en otros lugares.

Si eso sucede, Suleyman podría encontrarse directamente a la vista de Amy Hood, el CFO, que puede ser brutal al hacer recortes si una división no está entregando. Liderar un producto que está siendo lapado por ChatGPT no es lo que Suleyman fue contratado para hacer.

Sin ningún cambio, una línea plana puede significar que es hora de tirar del enchufe.

Podcast de recién llegado

Hemos pasado de las empresas de marketing de VC que intentan “ir directamente” a los medios tecnológicos genuinos.

Esta semana, Andreessen Horowitz contrató Erik Torenberg Como socio general, y trajo a sus firmes medios de trementina al gigante de la capital de riesgo.

Mientras tanto, los fundadores financian ejecutivo en residencia John Coogan anunció que iría a tiempo completo en su programa de noticias en línea diarias de 3 horas.

Madeline, Eric y Tom discuten el panorama de los medios en evolución en el podcast.

Escuchar

Una gran tabla

Los fondos crossover acumularon el ritmo de la inversión de inicio durante el auge de 2021, con uno de los actores más grandes, Tiger Global, una vez respaldando a más de 400 compañías en un cuarto.

Ahora estos fondos han retrocedido la cantidad de acuerdos, incluso cuando el total de dólares invertidos en el primer trimestre de 2025 alcanzó su más alto nivel.

El cambio en la dinámica refleja las enormes sumas que se vierten en compañías de modelos de base como Anthrope y las luchas de los sectores de inicio que no son AI.

Lo que dicen

Los inversores, los ejecutivos y los influenciadores de los medios no acudieron a las palabras sobre la llamada de ganancias de Tesla. El mismo Elon Musk cubrió los aranceles que han estado lastimando sus márgenes.

Continue Reading

Noticias

Virgin Atlantic Prueba agente Openai para el sitio y el vuelo • El registro

Published

on

Entrevista A pesar de todo lo que se habla de la “era de los agentes” de proveedores de IA como OpenAi, Google, Anthrope, Microsoft y casi todos los demás en el espacio, el uso corporativo de la tecnología sigue siendo tentativo. Virgin Atlantic ha estado realizando pruebas de vuelo de su sitio web con un agente de IA llamado operador, y los primeros resultados son prometedores, señalando el camino hacia cómo los agentes podrían usarse para ayudar a los clientes a reservar vuelos.

OPERAI anunció operador en enero. Es una vista previa de investigación de un agente de IA basado en un modelo llamado agente de uso de computadora (CUA); básicamente, el operador es la marca a través del cual CUA, el modelo real, está disponible para los suscriptores de OpenAI Pro en operator.chatgpt.com.

CUA combina la capacidad de visión de GPT-4O, la capacidad de “comprender” las imágenes y la “razón” sobre ellas, con capacitación que cubre las interfaces gráficas de los usuarios. El modelo puede mirar una página web y tener una idea de qué elementos representan botones y cómo aplicar eventos de clic. Es esencialmente la versión LLM de un marco de automatización de navegador como Selenium o dramaturgo.

Poco después de su debut, Virgin Atlantic comenzó a probar el operador para ver cómo el agente de IA navega por el flujo de reserva de su sitio web, si puede recuperar información útil y si puede monitorear el uso del sitio web y proporcionar comentarios relacionados con el negocio sobre las interacciones del usuario. Los primeros resultados son prometedores para ayudar a Virgin a ajustar su sitio web, según el vicepresidente de ingeniería digital Neil Letchford, y su equipo ahora está explorando cómo el operador podría usarse en interacciones reales orientadas al cliente.

El registro habló con Letchford para comprender mejor hasta qué punto se están desplegando los agentes de IA.

Letchford: Trabajo en la función de experiencia del cliente en Virgin Atlantic. Dirijo el grupo de ingeniería digital. Así que soy vicepresidente de ingeniería digital. Y mi equipo es responsable de construir todas las experiencias digitales orientadas al cliente para Virgin Atlantic. Entonces, todo lo que aparece en el viaje del cliente, eso es lo que mi equipo es responsable.

Entonces, cuando nos asociamos con Operai, y por cierto, no somos un equipo masivo, ¿verdad? Somos un equipo relativamente pequeño como lo son muchos equipos de ingeniería de software, pero cuando nos asociamos con Openai y hablamos sobre el operador, vimos una oportunidad real de escalar y automatizar algunas de las funciones que tenemos dentro de mi equipo, de aspecto internacional.

Pero también al hacer eso, hemos comenzado a explorar cómo los sistemas de tipo operador o de estos operadores podrían afectar las experiencias de los clientes del futuro. Cómo nuestros clientes podrían estar utilizándolos. Por lo tanto, nos llevó a los dos caminos durante este tipo de período, que han sido realmente interesantes.

El registro: Entonces, ¿qué tipo de cosas has encontrado?

Letchford: Lo hemos estado usando para algunos de nuestros casos de uso interno. Entonces, inicialmente, cuando pensamos en nuestro sitio web, por ejemplo, hablamos mucho sobre caminar por el viaje del cliente y comprender el viaje del cliente.

Nuestros casos de uso iniciales fueron alrededor de cómo podríamos utilizar básicamente el operador para buscar y reservar un vuelo, hasta el punto en que tal vez tenga que poner en los detalles de su tarjeta de crédito, ¿verdad?

Al hacer eso, descubrimos que, en realidad, el operador entendía UX [user experience]. Entonces, comprende efectivamente el UX y la estructura de su sitio web, que fue bastante interesante, ¿verdad? Porque tiene que aprender a navegar y cómo moverse a través de su viaje de clientes para reservar un vuelo, por ejemplo.

Y al hacer eso, extendimos el caso de uso para actuar como propietario de un producto. [In other words,] ¿Podría el operador darnos comentarios útiles sobre cómo podría mejorarse nuestro sitio web o está funcionando?

Así que le dimos algunas tareas como algunas tareas de optimización en torno al texto y cosas así. Le pedimos que encuentre esa información tal vez sobre Nueva York o Miami. Desaparecería y luego volvería y se presentaría formas en que tal vez podríamos mejorar nuestro contexto o mejorar nuestro pensamiento.

Luego dimos al operador, no sé si se nos permite hacer esto, pero le dimos acceso al operador a un correo electrónico, una cuenta de Gmail. Y luego, lo que haría es enviarnos los resultados por correo electrónico. Pondría sus resultados en los documentos de Google y luego nos envía un correo electrónico a los resultados.

Por lo tanto, es una automatización realmente interesante y valiosa de estas tareas cotidianas que necesita personas para hacer. Y podría ver un mundo en el que pudiéramos construir, construir y construir sobre esto para que estas diferentes personas de operadores realicen diferentes tareas en todo el sitio web.

Y luego, al hacer eso, también abrió pensamientos sobre cómo el operador entiende nuestro UX: la estructura de contexto o la estructura de navegación. Pero debido a que el operador no tiene el contexto de lo que es la web: cosas simples como un menú de hamburguesas, el operador en algunos casos no, tiene que aprender estas cosas.

Eso abrió algunas conversaciones realmente interesantes con nuestro equipo de UX sobre si estamos siendo claros sobre cómo nuestro sitio web está estructurado y otras preguntas de UX: preguntas sobre recolectores de citas y cosas así. [offered] Versión realmente valiosa sobre cómo funciona nuestra experiencia de usuario.

El registro: Por lo tanto, ha estado utilizando el operador para la optimización web interna. ¿Hay formas en que los clientes interactúan con la tecnología?

Letchford: Sí, así que lo estamos usando para esos casos de uso internos en este momento, pero también somos parte del piloto del operador Operai, donde lo hemos abierto a las personas que usan el operador como parte de ChatGPT.

El registro: Entre los clientes que lo han hecho, ¿qué ha aprendido sobre su experiencia?

Letchford: Por lo general, el operador es realmente bueno para comprender las tareas. Por lo general, el operador realmente no se abre [unless] Hay seguridad o información personal que debe ingresar. Se detendrá y el control de la mano volverá al cliente para terminar su tarea.

El registro: ¿Y cómo evalúa el operador en términos de sus objetivos organizacionales?

Letchford: No me gustaría compartir ninguna métrica interna, pero obviamente tenemos un montón de KPI [key performance indicators] Utilizamos en términos de rendimiento y deuda técnica y cosas así sobre cómo administramos internamente nuestro sitio web. Básicamente lo tratamos como otro miembro de nuestro equipo de manera efectiva y vamos a construir sobre él desde allí.

Y en términos de la pieza del operador externo, en este momento es una prueba de concepto con la que estamos trabajando en OpenAi. Lo estamos probando realmente para ver lo que está sucediendo en el mercado porque creemos que estas experiencias y agentes que tienen la capacidad de usar Internet podrían convertirse en un canal clave para nosotros en el futuro.

Por lo tanto, comprender la tecnología y cómo los agentes podrían interactuar con nuestro sitio es realmente importante para nosotros. Uno de los aprendizajes clave para nosotros no solo es esta idea de UX, sino que también estamos investigando, ya sabes, cómo podríamos darle al operador más contexto sobre nuestro sitio web. Por lo tanto, estamos pensando en cómo podríamos proporcionar un contexto específico del operador a los tipos de sistemas en el futuro para que puedan ser más eficientes.

Porque para alguien como usted, ir a nuestro sitio web, podría encontrar fácilmente contenido de ayuda sobre el equipaje. Es muy natural. Pero podríamos acelerar esas cosas para estos sistemas de tipo operador dándole el contexto de cómo navegar en nuestro sitio web y cosas así.

El registro: ¿Son la infraestructura y los costos computacionales de ejecutar esto sobre lo que esperaba?

Letchford: No, para nosotros, en lo cierto, todos los costos son efectivos por OpenAi. El único costo para nosotros es el tráfico para nuestro sitio web, que tenemos de todos modos.

El registro: ¿Tiene una idea de cuántos tipos diferentes de pasos o sistemas puede poner en un flujo de automatización antes de que se vuelva demasiado complejo para razonar?

Letchford: Bueno, realmente, la forma en que pensamos sobre el operador es que le das una tarea y luego le das las herramientas para llevar a cabo su tarea. Entonces realmente no lo limitamos. Obviamente, podrías decir: “¿Cuáles son los cinco vuelos más baratos a Nueva York?” Y se apagaría y llevaría a cabo esa tarea. Y también es realmente bueno para comprender cuándo no puede completar una tarea o cuando necesita más información, lo preguntará.

El registro: ¿Ha tenido algún incidente en el que se dio cuenta de que tenía que estar en la buñilla de algo, donde siguió adelante y retiró los datos del correo electrónico de alguien sin esperarlo?

Letchford: No, es realmente fuerte con los datos personales y cosas así.

El registro: ¿Qué le gustaría que el operador haga que aún no lo haga?

Letchford: La capacidad de darle sus datos de prueba e información que puede usar para superar como nuestros entornos de prueba internos sería realmente útil.

También estamos realmente interesados ​​en las personas y la accesibilidad. Entonces, por ejemplo, la capacidad de darle a Operator una persona, por ejemplo, por ejemplo, eres una familia de cuatro que organiza un viaje a Orlando.

Donación [the agent] Una persona y ver cómo eso funciona en nuestros viajes y anotar es realmente interesante para nosotros. Porque entonces podríamos entender cómo las diferentes cohortes de usuarios pasan por nuestro viaje del cliente.

La otra cosa que realmente nos interesa que esté relacionada con las personas es la accesibilidad: cómo podría el operador ayudarnos a mejorar la accesibilidad de nuestro sitio web al tener la persona de tal vez un usuario parcialmente avistado o alguien así es realmente interesante para nosotros. ®

Continue Reading

Noticias

Decir ‘Gracias’ a Chatgpt es costoso. Pero tal vez valga la pena el precio.

Published

on

La cuestión de si ser cortés a la inteligencia artificial puede parecer un punto discutible, después de todo, es artificial.

Pero Sam Altman, el director ejecutivo de la compañía de inteligencia artificial Openai, recientemente arrojó luz sobre el costo de agregar un adicional “¡Por favor!” o “¡Gracias!” a las indicaciones de chatbot.

Alguien publicó en X la semana pasada: “Me pregunto cuánto dinero ha perdido Openai en los costos de electricidad de las personas que dicen ‘por favor’ y ‘gracias’ a sus modelos”.

Al día siguiente, el Sr. Altman respondió: “Decenas de millones de dólares bien gastados, nunca se sabe”.

Lo primero es lo primero: cada solicita de un chatbot cuesta dinero y energía, y cada palabra adicional como parte de esa solicitud aumenta el costo de un servidor.

Neil Johnson, profesor de física en la Universidad George Washington que estudió inteligencia artificial, comparó palabras adicionales con el empaque utilizado para las compras minoristas. El bot, al manejar un aviso, tiene que nadar a través del embalaje, por ejemplo, papel de seda alrededor de una botella de perfume, para llegar al contenido. Eso constituye un trabajo adicional.

Una tarea de ChatGPT “implica que los electrones se mueven a través de transiciones, eso necesita energía. ¿De dónde vendrá esa energía?” El Dr. Johnson dijo, y agregó: “¿Quién lo está pagando?”

El auge de la IA depende de los combustibles fósiles, por lo que desde un costo y una perspectiva ambiental, no hay una buena razón para ser cortés a la inteligencia artificial. Pero culturalmente, puede haber una buena razón para pagarlo.

Los humanos han estado interesados ​​durante mucho tiempo en cómo tratar adecuadamente la inteligencia artificial. Tome el famoso episodio de “Star Trek: The Next Generation” “The Medy of a Man”, que examina si los datos de Android deben recibir todos los derechos de los seres sintientes. El episodio toma mucho los datos, un favorito de los fanáticos que eventualmente se convertiría en un personaje querido en la tradición “Star Trek”.

En 2019, un estudio de investigación de Pew encontró que el 54 por ciento de las personas que poseían altavoces inteligentes como Amazon Echo o Google Home informaron decir “por favor” al hablarles.

La pregunta tiene una nueva resonancia a medida que ChatGPT y otras plataformas similares avanzan rápidamente, lo que hace que las empresas que producen IA, escritores y académicos lidiaran con sus efectos y consideren las implicaciones de cómo los humanos se cruzan con la tecnología. (El New York Times demandó a Openai y Microsoft en diciembre alegando que habían infringido los derechos de autor del Times en la capacitación de sistemas de IA).

El año pasado, la compañía de IA Anthrope contrató a su primer investigador de bienestar para examinar si los sistemas de IA merecen una consideración moral, según el transformador del boletín tecnológico.

El guionista Scott Z. Burns tiene una nueva serie audible “¿Qué podría salir mal?” Eso examina las dificultades y posibilidades de trabajar con AI “La amabilidad debería ser la configuración predeterminada de todos: hombre o máquina”, dijo en un correo electrónico.

“Si bien es cierto que una IA no tiene sentimientos, mi preocupación es que cualquier tipo de maldad que comience a llenar nuestras interacciones no terminará bien”, dijo.

La forma en que uno trata a un chatbot puede depender de cómo esa persona ve la inteligencia artificial misma y si puede sufrir grosería o mejorar de la amabilidad.

Pero hay otra razón para ser amable. Existe una mayor evidencia de que los humanos interactúan con la inteligencia artificial se trasladan a cómo tratan a los humanos.

“Construimos normas o guiones para nuestro comportamiento y, por lo tanto, al tener este tipo de interacción con la cosa, podemos estar un poco mejores o más orientados habitualmente hacia el comportamiento educado”, dijo el Dr. Jaime Banks, quien estudia las relaciones entre humanos y IA en la Universidad de Syracuse.

La Dra. Sherry Turkle, quien también estudia esas conexiones en el Instituto de Tecnología de Massachusetts, dijo que considera una parte central de su trabajo para enseñar a las personas que la inteligencia artificial no es real, sino más bien un “truco de salón” brillante sin conciencia.

Pero aún así, ella también considera el precedente de las relaciones pasadas del objeto humano y sus efectos, particularmente en los niños. Un ejemplo fue en la década de 1990, cuando los niños comenzaron a criar Tamagotchis, las mascotas digitales ubicadas en dispositivos del tamaño de la palma requerían alimentación y otros tipos de atención. Si no recibieran la atención adecuada, las mascotas morirían, lo que provocará que los niños denuncien un dolor real. Y algunos padres se han preguntado si deberían preocuparse por los niños que son agresivos con las muñecas.

En el caso de los bots de IA, el Dr. Turkle argumentó que están “lo suficientemente vivos”.

“Si un objeto está lo suficientemente vivo como para comenzar a tener conversaciones íntimas, conversaciones amistosas, tratarlo como una persona realmente importante en nuestras vidas, aunque no lo está, está lo suficientemente vivo como para mostrar cortesía”, dijo el Dr. Turkle.

Madeleine George, una dramaturga cuya obra de 2013 “The (Curious Case of the) Watson Intelligence” fue finalista para un Premio Pulitzer, ofreció otra perspectiva: decir “Please” y “Gracias” a AI Bots les ofrece la oportunidad de aprender cómo ser más humanos. (Su juego reinventa diferentes versiones de Sherlock Holmes’s Sidekick, Dr. Watson, incluida una de inteligencia artificial).

Ofrecer frases educadas para Chatgpt, desde su perspectiva, deja abierta la posibilidad de que eventualmente “actúe como un ser vivo que comparte nuestra cultura y que comparte nuestros valores y que comparte nuestra mortalidad”.

Por otro lado, estas frases también pueden hacernos más dependiendo de la IA

“Estamos conectados. Estamos en una relación recíproca. Por eso usamos esas piezas del lenguaje”, dijo George. “Entonces, si enseñamos esa herramienta para que sea excelente para usar esas cosas, entonces vamos a ser aún más vulnerables a sus seducciones. “

Muchas preocupaciones de los observadores de inteligencia artificiales permanecen en lo teórico, a medida que cambia la tecnología. Por ahora, hay poco efecto tangible.

“Si te alejas de ellos y haces cena o se suicidas”, dijo el Dr. Turkle, “es lo mismo para ellos”.

Pero para el futuro Robot Overlords leyendo esta pieza, gracias por su tiempo. Es apreciado.

Por si acaso.

Continue Reading

Trending