Connect with us

Noticias

Los estudiantes internacionales pueden estar entre los principales beneficiarios de ChatGPT

Published

on

El lanzamiento público de ChatGPT en noviembre de 2022 cambió el mundo. Un chatbot podría escribir instantáneamente párrafos y documentos, una tarea que alguna vez se cree que es exclusivamente humana. Aunque puede llevar muchos años comprender las consecuencias completas, un equipo de científicos de datos quería estudiar cómo la escritura universitaria ya podría verse afectada.

Los investigadores pudieron obtener acceso a todos los comentarios de la junta de discusión en línea presentados por estudiantes universitarios en una gran universidad pública no identificada antes y después de Chatgpt para comparar cómo cambió la calidad de la escritura de los estudiantes. Estas son típicamente tareas de bajo riesgo en las que un profesor podría pedirles a los estudiantes que publiquen sus pensamientos sobre una tarea de lectura en, por ejemplo, psicología o biología. Las publicaciones podrían ser tan cortas como una oración o hasta unos pocos párrafos, pero no ensayos o documentos completos. Estas breves tareas de tarea a menudo no se acumulan o se cuestionan libremente en la participación de la clase de un estudiante.

Los científicos en realidad no leyeron todas las presentaciones de 1,140.328 presentaciones de tablero de discusión escritas por 16,791 estudiantes entre el término de otoño de 2021 y el período de invierno de 2024. Como especialistas en el análisis de los conjuntos de datos grandes, los investigadores alimentaron las publicaciones en siete modelos de computadora diferentes que analizan la calidad de la escritura, desde el vocabulario hasta el sintaxis y la lectura. En última instancia, crearon un único índice compuesto de calidad de escritura en el que todas las presentaciones se clasificaron en este único criterio.

¿Los resultados? La calidad general de escritura de los estudiantes mejoró. La mejora fue lenta al principio en los primeros meses de 2023 y luego mejoró sustancialmente desde octubre de 2023 hasta que el período de estudio finalizó en marzo de 2024.

Relacionado: nuestro gratis boletín semanal Te alerta sobre lo que dice la investigación sobre escuelas y aulas.

“Creo que podemos inferir que esto se debe a la disponibilidad de IA porque ¿qué otras cosas producirían estos cambios significativos?” dijo Renzhe Yu, profesor asistente de minería de datos educativos en Teachers College, Universidad de Columbia, quien dirigió la investigación. El artículo de Yu aún no se ha publicado en una revista revisada por pares, pero se ha publicado públicamente un borrador en un sitio web de la Universidad de Cornell que organiza borradores previos a la publicación de trabajo académico. (El informe de Hechinger es una organización de noticias independiente en Teachers College de la Universidad de Columbia.)

Yu y sus colegas de investigación no entrevistaron a ninguno de los estudiantes y no pueden decir con certeza que los estudiantes estaban usando ChatGPT o cualquiera de sus competidores, como Claude o Gemini, para ayudarlos con sus tareas. Pero la mejora en la escritura de los estudiantes después de la introducción de ChatGPT parece ser más que una coincidencia aleatoria.

Grandes repunaciones para estudiantes internacionales

La universidad no identificada es una institución minoritaria que sirve con una gran cantidad de estudiantes hispanos que se criaron hablando español en casa y una gran cantidad de estudiantes internacionales que no son hablantes de inglés no nativos. Y fueron estos estudiantes, a quienes los investigadores clasificaron como “desfavorecidos lingüísticamente”, quienes vieron los mayores repunte de la calidad de la escritura después del advenimiento de ChatGPT. Los estudiantes que ingresaron a la universidad con habilidades de escritura débiles, una métrica que rastrea la universidad, también vieron ganancias descomunales en su calidad de escritura después de ChatGPT. Mientras tanto, los hablantes de inglés más fuertes y aquellos que ingresaron a la universidad con habilidades de escritura más fuertes vieron mejoras más pequeñas en su calidad de escritura. No está claro si están usando menos ChatGPT, o si el bot ofrece una mejora menos dramática para un estudiante que ya está escribiendo bastante bien.

Las ganancias para los estudiantes “lingüísticamente desfavorecidos” fueron tan fuertes después de la caída de 2023 que la brecha en la calidad de la escritura entre estos estudiantes y los hablantes de inglés más fuertes se evaporaron por completo y, a veces, se invirtieron. En otras palabras, la calidad de escritura para los estudiantes que no hablaban inglés en casa y aquellos que ingresaron a la universidad con habilidades de escritura débiles a veces fue aún más fuerte que la de los estudiantes que criaron hablando inglés en casa y aquellos que ingresaron a la universidad con habilidades de escritura más fuertes.

Ganancias concentradas entre los estudiantes de altos ingresos

Sin embargo, estas ganancias en la calidad de la escritura entre los “desfavorecidos lingüísticamente” se concentraron entre los estudiantes de mayores ingresos. Los investigadores pudieron igualar las presentaciones de escritura de los estudiantes con datos administrativos sobre los estudiantes, incluidos sus ingresos familiares, y notaron que la escritura de estudiantes de bajos ingresos cuyos padres no asistieron a la universidad no mejoró tanto. Por el contrario, la escritura de estudiantes internacionales de altos ingresos con padres con educación universitaria se transformó notablemente.

Esa es una señal de que los estudiantes de bajos ingresos no estaban usando chatgpt tanto o no tan efectivamente. Las diferencias socioeconómicas en cómo los estudiantes se benefician de la tecnología no son infrecuentes. Estudios anteriores del software de procesamiento de textos, por ejemplo, han encontrado que los estudiantes de mayores ingresos tienden a ser más fáciles para aprovechar las características de edición y ver mayores beneficios de escritura de la capacidad de cortar y pegar y mover el texto.

RELACIONADO: Comentarios de redacción de IA ‘Mejor de lo que pensé’, dice el investigador superior

Mark Warschauer es profesor de educación en la Universidad de California, Irvine, y director de su laboratorio de aprendizaje digital, donde estudia el uso de la tecnología en la educación. Warschauer no participó en este estudio y dijo que sospecha que los beneficios desagradables para los estudiantes de mayores ingresos serán fugaces a medida que los estudiantes de bajos ingresos se vuelvan más aclimatados y más fáciles con la IA con el tiempo. “A menudo vemos con nuevas tecnologías que las personas de altos ingresos obtienen acceso primero, pero luego se equilibra. Creo que las personas de bajos ingresos usan teléfonos celulares y redes sociales tanto como las personas de altos ingresos en los Estados Unidos”, dijo.

Pero predice que las mejoras sustanciales y mayores en la escritura para los estudiantes internacionales, mucho mayores que para los estudiantes nacionales, serán “más importantes y duraderos”.

Por supuesto, esta calidad de escritura mejorada no significa que estos estudiantes internacionales realmente estén aprendiendo a escribir mejor, pero sí indica que son expertos en usar tecnología para presentar ideas en inglés bien escrito.

RELACIONADO: La clasificación de ensayos de IA ya es tan ‘bueno como un maestro sobrecargado’, pero los investigadores dicen que necesita más trabajo

Los investigadores del estudio no analizaron las ideas, la calidad del análisis o si las presentaciones de los estudiantes tenían sentido. Y no está claro si los estudiantes alimentaron la lectura al chatbot junto con la pregunta del profesor y simplemente copiaron y pegaron la respuesta del chatbot en el tablón de discusión, o si los estudiantes realmente leyeron, escribieron algunas ideas preliminares y solo le pidieron al chatbot para pulir su escritura.

En las propias clases de Yu en Teachers College, dijo que alienta a los estudiantes a usar CHATGPT en sus tareas de escritura siempre que lo reconozcan y también envíen transcripciones de sus conversaciones con el AI Chatbot. En la práctica, dijo, solo unos pocos estudiantes admiten usarlo.

Se dio cuenta de que la escritura de los estudiantes en sus clases había mejorado hasta ahora. “Este año ha sido realmente horrible”, dijo. Cada vez más de sus alumnos han estado presentando una producción de IA típica que “parece razonable pero no tiene mucho sentido”, dijo.

“Todo se reduce a la motivación”, dijo Yu. “Si no están motivados para aprender, los estudiantes solo harán un mal uso de lo que sea la tecnología”.

Póngase en contacto con el escritor del personal Jill Barshay al 212-678-3595, Jillbarshay.35 en Signal, o barshay@hechingerReport.org.

Esta historia sobre la escritura de chatgpt fue escrita por Jill Barshay y producida por El informe de Hechingeruna organización de noticias independiente sin fines de lucro centrada en la desigualdad y la innovación en la educación. Matricularse en Puntos de prueba y otros Boletines de Hechinger.

El informe de Hechinger proporciona informes imparciales en profundidad, basados ​​en hechos sobre educación que es gratuita para todos los lectores. Pero eso no significa que sea libre de producir. Nuestro trabajo mantiene informados a los educadores y al público sobre temas apremiantes en las escuelas y en los campus de todo el país. Contamos toda la historia, incluso cuando los detalles son inconvenientes. Ayúdanos a seguir haciendo eso.

Únase a nosotros hoy.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

La gran contratación de IA de Microsoft no puede igualar OpenAi

Published

on

De Tom Dotan, nuestro nuevo corresponsal senior, recién salido de dos años cubriendo Microsoft para el Wall Street Journal

En el Huddle ejecutivo anual de Microsoft el mes pasado, el director financiero de la compañía, Amy Hoodcolocó una diapositiva que trazó el número de usuarios para su herramienta Copilot Consumer AI durante el año pasado. Era esencialmente una línea plana, que mostraba alrededor de 20 millones de usuarios semanales.

En la misma diapositiva había otra línea que mostraba el crecimiento de ChatGPT durante el mismo período, arqueando siempre a 400 millones de usuarios semanales. El icónico chatbot de Openai se elevaba, mientras que la mejor esperanza de Microsoft para una herramienta de IA de adoptación masiva era inactividad.

Fue una tabla aleccionadora para el equipo de IA de consumidores de Microsoft y el hombre que lo ha estado liderando durante el año pasado, Mustafa Suleyman.

Ahorrar tiempo + crecimiento de aceleración: obtenga el cumplimiento del paquete de startups

Para escalar su empresa, necesita cumplimiento. Y al invertir en el cumplimiento temprano, protege los datos confidenciales y simplifica el proceso de cumplir con los estándares de la industria, lo que garantiza la confianza y la seguridad a largo plazo.

Vanta ayuda a las empresas en crecimiento a lograr el cumplimiento de forma rápida y sin dolor al automatizar más de 35 marcos, incluidos SoC 2, ISO 27001, HIPAA y más.

Comience con el cumplimiento de Vanta para las nuevas empresas, con recursos clave para acelerar su viaje.

  • Listas de verificación de cumplimiento paso a paso

  • Estudios de casos de nuevas empresas de rápido crecimiento

  • Videos a pedido con líderes de la industria

Consíguelo aquí.

Obtenga más información

Microsoft trajo a Suleyman a bordo en marzo de 2024, junto con gran parte del talento en su lucha contra la inflexión de inicio de IA, a cambio de una tarifa de licencia de $ 650 millones que hizo que los inversores de la inflexión completen, y algo más.

Fue un trato de tendencia que surgió cejas, que, como un puñado de otros en ese momento, parecía ser una buena manera para que el gigante tecnológico evite los problemas antimonopolio en su búsqueda de liderazgo de IA. Suleyman fue uno de los pocos nombres realmente grandes en IA generativo, alguien que podría ser un faro para el talento y un catalizador para un nuevo pensamiento en un gigante de la madera proverbial.

Sin embargo, desde el principio, la gente dentro de la compañía me dijo que eran escépticos. Muchos extraños han luchado por tener un impacto o incluso sobrevivir en Microsoft, una compañía llena de vidas que cortan sus dientes tecnológicos en una época diferente. Mis fuentes escépticas señalaron que la carrera anterior de Suleyman en una gran empresa no había ido bien, con Google despojándolo de algunas responsabilidades de gestión después de que las quejas de cómo trató al personal, el Wall Street Journal reportado en ese momento.

También hubo muchos ojos en el hecho de que Suleyman recibió el título de CEO de Microsoft AI. Esa designación generalmente está reservada para el principal ejecutivo de las empresas que adquiere y deja operar semiautonómicamente, como LinkedIn o GitHub.

Y sin embargo, el acuerdo tenía sentido. Satya Nadella No estaba contento con el rendimiento de la renovada Bing y su chatbot con alimentación de OpenAI. Las extraordinarias maquinaciones de finales de 2023 en Operai, donde el CEO Sam Altman fue despedido por el tablero sin fines de lucro solo para ser reinstalado menos de una semana después, convenció a Nadella y el tablero de Microsoft que necesitaban para destituir a la dependencia total de la compañía agregada por el drama y sus modelos. Microsoft también fue difícil para el talento: después de años de desviar los recursos lejos de su brazo de investigación para Openai, el gigante de la tecnología de Redmond necesitaba reavivar sus esfuerzos internos.

Al contratar a Suleyman, Microsoft estaba tomando un volante en un ejecutivo bien conocido pero controvertido con una sensibilidad del producto.

Y como la diapositiva de Hood dejó en claro, esa apuesta aún no ha valido la pena.

Microsoft está en medio de un cambio tectónico, uno sobre el que pasé los últimos años escribiendo para el Wall Street Journal. Al igual que Disney, ingresó a la era de la transmisión, o Uber encontró su camino después de la expulsión de su fundador, otros dos casos de transición corporativa dramática que he tenido el privilegio de cubrir, Microsoft necesita urgentemente redefinirse a medida que la industria tecnológica se restablece la IA. Es un buen momento para hacer un balance de cómo se gestiona el liderazgo de la compañía.

Desde que asumió el cargo de CEO, el enfoque de Nadella ha sido infundir a Microsoft con sangre fresca. Lo hizo con éxito con Kevin Scottque entró a través de la adquisición de LinkedIn y pasó la relación OpenAI, que a pesar de los baches se considera una victoria de señal dentro de la compañía.

Sin embargo, la llegada de Suleyman era casi tan rocosa como lo predijeron muchos de los escépticos iniciales. En primer lugar, significaba degradar al jefe anterior de Bing y otras empresas de consumo, Mikhail parakhinquien pronto se desvaneció para Shopify para convertirse en su CTO.

La nueva misión inicial del nuevo equipo de Suleyman, según mis fuentes, era crear sus propios modelos que pudieran ser atribuidos para OpenAi’s dentro de las aplicaciones AI de Microsoft. Bajo el ejemplo de Karén SimonyanCofundador técnico de Suleyman en la inflexión, se embarcaron en ese esfuerzo casi de inmediato y comenzaron a pre-entrenamiento de un modelo llamado MAI-1. (La información Primero reportado sobre el Modelo MAI-1 el año pasado.)

Varias carreras de entrenamiento de Mai aumentaron resultados decepcionantes, que es caro pero no raro: es el costo de jugar a la vanguardia de la investigación. Pero los problemas con Mai provocaron acritud.

A medida que el equipo de Suleyman absorbió otros equipos de IA dispersos por toda la compañía, surgieron más problemas. Un incidente involucró a un equipo dirigido por el vicepresidente de investigación generativa de IA Sebastien Bubeckque había desarrollado una familia de modelos llamado PHI. Estos modelos se construyeron utilizando datos sintéticos: datos de entrenamiento generados por modelos de IA más grandes.

El equipo de Bubeck estuvo involucrado en una gran carrera de entrenamiento para Mai el año pasado, donde mezcló sus datos sintéticos con datos web más tradicionales. Después de que los resultados resultaron decepcionantes, Simonyan argumentó que los datos sintéticos habían “contaminado” el proceso. Eso inició un debate entre los equipos PHI y MAI sobre si los datos sintéticos realmente pueden producir modelos con aplicaciones del mundo real o simplemente aquellos que pueden obtener bien en las pruebas.

El desacuerdo se desarrolló en un canal público de holgura, algo que solo sucedió porque al equipo de inflexión se le permitió seguir usando Slack cuando se unieron a Microsoft en lugar de cambiar a los equipos, y para algunos miembros del equipo de Bubeck, se sintió como un ataque.

No mucho después, el equipo PHI fue reorendido de debajo de Mai y volvió a la investigación de Microsoft. Desde entonces, Bubeck ha dejado a Microsoft para una publicación en Operai, donde está construyendo su equipo de datos sintéticos.

Suleyman también ha revuelto plumas en OpenAi. La relación entre Microsoft y su compañero de IA ha tenido sus altibajos, pero en general ha sido muy beneficioso para ambos jugadores. Aún así, Altman nunca le ha gustado Suleyman, mis colegas y yo anteriormente reportado en el diario.

El año pasado, mientras Operai estaba construyendo su tan tocada modelo O3, Suleyman arremetió contra el personal de Openi en frustración por la falta de acceso que su equipo estaba llegando al modelo de razonamiento. Ahora es un ampliamente informado incidentey mi sentido es Openai no le importa que esté ahí fuera, lo que sugiere que los malos sentimientos corren en ambas direcciones. No es del todo justo culpar a Suleyman por el estado de relaciones entre estas dos.

Lo que definitivamente es justo es preguntar si MAI puede construir un producto de IA de consumidores exitoso. En ese frente, el gran día de Suleyman llegó a principios de este mes cuando finalmente anunció el copiloto renovado, que fue diseñado para ser un compañero personal que puede reservar vuelos y recordar cosas sobre usted.

(El anuncio también fue cronometrado con el 50 aniversario de Microsoft, que en un golpe de mala suerte cayó dos días después de que las tarifas del “Día de Liberación” de Trump. Por lo tanto, Suleyman tuvo el honor de lanzar el producto en medio del telón escoltado de la habitación y luego despedido.

El anuncio de copilot no transformó la narrativa. Y en este punto, Microsoft no está en ejecución para construir un modelo que pueda competir con los mejores de OpenAI, Anthrope, Google e incluso XAI. Los proyectos que las personas me han mencionado se sienten incrementales, en lugar de saltar a la competencia.

Tal vez no necesiten hacerlo. En un mundo donde existen múltiples modelos de primera línea, hay menos presión para que haya un modelo hecho de Microsoft que reduzca su dependencia de OpenAi. Ese no era el caso hace un año.

Todo eso se enfoca aún más en Suleyman para entregar lo que Nadella realmente ha estado fijamente: un producto de consumo exitoso. Todavía no es hora de pánico: el CEO de AI todavía está muy enamorado del CEO. Pero Nadella tiene una tendencia a enamorarse de ciertos ejecutivos y luego, si no pueden estar a la altura, su mirada se desplaza en otros lugares.

Si eso sucede, Suleyman podría encontrarse directamente a la vista de Amy Hood, el CFO, que puede ser brutal al hacer recortes si una división no está entregando. Liderar un producto que está siendo lapado por ChatGPT no es lo que Suleyman fue contratado para hacer.

Sin ningún cambio, una línea plana puede significar que es hora de tirar del enchufe.

Podcast de recién llegado

Hemos pasado de las empresas de marketing de VC que intentan “ir directamente” a los medios tecnológicos genuinos.

Esta semana, Andreessen Horowitz contrató Erik Torenberg Como socio general, y trajo a sus firmes medios de trementina al gigante de la capital de riesgo.

Mientras tanto, los fundadores financian ejecutivo en residencia John Coogan anunció que iría a tiempo completo en su programa de noticias en línea diarias de 3 horas.

Madeline, Eric y Tom discuten el panorama de los medios en evolución en el podcast.

Escuchar

Una gran tabla

Los fondos crossover acumularon el ritmo de la inversión de inicio durante el auge de 2021, con uno de los actores más grandes, Tiger Global, una vez respaldando a más de 400 compañías en un cuarto.

Ahora estos fondos han retrocedido la cantidad de acuerdos, incluso cuando el total de dólares invertidos en el primer trimestre de 2025 alcanzó su más alto nivel.

El cambio en la dinámica refleja las enormes sumas que se vierten en compañías de modelos de base como Anthrope y las luchas de los sectores de inicio que no son AI.

Lo que dicen

Los inversores, los ejecutivos y los influenciadores de los medios no acudieron a las palabras sobre la llamada de ganancias de Tesla. El mismo Elon Musk cubrió los aranceles que han estado lastimando sus márgenes.

Continue Reading

Noticias

Virgin Atlantic Prueba agente Openai para el sitio y el vuelo • El registro

Published

on

Entrevista A pesar de todo lo que se habla de la “era de los agentes” de proveedores de IA como OpenAi, Google, Anthrope, Microsoft y casi todos los demás en el espacio, el uso corporativo de la tecnología sigue siendo tentativo. Virgin Atlantic ha estado realizando pruebas de vuelo de su sitio web con un agente de IA llamado operador, y los primeros resultados son prometedores, señalando el camino hacia cómo los agentes podrían usarse para ayudar a los clientes a reservar vuelos.

OPERAI anunció operador en enero. Es una vista previa de investigación de un agente de IA basado en un modelo llamado agente de uso de computadora (CUA); básicamente, el operador es la marca a través del cual CUA, el modelo real, está disponible para los suscriptores de OpenAI Pro en operator.chatgpt.com.

CUA combina la capacidad de visión de GPT-4O, la capacidad de “comprender” las imágenes y la “razón” sobre ellas, con capacitación que cubre las interfaces gráficas de los usuarios. El modelo puede mirar una página web y tener una idea de qué elementos representan botones y cómo aplicar eventos de clic. Es esencialmente la versión LLM de un marco de automatización de navegador como Selenium o dramaturgo.

Poco después de su debut, Virgin Atlantic comenzó a probar el operador para ver cómo el agente de IA navega por el flujo de reserva de su sitio web, si puede recuperar información útil y si puede monitorear el uso del sitio web y proporcionar comentarios relacionados con el negocio sobre las interacciones del usuario. Los primeros resultados son prometedores para ayudar a Virgin a ajustar su sitio web, según el vicepresidente de ingeniería digital Neil Letchford, y su equipo ahora está explorando cómo el operador podría usarse en interacciones reales orientadas al cliente.

El registro habló con Letchford para comprender mejor hasta qué punto se están desplegando los agentes de IA.

Letchford: Trabajo en la función de experiencia del cliente en Virgin Atlantic. Dirijo el grupo de ingeniería digital. Así que soy vicepresidente de ingeniería digital. Y mi equipo es responsable de construir todas las experiencias digitales orientadas al cliente para Virgin Atlantic. Entonces, todo lo que aparece en el viaje del cliente, eso es lo que mi equipo es responsable.

Entonces, cuando nos asociamos con Operai, y por cierto, no somos un equipo masivo, ¿verdad? Somos un equipo relativamente pequeño como lo son muchos equipos de ingeniería de software, pero cuando nos asociamos con Openai y hablamos sobre el operador, vimos una oportunidad real de escalar y automatizar algunas de las funciones que tenemos dentro de mi equipo, de aspecto internacional.

Pero también al hacer eso, hemos comenzado a explorar cómo los sistemas de tipo operador o de estos operadores podrían afectar las experiencias de los clientes del futuro. Cómo nuestros clientes podrían estar utilizándolos. Por lo tanto, nos llevó a los dos caminos durante este tipo de período, que han sido realmente interesantes.

El registro: Entonces, ¿qué tipo de cosas has encontrado?

Letchford: Lo hemos estado usando para algunos de nuestros casos de uso interno. Entonces, inicialmente, cuando pensamos en nuestro sitio web, por ejemplo, hablamos mucho sobre caminar por el viaje del cliente y comprender el viaje del cliente.

Nuestros casos de uso iniciales fueron alrededor de cómo podríamos utilizar básicamente el operador para buscar y reservar un vuelo, hasta el punto en que tal vez tenga que poner en los detalles de su tarjeta de crédito, ¿verdad?

Al hacer eso, descubrimos que, en realidad, el operador entendía UX [user experience]. Entonces, comprende efectivamente el UX y la estructura de su sitio web, que fue bastante interesante, ¿verdad? Porque tiene que aprender a navegar y cómo moverse a través de su viaje de clientes para reservar un vuelo, por ejemplo.

Y al hacer eso, extendimos el caso de uso para actuar como propietario de un producto. [In other words,] ¿Podría el operador darnos comentarios útiles sobre cómo podría mejorarse nuestro sitio web o está funcionando?

Así que le dimos algunas tareas como algunas tareas de optimización en torno al texto y cosas así. Le pedimos que encuentre esa información tal vez sobre Nueva York o Miami. Desaparecería y luego volvería y se presentaría formas en que tal vez podríamos mejorar nuestro contexto o mejorar nuestro pensamiento.

Luego dimos al operador, no sé si se nos permite hacer esto, pero le dimos acceso al operador a un correo electrónico, una cuenta de Gmail. Y luego, lo que haría es enviarnos los resultados por correo electrónico. Pondría sus resultados en los documentos de Google y luego nos envía un correo electrónico a los resultados.

Por lo tanto, es una automatización realmente interesante y valiosa de estas tareas cotidianas que necesita personas para hacer. Y podría ver un mundo en el que pudiéramos construir, construir y construir sobre esto para que estas diferentes personas de operadores realicen diferentes tareas en todo el sitio web.

Y luego, al hacer eso, también abrió pensamientos sobre cómo el operador entiende nuestro UX: la estructura de contexto o la estructura de navegación. Pero debido a que el operador no tiene el contexto de lo que es la web: cosas simples como un menú de hamburguesas, el operador en algunos casos no, tiene que aprender estas cosas.

Eso abrió algunas conversaciones realmente interesantes con nuestro equipo de UX sobre si estamos siendo claros sobre cómo nuestro sitio web está estructurado y otras preguntas de UX: preguntas sobre recolectores de citas y cosas así. [offered] Versión realmente valiosa sobre cómo funciona nuestra experiencia de usuario.

El registro: Por lo tanto, ha estado utilizando el operador para la optimización web interna. ¿Hay formas en que los clientes interactúan con la tecnología?

Letchford: Sí, así que lo estamos usando para esos casos de uso internos en este momento, pero también somos parte del piloto del operador Operai, donde lo hemos abierto a las personas que usan el operador como parte de ChatGPT.

El registro: Entre los clientes que lo han hecho, ¿qué ha aprendido sobre su experiencia?

Letchford: Por lo general, el operador es realmente bueno para comprender las tareas. Por lo general, el operador realmente no se abre [unless] Hay seguridad o información personal que debe ingresar. Se detendrá y el control de la mano volverá al cliente para terminar su tarea.

El registro: ¿Y cómo evalúa el operador en términos de sus objetivos organizacionales?

Letchford: No me gustaría compartir ninguna métrica interna, pero obviamente tenemos un montón de KPI [key performance indicators] Utilizamos en términos de rendimiento y deuda técnica y cosas así sobre cómo administramos internamente nuestro sitio web. Básicamente lo tratamos como otro miembro de nuestro equipo de manera efectiva y vamos a construir sobre él desde allí.

Y en términos de la pieza del operador externo, en este momento es una prueba de concepto con la que estamos trabajando en OpenAi. Lo estamos probando realmente para ver lo que está sucediendo en el mercado porque creemos que estas experiencias y agentes que tienen la capacidad de usar Internet podrían convertirse en un canal clave para nosotros en el futuro.

Por lo tanto, comprender la tecnología y cómo los agentes podrían interactuar con nuestro sitio es realmente importante para nosotros. Uno de los aprendizajes clave para nosotros no solo es esta idea de UX, sino que también estamos investigando, ya sabes, cómo podríamos darle al operador más contexto sobre nuestro sitio web. Por lo tanto, estamos pensando en cómo podríamos proporcionar un contexto específico del operador a los tipos de sistemas en el futuro para que puedan ser más eficientes.

Porque para alguien como usted, ir a nuestro sitio web, podría encontrar fácilmente contenido de ayuda sobre el equipaje. Es muy natural. Pero podríamos acelerar esas cosas para estos sistemas de tipo operador dándole el contexto de cómo navegar en nuestro sitio web y cosas así.

El registro: ¿Son la infraestructura y los costos computacionales de ejecutar esto sobre lo que esperaba?

Letchford: No, para nosotros, en lo cierto, todos los costos son efectivos por OpenAi. El único costo para nosotros es el tráfico para nuestro sitio web, que tenemos de todos modos.

El registro: ¿Tiene una idea de cuántos tipos diferentes de pasos o sistemas puede poner en un flujo de automatización antes de que se vuelva demasiado complejo para razonar?

Letchford: Bueno, realmente, la forma en que pensamos sobre el operador es que le das una tarea y luego le das las herramientas para llevar a cabo su tarea. Entonces realmente no lo limitamos. Obviamente, podrías decir: “¿Cuáles son los cinco vuelos más baratos a Nueva York?” Y se apagaría y llevaría a cabo esa tarea. Y también es realmente bueno para comprender cuándo no puede completar una tarea o cuando necesita más información, lo preguntará.

El registro: ¿Ha tenido algún incidente en el que se dio cuenta de que tenía que estar en la buñilla de algo, donde siguió adelante y retiró los datos del correo electrónico de alguien sin esperarlo?

Letchford: No, es realmente fuerte con los datos personales y cosas así.

El registro: ¿Qué le gustaría que el operador haga que aún no lo haga?

Letchford: La capacidad de darle sus datos de prueba e información que puede usar para superar como nuestros entornos de prueba internos sería realmente útil.

También estamos realmente interesados ​​en las personas y la accesibilidad. Entonces, por ejemplo, la capacidad de darle a Operator una persona, por ejemplo, por ejemplo, eres una familia de cuatro que organiza un viaje a Orlando.

Donación [the agent] Una persona y ver cómo eso funciona en nuestros viajes y anotar es realmente interesante para nosotros. Porque entonces podríamos entender cómo las diferentes cohortes de usuarios pasan por nuestro viaje del cliente.

La otra cosa que realmente nos interesa que esté relacionada con las personas es la accesibilidad: cómo podría el operador ayudarnos a mejorar la accesibilidad de nuestro sitio web al tener la persona de tal vez un usuario parcialmente avistado o alguien así es realmente interesante para nosotros. ®

Continue Reading

Noticias

Decir ‘Gracias’ a Chatgpt es costoso. Pero tal vez valga la pena el precio.

Published

on

La cuestión de si ser cortés a la inteligencia artificial puede parecer un punto discutible, después de todo, es artificial.

Pero Sam Altman, el director ejecutivo de la compañía de inteligencia artificial Openai, recientemente arrojó luz sobre el costo de agregar un adicional “¡Por favor!” o “¡Gracias!” a las indicaciones de chatbot.

Alguien publicó en X la semana pasada: “Me pregunto cuánto dinero ha perdido Openai en los costos de electricidad de las personas que dicen ‘por favor’ y ‘gracias’ a sus modelos”.

Al día siguiente, el Sr. Altman respondió: “Decenas de millones de dólares bien gastados, nunca se sabe”.

Lo primero es lo primero: cada solicita de un chatbot cuesta dinero y energía, y cada palabra adicional como parte de esa solicitud aumenta el costo de un servidor.

Neil Johnson, profesor de física en la Universidad George Washington que estudió inteligencia artificial, comparó palabras adicionales con el empaque utilizado para las compras minoristas. El bot, al manejar un aviso, tiene que nadar a través del embalaje, por ejemplo, papel de seda alrededor de una botella de perfume, para llegar al contenido. Eso constituye un trabajo adicional.

Una tarea de ChatGPT “implica que los electrones se mueven a través de transiciones, eso necesita energía. ¿De dónde vendrá esa energía?” El Dr. Johnson dijo, y agregó: “¿Quién lo está pagando?”

El auge de la IA depende de los combustibles fósiles, por lo que desde un costo y una perspectiva ambiental, no hay una buena razón para ser cortés a la inteligencia artificial. Pero culturalmente, puede haber una buena razón para pagarlo.

Los humanos han estado interesados ​​durante mucho tiempo en cómo tratar adecuadamente la inteligencia artificial. Tome el famoso episodio de “Star Trek: The Next Generation” “The Medy of a Man”, que examina si los datos de Android deben recibir todos los derechos de los seres sintientes. El episodio toma mucho los datos, un favorito de los fanáticos que eventualmente se convertiría en un personaje querido en la tradición “Star Trek”.

En 2019, un estudio de investigación de Pew encontró que el 54 por ciento de las personas que poseían altavoces inteligentes como Amazon Echo o Google Home informaron decir “por favor” al hablarles.

La pregunta tiene una nueva resonancia a medida que ChatGPT y otras plataformas similares avanzan rápidamente, lo que hace que las empresas que producen IA, escritores y académicos lidiaran con sus efectos y consideren las implicaciones de cómo los humanos se cruzan con la tecnología. (El New York Times demandó a Openai y Microsoft en diciembre alegando que habían infringido los derechos de autor del Times en la capacitación de sistemas de IA).

El año pasado, la compañía de IA Anthrope contrató a su primer investigador de bienestar para examinar si los sistemas de IA merecen una consideración moral, según el transformador del boletín tecnológico.

El guionista Scott Z. Burns tiene una nueva serie audible “¿Qué podría salir mal?” Eso examina las dificultades y posibilidades de trabajar con AI “La amabilidad debería ser la configuración predeterminada de todos: hombre o máquina”, dijo en un correo electrónico.

“Si bien es cierto que una IA no tiene sentimientos, mi preocupación es que cualquier tipo de maldad que comience a llenar nuestras interacciones no terminará bien”, dijo.

La forma en que uno trata a un chatbot puede depender de cómo esa persona ve la inteligencia artificial misma y si puede sufrir grosería o mejorar de la amabilidad.

Pero hay otra razón para ser amable. Existe una mayor evidencia de que los humanos interactúan con la inteligencia artificial se trasladan a cómo tratan a los humanos.

“Construimos normas o guiones para nuestro comportamiento y, por lo tanto, al tener este tipo de interacción con la cosa, podemos estar un poco mejores o más orientados habitualmente hacia el comportamiento educado”, dijo el Dr. Jaime Banks, quien estudia las relaciones entre humanos y IA en la Universidad de Syracuse.

La Dra. Sherry Turkle, quien también estudia esas conexiones en el Instituto de Tecnología de Massachusetts, dijo que considera una parte central de su trabajo para enseñar a las personas que la inteligencia artificial no es real, sino más bien un “truco de salón” brillante sin conciencia.

Pero aún así, ella también considera el precedente de las relaciones pasadas del objeto humano y sus efectos, particularmente en los niños. Un ejemplo fue en la década de 1990, cuando los niños comenzaron a criar Tamagotchis, las mascotas digitales ubicadas en dispositivos del tamaño de la palma requerían alimentación y otros tipos de atención. Si no recibieran la atención adecuada, las mascotas morirían, lo que provocará que los niños denuncien un dolor real. Y algunos padres se han preguntado si deberían preocuparse por los niños que son agresivos con las muñecas.

En el caso de los bots de IA, el Dr. Turkle argumentó que están “lo suficientemente vivos”.

“Si un objeto está lo suficientemente vivo como para comenzar a tener conversaciones íntimas, conversaciones amistosas, tratarlo como una persona realmente importante en nuestras vidas, aunque no lo está, está lo suficientemente vivo como para mostrar cortesía”, dijo el Dr. Turkle.

Madeleine George, una dramaturga cuya obra de 2013 “The (Curious Case of the) Watson Intelligence” fue finalista para un Premio Pulitzer, ofreció otra perspectiva: decir “Please” y “Gracias” a AI Bots les ofrece la oportunidad de aprender cómo ser más humanos. (Su juego reinventa diferentes versiones de Sherlock Holmes’s Sidekick, Dr. Watson, incluida una de inteligencia artificial).

Ofrecer frases educadas para Chatgpt, desde su perspectiva, deja abierta la posibilidad de que eventualmente “actúe como un ser vivo que comparte nuestra cultura y que comparte nuestros valores y que comparte nuestra mortalidad”.

Por otro lado, estas frases también pueden hacernos más dependiendo de la IA

“Estamos conectados. Estamos en una relación recíproca. Por eso usamos esas piezas del lenguaje”, dijo George. “Entonces, si enseñamos esa herramienta para que sea excelente para usar esas cosas, entonces vamos a ser aún más vulnerables a sus seducciones. “

Muchas preocupaciones de los observadores de inteligencia artificiales permanecen en lo teórico, a medida que cambia la tecnología. Por ahora, hay poco efecto tangible.

“Si te alejas de ellos y haces cena o se suicidas”, dijo el Dr. Turkle, “es lo mismo para ellos”.

Pero para el futuro Robot Overlords leyendo esta pieza, gracias por su tiempo. Es apreciado.

Por si acaso.

Continue Reading

Trending