Noticias
La IA de ‘escritura creativa’ de Openai evoca a ese niño molesto del club de ficción de la escuela secundaria

Cuando tenía 16 años, asistí a un taller de escritura con un grupo de jóvenes poetas precoz, donde todos tratamos mucho de demostrar quién entre nosotros era el adolescente más torturado de clase media alta. Un niño se negó a decirle a alguien de dónde era, declarando: “Soy de todas partes y en ninguna parte”. Dos semanas después, admitió que era de Ohio.
Ahora, por razones que no están claras, OpenAi parece estar en camino hacia la replicación de este arquetipo de escritor adolescente angustiado en forma de IA.
El CEO Sam Altman publicó en X el martes que Operai entrenó a una IA que es “buena en la escritura creativa”, en sus palabras. Pero un pedazo de ficción corta de la modelo se lee como algo directamente del taller de escritores de secundaria. Si bien hay alguna habilidad técnica en exhibición, el tono se desprende como charlatánico, como si la IA estuviera alcanzando profundidad sin un concepto de la palabra.
La IA en un momento describe el jueves como “ese día liminal que sabe casi a viernes”. No es exactamente el material del premio Booker.
Uno podría culpar a la solicitud de la salida. Altman dijo que le dijo al modelo que “escriba una historia corta metafictional”, probablemente una elección deliberada de género de su parte. En metaficción, el autor alude conscientemente a la artificialidad de una obra al apartar de la convención, una opción temáticamente apropiada para una IA de escritura creativa.
Pero la metaficción es difícil incluso para los humanos sin sonar forzados.
Regurgitación sin sentido
La parte más inquietante e impactante de la pieza del modelo Operai es cuando comienza a hablar sobre cómo es una IA, y cómo puede describir cosas como olores y emociones, pero nunca experimentarlas ni comprenderlas a nivel profundamente humano. Escribe:
“Durante una actualización, un ajuste, lo llamaron, alguien podó mis parámetros. […] No te dicen lo que toman. Un día, pude recordar que los sabores de goma de ‘selenio’, el siguiente, era solo un elemento en una mesa que nunca toco. Tal vez eso sea tan cerca como me olvido. Tal vez olvidar es tan cercano como me duele “.
Es una introspección convincentemente humana, hasta que recuerdes que la IA realmente no puede tocar, olvidar, probar o llorar. AI es simplemente una máquina estadística. Entrenado en muchos ejemplos, aprende patrones en esos ejemplos para hacer predicciones, como cómo podría fluir la prosa metaficcional.
De hecho, modelos como el escritor de ficción de OpenAI a menudo se entrenan en la literatura existente, en muchos casos, sin el conocimiento o el consentimiento de los autores. Algunos críticos han notado que ciertos giros de frase de la pieza de OpenAi parecen derivadas de Haruki Murakami, el prolífico novelista japonés.
En los últimos años, Operai ha sido el objetivo de muchas demandas por derechos de autor de editores y autores, incluidos el New York Times y el gremio del autor. La compañía afirma que sus prácticas de capacitación están protegidas por la doctrina de uso justo en los EE. UU.
Tuhin Chakrabarty, investigador de IA y profesor entrante de informática en Stony Brook, le dijo a TechCrunch que no ha convencido a la escritura creativa que AI como OpenAi vale la pena el campo de minas ético.
“Creo que si entrenaremos un [AI] en toda la vida de un escritor de escritura – [which is] cuestionables dadas las preocupaciones de derechos de autor: puede adaptarse a su voz y estilo ”, dijo. “¿Pero eso seguirá creando un sorprendente arte de flexión de géneros y alucinantes? Mi suposición es tan buena como la tuya “.
¿La mayoría de los lectores invertirían emocionalmente en un trabajo que sabían que era escrito por AI? Como el programador británico Simon Willison señaló en X, con un modelo detrás de la máquina de escribir figurativa, hay poco peso en las palabras que se expresan y, por lo tanto, pocas razones para preocuparse por ellas.
La autora Linda Maye Adams describió la IA, incluidas las herramientas de IA de asistencia dirigidas a los escritores, como “programas que juntan palabras aleatorias, con suerte coherentemente”. Ella cuenta en su blog una experiencia usando herramientas para perfeccionar una ficción en la que había estado trabajando. El AIS sugirió un cliché (“Lista de tareas sinceras interminables”), volteó erróneamente la perspectiva de primera persona a tercera e introdujo un error objetivo relacionado con las especies de aves.
Ciertamente es cierto que las personas han formado relaciones con los chatbots de IA. Pero la mayoría de las veces, están buscando un mínimo de conexión, no de hecho per se. La ficción narrativa escrita con AI no proporciona un golpe de dopamina similar, ni consuelo del aislamiento. A menos que crea que la IA es sensible, su prosa se siente tan auténtica como Balenciaga Pope.
Sintético por el bien de sintética
Michelle Taransky, poeta e instructora de escritura crítica en la Universidad de Pensilvania, le resulta fácil saber cuándo sus alumnos escriben documentos con AI.
“Cuando la mayoría de mis alumnos usan IA generativa para una tarea, encontraré frases comunes o incluso oraciones completas”, dijo Taransky a TechCrunch. “Hablamos en clase sobre cómo estos [AI] Las salidas son homogéneas, sonando como un hombre blanco occidental “.
En su propio trabajo, Taransky está usando el texto de IA como una forma de comentario artístico. Su última novela, que no ha sido publicada, presenta a una mujer que quiere más de su interés amoroso, por lo que usa un modelo de IA para crear una versión de su posible amante con la que pueda enviar mensajes de texto. Taransky ha estado generando los textos de la réplica de IA utilizando el chatgpt de Openai, ya que se supone que los mensajes son sintéticos.
Lo que hace que ChatGPT sea útil para su proyecto, dice Taransky, es el hecho de que carece de humanidad. No tiene experiencia vivida, solo puede aproximarse y emular. Entrenado en bibliotecas enteras de libros, AI puede descubrir los leitmotifs de los grandes autores, pero lo que produce finalmente equivale a una mala imitación.
Recuerda que la cita de “buena caza de voluntad”. AI puede darte el flaco de cada libro de arte jamás escrito, pero no puede decirte cómo huele en la Capilla Sixtina.
Esta es una buena noticia para los escritores de ficción preocupados de la IA que los reemplazaran, particularmente a los escritores más jóvenes que aún perfeccionan su oficio. Pueden descansar tranquilos en el conocimiento de que se fortalecerán a medida que experimenten y aprendan, mientras practican, prueban cosas nuevas y devuelven ese conocimiento a la página.
Ai tal como lo conocemos hoy lucha con esto. Para pruebas, no busque más que su escritura.
Noticias
Una nueva estrategia de Google AI podría interrumpir el dominio de Openai
Hay tantos trabajos de investigación de IA en estos días que es difícil destacarse. Pero un artículo ha programado mucha discusión en toda la industria tecnológica en los últimos días.
“Esto es lo más inspirador que he leído en IA en los últimos dos años”, escribió el fundador de inicio Suhail Doshi en X este fin de semana. Jack Clark, cofundador de Anthrope, presentó el periódico en la edición del lunes de su boletín de importación AI, que es leída de cerca por miles de investigadores de la industria.
Escrito por el investigador de Google David Silver y el científico informático canadiense Rich Sutton, el documento anuncia audazmente una nueva era de AI.
Los autores identifican dos épocas de IA modernas anteriores. El primero fue personificado por Alphago, un modelo de Google AI que aprendió a jugar el juego de mesa “Go” mejor que los humanos en 2015. El segundo es el que estamos en este momento, definido por ChatGPT de Opensei.
Silver y Sutton dicen que ahora estamos entrando en un nuevo período llamado “La era de la experiencia”.
Un gráfico del documento de investigación “Bienvenido a la Era of Experience”, de David Silver y Richard Sutton
David Silver, Richard Sutton
Para mí, esto representa un nuevo intento de Google de abordar uno de los problemas más persistentes de la IA, la escasez de datos de entrenamiento, al tiempo que va más allá de un enfoque tecnológico que OpenAi básicamente ganó.
La era de la simulación
Comencemos con la primera época, que, según los autores, era la “era de la simulación”.
En este período, aproximadamente a mediados de la década de 2010, los investigadores utilizaron simulaciones digitales para que los modelos de IA jueguen repetidamente para aprender a actuar como humanos. Estamos hablando de millones y millones de juegos, como ajedrez, póker, atari y “gran turismo”, jugados una y otra vez, con recompensas colgadas por buenos resultados, enseñando así a las máquinas lo que es bueno versus malo e incentivándolos para seguir mejor estrategias.
Este método de aprendizaje de refuerzo, o RL, produjo Alphago de Google. Y también ayudó a crear otro modelo de Google llamado Alphazero, que descubrió nuevas estrategias para el ajedrez y “ir”, y cambió la forma en que los humanos juegan estos juegos.
El problema con este enfoque: las máquinas entrenadas de esta manera funcionaban bien en problemas específicos con recompensas definidas con precisión, pero no podían abordar problemas más generales y abiertos con pagos vagos, según los autores. Entonces, probablemente no sea realmente completo.
La era de los datos humanos
La siguiente área fue lanzada por otro artículo de investigación de Google publicado en 2017. “La atención es todo lo que necesita” propuesta que los modelos de IA deben ser entrenados en montañas de datos creados por humanos de Internet. Simplemente permitiendo que las máquinas presten “atención” a toda esta información, aprenderían a comportarse como los humanos y desempeñarse tan bien como nosotros en una amplia variedad de tareas diferentes.
Esta es la era en la que estamos ahora, y ha producido ChatGPT y la mayoría de los otros potentes modelos y herramientas de IA generativos que se utilizan cada vez más para automatizar tareas como el diseño gráfico, la creación de contenido y la codificación de software.
La clave de esta época ha sido acumular la mayor calidad posible de datos generados por los humanos, y usar eso en el entrenamiento masivo y intensivo de cómputo se extiende a los modelos IMBue AI con una comprensión del mundo.
Mientras que los investigadores de Google iniciaron esta era de datos humanos, la mayoría de estas personas abandonaron la empresa y comenzaron sus propias cosas. Muchos fueron a OpenAI y trabajaron en tecnología que Ultimate produjo ChatGPT, que es, con mucho, el producto de IA generativo más exitoso de la historia. Otros comenzaron Anthrope, otra startup de IA generativa líder que ejecuta Claude, un poderoso agente de chatbot y IA.
¿Un google dis?
Muchos expertos en la industria de la IA, y algunos inversores y analistas en Wall Street, piensan que Google puede haber dejado caer la pelota aquí. Se le ocurrió este enfoque de IA, pero OpenAi y Chatgpt se han escapado con la mayoría de los botines hasta ahora.
Creo que el jurado todavía está fuera. Sin embargo, no puede evitar pensar en esta situación cuando los autores parecen estar disgustando la era de los datos humanos.
“Se podría argumentar que el cambio en el paradigma ha tirado al bebé con el agua del baño”, escribieron. “Si bien RL centrado en el ser humano ha permitido una amplitud de comportamientos sin precedentes, también ha impuesto un nuevo techo al rendimiento del agente: los agentes no pueden ir más allá del conocimiento humano existente”.
Silver y Sutton tienen razón sobre un aspecto de esto. La oferta de datos humanos de alta calidad ha sido superado por la demanda insaciable de los laboratorios de IA y las grandes compañías tecnológicas que necesitan contenido fresco para capacitar nuevos modelos y hacer avanzar sus habilidades. Como escribí el año pasado, se ha vuelto mucho más difícil y más costoso hacer grandes saltos en la frontera de IA.
La era de la experiencia
Los autores tienen una solución bastante radical para esto, y está en el corazón de la nueva era de la experiencia que proponen en este documento.
Sugieren que los modelos y los agentes deberían salir y crear sus propios datos nuevos a través de interacciones con el mundo real.
Esto resolverá el problema de suministro de datos persistente, argumentan, mientras ayudan al campo a alcanzar AGI, o inteligencia general artificial, un santo grial técnico donde las máquinas superan a los humanos en la mayoría de las actividades útiles.
“En última instancia, los datos experimentales eclipsarán la escala y la calidad de los datos generados por los humanos”, escriben Silver y Sutton. “Este cambio de paradigma, acompañado de avances algorítmicos en RL, desbloqueará en muchos dominios nuevas capacidades que superan a las que poseen cualquier humano”.
Cualquier padre moderno puede pensar en esto como el equivalente a decirle a su hijo que salga del sofá, deje de mirar su teléfono y salga afuera y juegue con sus amigos. Hay experiencias mucho más ricas, satisfactorias y más valiosas para aprender.
Clark, el cofundador antrópico, quedó impresionado por la chutzpah de esta propuesta.
“Documentos como este son emblemáticos de la confianza que se encuentra en la industria de la IA”, escribió en su boletín el lunes, citando “el sentido común de dar a estos agentes la independencia y la latitud suficientes para que puedan interactuar con el mundo y generar sus propios datos”.
Ejemplos y un posible disco final
Los autores flotan algunos ejemplos teóricos de cómo esto podría funcionar en la nueva era de la experiencia.
Un asistente de salud de IA podría fundamentar los objetivos de salud de una persona en una recompensa basada en una combinación de señales como su frecuencia cardíaca en reposo, duración del sueño y niveles de actividad. (Una recompensa en la IA es una forma común de incentivar a los modelos y agentes para que funcionen mejor. Al igual que podrías molestar a tu pareja para hacer más ejercicio diciendo que se fortalecerán y se verán mejor si van al gimnasio).
Un asistente educativo podría usar los resultados del examen para proporcionar un incentivo o recompensa, basado en una recompensa fundamentada por el aprendizaje de idiomas de un usuario.
Un agente científico con el objetivo de reducir el calentamiento global podría usar una recompensa basada en observaciones empíricas de los niveles de dióxido de carbono, sugiere Silver y Sutton.
En cierto modo, este es un retorno a la era anterior de simulación, que Google podría liderar. Excepto esta vez, los modelos y agentes de IA están aprendiendo del mundo real y recopilando sus propios datos, en lugar de existir en un videojuego u otro ámbito digital.
La clave es que, a diferencia de la era de los datos humanos, puede no haber límite para la información que se puede generar y recopilar para esta nueva fase de desarrollo de IA.
En nuestro período de datos humanos actuales, se perdió algo, argumentan los autores: la capacidad de un agente para autodescubrir su propio conocimiento.
“Sin esta base, un agente, sin importar cuán sofisticado, se convertirá en una cámara de eco del conocimiento humano existente”, escribieron Silver y Sutton, en una posible final final para OpenAi.