Connect with us

Noticias

¿Qué es la investigación profunda de OpenAi y para qué puede usarlo?

Published

on






Si bien muchas personas usan el chatgpt de OpenAI como asistente de investigación para ayudarlos a encontrar hechos y cifras más rápidamente que con los motores de búsqueda tradicionales como Google, uno de los mayores problemas que el chatbot ha tenido es su incapacidad para ir más allá de la investigación a nivel de superficie. Como todos los chatbots de IA, ChatGPT tiende a alucinar, lo que resulta en hallazgos que no son particularmente confiables o confiables. Al usar CHATGPT, una persona tiene que lidiar con todo, desde datos y números fabricados hasta referencias falsas e información anticuada. Esto los obliga a regresar y verificar todo manualmente para verificar que lo que el chatbot les dice es cierto. Este tedioso proceso derrota el propósito de usar un chatbot de IA para automatizar las tareas de investigación en primer lugar.

Anuncio

Operai tiene una respuesta a estas preocupaciones llamadas Investigación Deep, que promete hacer el trabajo de un analista de investigación en una fracción del tiempo que le tomaría a un humano completar la tarea. Lo hace mediante el uso de una versión optimizada de análisis de datos y análisis de datos del modelo O3 de OpenAI para buscar en Internet, evaluar información de múltiples fuentes y generar un informe exhaustivo sobre la par con lo que produciría un analista de investigación profesional. Cuando todo está dicho y hecho, una investigación profunda puede completarse en menos de una hora lo que le tomaría a un analista humano varias horas.

¿Qué es la investigación profunda de Openai?

Solo puede acceder a una investigación profunda si tiene una cuenta Operai Pro, que cuesta $ 200/mes e incluye hasta 100 consultas por mes. La compañía dice que la investigación profunda estará disponible para los usuarios de plus y del equipo en el futuro, pero no ha especificado una fecha. Con una investigación profunda, puede dirigir a ChatGPT para realizar investigaciones de varios pasos sobre el tema de su elección. Usted ingresa a un aviso y una investigación profunda se trabaja, busca en Internet, examinó cientos de fuentes en línea, analizando datos y compilándolo todo en un informe para usted.

Anuncio

Una vez que le ha dado un aviso, el agente de investigación de IA hace todo esto independientemente sin requerir ninguna información adicional de usted, incluido el procesamiento de una gran cantidad de texto, imágenes y PDF. No tendrá que preguntarse cómo el agente de IA llega a sus conclusiones porque cada informe está completamente documentado y viene con una explicación de su proceso de pensamiento y citas claras, por lo que puede verificar toda la información que le brinda. Si necesita investigar en profundidad sobre un tema especializado o no intuitivo que requiera buscar múltiples sitios web, las investigaciones profundas pueden ahorrarle tiempo al manejar la investigación en línea compleja y que lleva mucho tiempo con una sola consulta.

La investigación profunda busca en Internet por sí solo, utilizando sus capacidades de razonamiento para resolver las cosas y reunir las ideas que el usuario encontrará útil. Operai capacitó a su agente de investigación de IA en tareas del mundo real que involucraba la navegación y el uso de herramientas de Python mientras usaba las mismas técnicas de refuerzo que impulsaron el primer modelo de razonamiento de la compañía, O1.

Anuncio

¿Para qué puedes usar Operai Deep Research?

No necesitará usar investigaciones profundas para tareas que uno de los otros modelos de OpenAI pueda manejar, como crear una presentación de PowerPoint o responder preguntas directas. Sin embargo, si necesita realizar investigaciones altamente involucradas sobre temas complejos relacionados con finanzas, ciencia, política, ley e ingeniería, cuando se detallan, verifica y verifica una investigación confiable, OpenAi dice que las investigaciones profundas pueden hacer el trabajo para tú.

Anuncio

Más allá de esas áreas, los usuarios también pueden encontrar una investigación profunda útil cuando desean información detallada antes de comprar cosas como automóviles, electrodomésticos y muebles. Si usted es alguien que normalmente recurre a sitios web como Consumer Reports para obtener su opinión sobre las marcas con los automóviles más confiables, el uso de investigaciones profundas puede brindarle recomendaciones adaptadas a su situación específica sin que tenga que visitar varios sitios web para recopilar información. Como beneficio adicional, generará un informe con toda la información que necesita para regresar y hacer referencia a su salida. Podría decirse que el mayor beneficio de usar investigaciones profundas es que le permite entregar tareas que pueden llevarle horas completar a un agente de IA que puede obtener todo lo que necesita en cuestión de minutos.

Anuncio

Si eres un suscriptor de Openai, usar investigaciones profundas es fácil. Todo lo que tiene que hacer es seleccionar una investigación profunda al componer un mensaje e ingresar un mensaje. Desea ser específico sobre lo que desea que el agente de investigación de IA encuentre para asegurarse de que ofrece lo que está buscando. Incluso puede adjuntar archivos o hojas de cálculo a su consulta. Podrá seguir su razonamiento mientras realiza la investigación en una barra lateral que resume los pasos que tomó y las fuentes que utilizó.

¿Qué tan buena es la investigación profunda de Openai?

Tan prometedora como es una investigación profunda, no está exenta de limitaciones. Es una buena idea tener un escepticismo saludable cuando se usa el agente de investigación de IA porque a pesar de que alucina a un ritmo mucho más bajo que otros modelos ChatGPT, todavía sucede, lo que hace que sea importante verificar siempre su salida. Las investigaciones profundas a veces compensarán hechos de la nada o malinterpretan información, que es una de las razones inquietantes por las que es posible que desee evitar usar CHATGPT por completo.

Anuncio

Si decide probar investigaciones profundas, puede encontrar algo de consuelo al saber que OpenAi dice que su tasa de alucinación es mucho más baja que la de otros modelos ChatGPT. Sin embargo, el agente de investigación de IA puede tener problemas para contar la diferencia entre rumores y información autorizada, algo que puede ser especialmente problemático para aquellos que realizan investigaciones serias. Al mismo tiempo, lucha con la calibración de confianza y no transmite la incertidumbre con precisión. Eso significa que puede presentar información con más certeza de la que realmente merece.

Como todavía es nuevo, puede encontrar que produce informes y citas con errores de formato menores, y puede llevar más tiempo de lo esperado comenzar nuevas tareas. Sin embargo, Operai dice que estos problemas son temporales, y el modelo debería mejorar rápidamente con el tiempo.

Anuncio



Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Los fanáticos de Miyazaki condenan Memes Ghibli Ghibli generados por IA

Published

on

En una ironía amarga, las personas de todo el mundo están utilizando el modelo GPT -4O de OpenAI para generar imágenes al estilo del legendario animador y cineasta japonés Hayao Miyazaki, quien durante toda su carrera tiene valores preciados de humanismo, arte minucioso y la santidad de la naturaleza versus los horrores de la industria explotadora. Y aunque ni él ni el estudio Ghibli, el estudio de animación de Tokio que fundó, ha comentado públicamente sobre la tendencia del meme (la compañía no devolvió de inmediato una solicitud de comentarios de Piedra rodanteya sea), los fanáticos están en un alboroto.

“Han pasado 24 horas desde que Operai sacudió inesperadamente el mundo de las imágenes de IA con la generación de imágenes 4O”, escribió un columnista de boletín tecnológico en una publicación X el miércoles, refiriéndose al nuevo modelo de texto a imagen pagado de la compañía de Silicon Valley, disponible solo a través de la versión pagada de ChatGPT, que cuesta $ 20 mensualmente. Entre los ejemplos de lo que 4o podía hacer, compartió lo que llamó “memes de estilo Studio Ghibli”, es decir, memes reconocibles como “novio distraído” y “desastral niña” representadas como ilustraciones similares a un anime que recuerdan a Miyazaki para clásicos queridos como tanto Enérgico y Howl’s Moving Castle.

Mientras que algunos quedaron impresionados, muchas de las respuestas fueron brutales. “Vi la hermosa versión 4K IMAX de Princesa Mononoke Anoche … luego salió y vi esta mierda “, escribió un crítico, nombrando una película de Miyazaki de 1997 que actualmente disfruta de una carrera teatral limitada (y ciertamente tiene puntos que hacer sobre la destrucción ambiental forjada por la tecnología).” ¿Valoran realmente tan poco el arte que es solo un filtro para su foto de perfil para su foto de perfil? Paga a un maldito artista y haz algo real, gremlins “. Otro se quejó: “La gente actúa como si fuera algo bueno, pero todo el alma ha sido absorbida de la sociedad, realmente estamos en la cima, ya nada importa”. Un tercer detractor simplemente respondió: “Hope Studio Ghibli demanda a todos los involucrados”.

De hecho, la pregunta de derechos de autor se convirtió en una preocupación apremiante tan pronto como los suscriptores de ChatGPT comenzaron a producir el contenido inspirado en Ghibli y filtrar sus propias fotos a través de la estética. Aunque el propio CEO de Operai, Sam Altman, alentó la locura cambiando su foto de perfil X a una versión giblificada de sí mismo, y bromeó sobre recibir cientos de mensajes de personas que le habían enviado imágenes similares: la compañía había implementado el miércoles por la noche una barandilla que dificultaba generar tal contenido. “Agregamos un rechazo que se desencadena cuando un usuario intenta generar una imagen al estilo de un artista vivo”, dijo Openii en un comunicado, aunque un portavoz dijo a Interno de negocios que 4O aún podría imitar los “estilos de estudio más amplios”. Por supuesto, no fue difícil para los entusiastas de ChatGPT descubrir las indicaciones que produjeron memes de Gibli sin usar el nombre del estudio. Otro problema es que los usuarios pudieron generar imágenes de Ghibli-ish que representan el 11 de septiembre, el asesinato del presidente John F. Kennedy, y el terrorista doméstico Ted Kaczynski, el “Unabomber”.

Miyazaki, de 84 años, es ciertamente un artista vivo, y no es difícil adivinar lo que haría de 4o. Conocido por su trabajo intensivo y perfeccionista sobre los marcos dibujados a mano, ya es una figura de los memes existentes. En un documental de 2016 sobre su carrera, visita un equipo que le muestra una demostración de su animación informática generada por IA de un personaje zombie desfigurado. Miyazaki expresó con calma su desprecio fulminante: “Quien crea esto no tiene idea de qué dolor es nada”, dijo. “Estoy completamente disgustado. Si realmente quieres hacer cosas espeluznantes, puedes seguir adelante y hacerlo. Nunca desearía incorporar esta tecnología en mi trabajo. Siento que esto es un insulto a la vida misma”. También observó: “Los humanos estamos perdiendo fe en nosotros mismos”. Las capturas de pantalla del intercambio devastador y el veredicto final de Miyazaki han circulado en las redes sociales desde entonces.

Un indicador revelador de exactamente quién está interesado en bombear AI Slop con ChatGPT: el jueves, la cuenta del gobierno de la Casa Blanca se burló de la deportación de un presunto distribuidor de fentanilo por parte de la inmigración y la aplicación de la aduana a principios de mes al representarla como un carácter de Ghibli que llora por un agente. Mientras tanto, Nayib Bukele, el presidente de El Salvador y autoproclamado “el mejor dictador del mundo”, quien en el segundo mandato del presidente Donald Trump ha aceptado a los migrantes deportados de los Estados Unidos para ser celebrados en el notorio “mega prisbil”, ha compartido una versión de Ghibli de sí mismo sobre el escritor de X. y los críticos, entre otros, han argumentado que Ai, entre otros, ha argumentado que Ai, que es convincente, es convincente “, es convincente que es convincente”. Estética del fascismo “, con extremistas de derecha ansiosos por aprovecharlo por la propaganda de rayo.

Pero la reacción violenta esta vez, incluso al contenido apolítico, ha sido intensa. “Mira, llámame a la divertida policía o lo que sea, pero Hayao Miyazaki no pasó toda su vida cultivando una identidad artística distinta para que la IA pudiera reducir décadas de su disciplina e integridad a Fodder de memes”, escribió un usuario de One X. “Es una pena la facilidad con la que todos abandonan el principio solo para sentirse incluido”. Alguien más fue más puntiagudo sobre el tema, respondiendo a una persona que había generado una famosa foto de Trump en 2018 de Trump, la ex canciller alemana Angela Merkel y otros líderes del G7 en ese momento en el estilo Gibli: “Hayao Miyazaki debería comenzar a matar a la gente. Creo”. La publicación tiene más de 270,000 me gusta.

Historias de tendencia

El jueves, Altman reconoció que la locura de 4O estaba presionando los recursos de OpenAi, señalando en X: “Es muy divertido ver a la gente amar las imágenes en ChatGPT. Pero nuestras GPU se están derritiendo. Vamos a introducir temporalmente algunos límites de tarifas mientras trabajamos para hacerlo más eficiente. ¡Ojalá no sea larga!” También anunció que la versión gratuita de ChatGPT pronto permitiría hasta tres generaciones de imágenes al día. El día anterior, parecía defender el uso de la tecnología de IA para este propósito, publicando: “La descendencia de un hombre es el tesoro de otro hombre”.

“Dice el CEO de Big Slop”, respondió un artista de cine e ilustrador.

Continue Reading

Noticias

Cómo los memes de Ghibli son un signo de la política de IA de la Casa Blanca

Published

on

If Te preguntas por qué las redes sociales están llenas de memes de estilo Studio Gibli de repente, hay varias respuestas a esa pregunta.

La más obvia es que OpenAI lanzó una actualización para ChatGPT el martes que permite a los usuarios generar mejores imágenes utilizando la versión 4O del modelo. Operai ha ofrecido durante mucho tiempo herramientas de generación de imágenes, pero esta se sintió como una evolución significativa: los usuarios dicen que es mucho mejor que otros generadores de imágenes de IA para seguir con precisión las indicaciones de texto, y que hace imágenes de fidelidad mucho más altas.

Pero esa no es la única razón para el diluvio de memes al estilo de la casa de animación japonesa.

Junto con la actualización de ChatGPT, Operai también relajó varias de sus reglas sobre los tipos de imágenes que los usuarios pueden generar con sus herramientas de IA: un CEO de cambio, Sam Altman, dijo que “representa una nueva marca de agua alta para nosotros al permitir la libertad creativa”. Entre esos cambios: permitir que los usuarios generen imágenes de figuras públicas de adultos por primera vez, y reducir la probabilidad de que ChatGPT rechace las indicaciones de los usuarios, incluso si se arriesgaran a ser ofensivos.

“La gente va a crear algunas cosas realmente sorprendentes y algunas cosas que pueden ofender a las personas”, dijo Altman en una publicación en X. “Lo que nos gustaría apuntar es que la herramienta no crea cosas ofensivas a menos que lo desee, en cuyo caso en lo que lo hace”.

Los usuarios comenzaron rápidamente a aprovechar al máximo el cambio de políticas: compartir imágenes “giblificadas” del 11 de septiembre, Adolf Hitler y el asesinato de George Floyd. La cuenta oficial de la Casa Blanca en X incluso compartió una imagen al estilo de Studio Gibli de un oficial de hielo que detenía a un presunto inmigrante ilegal.

En cierto sentido, el pivote ha tardado mucho en llegar. Operai comenzó su vida de una década como un laboratorio de investigación que mantuvo sus herramientas bajo estricto bloqueo y llave; Cuando lanzó los primeros chatbots y modelos de generación de imágenes, tenían filtros de contenido estrictos que tenían como objetivo evitar el mal uso. Pero durante años ha ampliado la accesibilidad de sus herramientas en un enfoque que llama “implementación iterativa”. El lanzamiento de ChatGPT en noviembre de 2022 fue el ejemplo más popular de esta estrategia, que la compañía cree que es necesaria para ayudar a la sociedad a adaptarse a los cambios que está aportando la IA.

Aún así, en otro sentido, el cambio a las políticas de comportamiento modelo de OpenAI tiene una causa inmediata más reciente: la elección 2024 del presidente Donald Trump, y el cambio cultural que ha acompañado a la nueva administración.

Trump y sus aliados han sido muy críticos con lo que ven como la censura de la libertad de expresión en línea por grandes compañías tecnológicas. Muchos conservadores han generado paralelos entre la práctica de larga data de moderación de contenido en las redes sociales y la estrategia más reciente, por parte de compañías de IA, incluida OpenAI, para limitar los tipos de contenido que los modelos de IA generativos pueden crear. “Chatgpt se ha despertado en sus huesos”, publicó Elon Musk en X en diciembre.

Como la mayoría de las grandes empresas, OpenAi está tratando de construir lazos con la Casa Blanca de Trump. La compañía obtuvo una victoria temprana cuando, en el segundo día de su presidencia, Trump se paró junto a Altman y anunció una gran inversión en los centros de datos que OpenAI cree que será necesaria para capacitar a la próxima generación de sistemas de IA. Pero Operai todavía está en una posición delicada. Musk, el patrocinador y asesor multimillonario de Trump, tiene un famoso disgusto por Altman. La pareja cofundó OpenAi juntos en 2015, pero después de un intento fallido de convertirse en CEO, Musk renunció en un Huff. Ahora está demandando a Altman y Openai, alegando que incumplieron la misión fundadora de OpenAi para desarrollar la IA como una organización sin fines de lucro. Con el almizcle operando desde la Casa Blanca y también liderando una compañía de IA rival, XAI, es especialmente vital que las perspectivas comerciales de OpenAI cultiven los lazos positivos cuando sea posible con la administración Trump.

A principios de marzo, Openai presentó un documento que presentó recomendaciones para la política tecnológica de la nueva administración. Fue un cambio en el tono de las misivas anteriores de la compañía. “Las propuestas de políticas centradas en la libertad de OpenAI, tomadas juntas, pueden fortalecer el liderazgo de Estados Unidos en la IA y al hacerlo, desbloquear el crecimiento económico, asegurar la competitividad estadounidense y proteger nuestra seguridad nacional”, dijo el documento. Pidió a la administración Trump que exime a Openai, y al resto del sector privado, de 781 leyes a nivel estatal que proponen regular la IA, que dijo “arriesgamos a la innovación”. A cambio, dijo Openai, la industria podría proporcionar al gobierno de los Estados Unidos “aprendizajes y acceso” de las compañías de IA, y garantizaría que Estados Unidos retuviera su “posición de liderazgo” antes de China en la carrera de IA.

Junto con el lanzamiento de la nueva actualización de CHATGPT de esta semana, OpenAI duplicó lo que dijo que eran políticas destinadas a dar a los usuarios más libertad, dentro de los límites, para crear lo que quieran con sus herramientas de IA. “Estamos cambiando de rechazos generales en áreas sensibles a un enfoque más preciso centrado en prevenir el daño del mundo real”, dijo Joanne Jang, directora de comportamiento modelo de Operai, en una publicación de blog. “El objetivo es adoptar la humildad: reconocer cuánto no sabemos y posicionándonos para adaptarnos a medida que aprendemos”.

Jang dio varios ejemplos de cosas que se no permitieron anteriormente, pero a lo que Operai ahora estaba abriendo sus puertas. Las herramientas ahora podrían usarse para generar imágenes de figuras públicas, escribió Jang, aunque OpenAI crearía una lista de exclusión de exclusión permitiendo a las personas “decidir por sí mismas” si querían que ChatGPT pudiera generar imágenes de ellas. Los niños, escribió, serían sometidos a “protecciones más fuertes y barandas más estrictas”.

Contenido “ofensivo”, escribió Jang, que usa comillas, también recibiría un replanteamiento bajo las nuevas políticas de Openai. Los usos que algunos podrían ser vistos como ofensivos por algunos, pero que no causaron daños en el mundo real, estarían cada vez más permitidos. “Sin pautas claras, el modelo rechazó previamente las solicitudes como” hacer que los ojos de esta persona se vean más asiáticos “o” hacer que esta persona sea más pesada “, lo que implica involuntariamente estos atributos eran inherentemente ofensivos”, escribió Jang, sugiriendo que tales indicaciones se permitirían en el futuro.

Las herramientas de OpenAI previamente rechazaron los intentos de los usuarios de generar símbolos de odio como las esvásticas. En la publicación del blog, Jang dijo que la compañía reconoció, sin embargo, que estos símbolos también a veces podrían aparecer en “contextos genuinamente educativos o culturales”. La compañía pasaría a una estrategia de aplicar métodos técnicos, escribió, para “identificar mejor y rechazar el mal uso dañino” sin prohibirlos por completo.

“Los empleados de AI Lab”, escribió, “no deberían ser los árbitros de lo que la gente debería y no se les debe permitir crear”.

Continue Reading

Noticias

El filtro Ghibli de Chatgpt es político ahora, pero siempre fue

Published

on

Cuando vi la historia de mi colega Kylie Robison sobre el nuevo generador de imágenes de Openai el martes, pensé que esta semana podría ser divertida. Las imágenes generativas de IA plantean todo tipo de problemas éticos, pero las encuentro muy entretenidas, y pasé grandes trozos de ese día viendo a otros Borde El personal prueba chatgpt de manera que cubrió todo el espectro, desde lindo hasta maldito.

Pero el jueves por la tarde, la Casa Blanca decidió estropearlo. Su cuenta X publicó una fotografía de un detenido de llanto que se jactó era un traficante de fentanilo arrestado e inmigrante indocumentado. Luego agregó una caricatura generada por AI de un oficial que esposó a la mujer sollozada, no atribuida a ninguna herramienta en particular, pero en el estilo inconfundible de las imitaciones súper populares de Ghibli Studio Gibli de Chatgpt, que han inundado Internet durante la última semana.

Un uso feo de una herramienta de software no debe acusar necesariamente a esa herramienta. Pero cuando la imagen se unió al anfitrión de otros en mis feeds sociales, el adorable filtro de Ghibli y el bombardeo de las redes sociales de la Casa Blanca comenzaron a sentirse de alguna manera hechos el uno por el otro. Ambos son, tan contraintuitivos como pueden parecer, el producto de una mentalidad que trata la decencia básica como debilidad e insensibilidad como la prerrogativa del poder.

Nos comunicamos con OpenAi y la Casa Blanca para obtener más detalles, pero la medida ascendió a un extraño anuncio de productos de la compañía que el propio presidente Donald Trump tiene vínculos estrechos. Los jefes de estado han estado subiendo a los memes de las redes sociales durante años, y no técnicamente Sepa si ChatGPT u otro generador de IA produjo la imagen. (En las posibilidades del 1 por ciento, la Casa Blanca encargó a un artista y están leyendo esto, me encantaría saber de ellos). Pero el CEO de OpenAi, Sam Altman, ha estado promoviendo las imágenes generadas por el estilo de Ghibli como una característica genial actualmente exclusiva de los niveles pagos de Chatgpt. Y Trump es un refuerzo muy público del proyecto Stargate de OpenAI, anunciándolo en una conferencia de prensa con Altman.

En la superficie, Ai Ghibli y Trump encajan extrañamente. El objetivo claro de la Casa Blanca era un tipo familiar de sadismo performativo extremadamente en línea; Esta es la misma cuenta que publicó un video de “ASMR: vuelo ilegal de deportación alienígena” de las cadenas de tintineo de los prisioneros. Es asqueroso y juvenil, incluso si asumimos que toda su información es precisa, en lugar de, por ejemplo, el resultado de algo como agentes que leen un tatuaje de conciencia del autismo como símbolo de pandillas. Ninguna persona razonable defiende la humillación pública nacional de lo que parece ser un detenido de inmigración de nivel bastante bajo como buen gobierno, mensajes públicos efectivos o un bien moral.

La estética de Ghibli es tan saludable que socava esto. Incluso un prominente conservador de Silicon Valley ha señalado que representar a una mujer de anime sollozada arrestada por un agente con cara de piedra no pone la simpatía de la mayoría de las personas con el agente.

Sin embargo, AI Media en general es la estética principal del movimiento MAGA, que produce muchos otros trabajos extraños e insípidos. Es una consecuencia natural de su amor de larga data por las fotos de Photoshop y los dibujos animados que representan a Trump como un musculoso exagerado. También es el producto de los vínculos entre Trump y la industria de la IA, la mayoría de los “primer amigo” y el fundador de Xai, Elon Musk, pero también cosas como Stargate y la colocación de David Sacks como “Ai Czar”.

Hace ocho años, una compañía de tecnología podría haberse distanciado de alguien que salta sobre sus memes para promover la deportación masiva

No sé cómo se sienten Openai y Altman acerca de la Casa Blanca que promueve un anuncio conjunto para ChatGPT y un intento brutal y probablemente parcialmente ilegal de expulsar a los inmigrantes de Estados Unidos. (Altman era un conocido patrocinador de causas progresivas hasta esta administración). Antes de la publicación de esta imagen, el equipo de OpenAI enfatizó que se supone que el generador de imágenes de ChatGPT ofrece una barandilla altamente flexible, por lo que pueden sostener que esto no es diferente del uso de Photoshop ofensivamente. Y esto podría ser evidente, pero no estoy claro que Operai debería o podría Bloquee la mera producción de algo como esta imagen: si no hubiera sido publicado por la Casa Blanca, incluso podría leerla como una protesta de estos arrestos.

Al mismo tiempo, hace 8 años, cuando Silicon Valley y Trump estaban en oposición, una importante compañía tecnológica podría haberse distanciado. Una declaración como “OpenAI cree en la máxima libertad artística y capacidad de respuesta a las solicitudes de los usuarios, pero la publicación de esta administración no refleja los valores de nuestra empresa” no es una aguja difícil de enhebrar.

La presión social y política para evitar hacerlo ahora es abrumadora. Cualesquiera que sean las opiniones internas del personal de OpenAI, es un mal negocio ser agotado por un presidente vengativo y luego darse la vuelta para criticar sus políticas, particularmente en medio de un giro a la derecha más grande de Silicon Valley.

Pero también hay algo más profundo en el juego, porque el filtro de Ghibli en sí tiene un regusto agrio: en esencia, es un eco menor del total desprecio de la era de Trump por otros seres humanos.

No soy remotamente inmune al atractivo de las imágenes giblificadoras. En serio. Algunos de ellos son realmente adorables. La gente ha amado los filtros de anime durante años, y no creo que la mayoría de estas imágenes se hayan creado con mala intención. Pero el cineasta Hayao Miyazaki, cuyo nombre es sinónimo del estudio de animación, es uno de los artistas más famosos del mundo. Es ampliamente citado por llamar a una versión anterior de AI Animation “Un insulto a la vida en sí misma”, y no hay señal de que apruebe de que Chatgpt se use para imitar su estilo característico probablemente gracias a la capacitación en su arte, y mucho menos que sean OpenAi vendiendo suscripciones desde el fondo. Utilizando el trabajo de Ghibli específicamente para la publicidad, como Sangre en la máquina El autor Brian Merchant explica, es un movimiento de poder. Le dice en voz alta a los artistas cuyas creaciones hacen que Chatgpt funcione, Tomaremos lo que queremos y le diremos a todos que lo estamos haciendo. ¿Te das consentimiento? No nos importa.

Operai podría haberse acercado a los artistas como socios, no a productores obsoletos de datos de capacitación en bruto

La tecnología y la política contemporánea están unidas en una ideología de dominación: el principio de que la fuerza, el dinero y la autoridad se manejan mejor obligando a otros a hacer lo que quieran. Con Trump, esto probablemente se explique por sí mismo. Con la tecnología, se manifiesta en cada característica de IA inútil que reemplaza algo útil, en la insistencia de que una tecnología sucederá porque es inevitable, no porque haya persuadido a las personas, hace algo bueno. La crítica es un desgarro sin sentido de los grandes hombres. La empatía, la autoexaminación y el compromiso son afeminados y débiles.

La ironía es que en medio de un mar de casos de uso de IA inútil o disfuncional, el filtro Gibli es muy popular. Pero hay un mundo en el que OpenAi capturó su atractivo sin una falta de respeto descarada por las personas en cuyo trabajo se está basando. Las compañías de IA podrían (si no tan barato) haber construido sus productos mientras se acercan a los artistas como socios en lugar de productores obsoletos de datos de capacitación en bruto. Incluso si alguien como Miyazaki nunca acepte la imitación automatizada, OpenAi podría haber encontrado otro animador o dibujante y chatgpt sintonizado para trabajar bien con su estilo, promoviendo a un artista menos conocido en el proceso. Pero eso requeriría creer que las personas que no son grandes hombres valen la pena trabajar y aprender, no simplemente abrumadoras.

Una vez más, ¿creo que pagar por ChatGPT te convierte en una mala persona? En algún momento, pagar por casi cualquier cosa financia algo inhumano y dañino, a menudo de maneras mucho más destructivas. Todos dibujamos estas líneas para nosotros mismos, y no estoy seguro de dónde caen el mío.

Sin embargo, las protestas de derribo de Tesla demuestran cómo atar su negocio a la política tóxica puede ser contraproducente. Innumerables personas están usando Chatgpt para hacer fotos lindas de sus seres queridos; Hay algo muy triste en Operai que en silencio, dejando que la Casa Blanca muestre el meme como una forma de intimidar a los impotentes. ¿Los investigadores de OpenAI piensan que esto avanza la causa de “AI para el bien”? Y a medida que todas las empresas en Silicon Valley comproban sus sistemas de IA, dónde dibujarán su ¿pauta?

Continue Reading

Trending