Noticias
Las celebridades pueden optar por OpenAi

El nuevo modelo de generación de imágenes ChatGPT 4O es la charla de la ciudad, y no solo por buenas razones. Todos se maravillan de las sorprendentes nuevas habilidades de la IA, que incluyen generar texto legible en imágenes, crear fotos falsas a partir de las reales, crear profundos de celebridades y replicar contenido con derechos de autor como los personajes de Studio Ghibli. Todo sucede increíblemente rápido, con la IA capaz de responder a sus necesidades.
Pero algunas personas se han apresurado a señalar las cosas malas sobre el nuevo modelo de imagen de IA. Primero, el problema más obvio del que realmente no estamos hablando es que ChatGPT ha dado un golpe rápido a todo tipo de creadores de contenido, incluidos diseñadores gráficos y fotógrafos. Por supuesto, ya tenemos otros programas de generación de imágenes de IA que ponen en peligro esas profesiones. Este tampoco es un problema de seguridad del chatgpt.
El hecho de que las imágenes creadas por ChatGPT no tengan una marca de agua visible para informar a las personas desprevenidas que no son imágenes reales es una gran preocupación de seguridad. Más visible es la controversia de Studio Ghibli, que muestra que OpenAi está dispuesto a dejar que la generación de imágenes 4O estafa fácilmente el contenido con derechos de autor.
Lo aún más molesto de las nuevas habilidades de generación de imágenes de Chatgpt es lo fácil que es hacer que los profundos de las celebridades. Este es especialmente preocupante para mí, un usuario de Internet, porque los actores maliciosos tienen acceso sin restricciones a la herramienta.
Operai ha comenzado a prestar atención a las críticas que recibió desde el lanzamiento de la generación de imágenes 4O, pero no está tomando ninguna medida, especialmente en el problema de Deepfake. Resulta que la única forma de evitar que alguien use su cara con ChatGPT es optar por no tenerla en OpenAi.
Como señalé antes, OpenAi nunca abordó estos asuntos de seguridad de ChatGPT en su anuncio original. Pero la compañía retuiteó una publicación de blog de la ingeniera de OpenAI Joanne Jang explicando las características de seguridad laxas en la generación de imágenes ChatGPT 4O. Sam Altman también retuiteó la misma publicación de blog. ¿Por qué no publicarlo en el blog Operai si esta es la postura oficial de la compañía?
Jang, quien lidera el comportamiento modelo en OpenAI, se puso a subsistencia para explicar las características de seguridad laxas en la generación de imágenes ChatGPT 4O. El ingeniero es el caso de OpenAI que le da a Chatgpt más libertad para que los usuarios puedan desatar su creatividad en lugar de ser detenidas por la negativa de la IA a generar imágenes basadas en características de seguridad más drásticas.
“Las imágenes son viscerales”, dice Jang, y definitivamente estoy de acuerdo. “Hay algo exclusivamente poderoso y visceral en las imágenes; pueden ofrecer una delicia y conmoción inigualables. A diferencia del texto, las imágenes trascienden las barreras del lenguaje y evocan respuestas emocionales variadas. Pueden aclarar ideas complejas al instante”.
Además, es genial ver que Operai es más maleable cuando se trata de ciertas características de censura. Jang da un ejemplo de cómo ChatGPT Contenido ofensivo:
Cuando se trata de contenido “ofensivo”, nos presionamos para reflexionar sobre si alguna incomodidad se derivó de nuestras opiniones o preferencias personales frente a potencial para daños en el mundo real. Sin pautas claras, el modelo rechazó previamente las solicitudes como “hacer que los ojos de esta persona parezcan más asiáticos” o “hacer que esta persona sea más pesada”, lo que implica involuntariamente estos atributos fueron inherentemente ofensivos.
El blog también cubre el uso de símbolos de odio en las imágenes y las “protecciones más fuertes y barandillas más estrictas” para personas menores de 18 años.
Lo que es más problemático es la apertura de OpenAI para permitir que ChATGPT cree defensores profundos con tanta facilidad.
Aquí está la explicación de Jang de cómo ChatGPT 40 Generación de imágenes maneja figuras públicas:
Sabemos que puede ser complicado con las figuras públicas, especialmente cuando las líneas se difuminan entre las noticias, la sátira y los intereses de la persona que se representa. Queremos que nuestras políticas se apliquen de manera justa e igual a todos, independientemente de su “estado”. Pero en lugar de ser los árbitros de quién es “lo suficientemente importante”, decidimos crear una lista de exclusión para permitir que cualquiera que nuestros modelos puedan ser representados decidiran por sí mismos.
¿Recuerdas cuando Scarlett Johansson gritó que Deepfake Anti-Kanye Video que usó su rostro sin su permiso y le pidió al gobierno que tomara medidas contra el uso de Deepfakes?
Bueno, ChatGPT hace que sea más fácil que nunca para cualquiera que se les ocurra a Deepfakes que muestren celebridades en fotos falsas. No estoy hablando de imágenes al estilo de Ghibli que muestran al presidente Trump anunciando la iniciativa Stargate AI. Todos sabemos cómo interpretar eso. Estoy hablando de imágenes de IA que son indiscernibles de fotos reales y pueden manipular la opinión pública.
La sátira tampoco tiene nada que ver con eso. Aquellos capaces de dibujar dibujos animados con figuras políticas para burlarse de sus acciones nunca necesitaron chatgpt para hacerlo. Además, las personas que vean esas imágenes reconocerían su sátira y no real. Ahora, ChatGPT hace que sea increíblemente fácil generar noticias falsas.
Lo que es más molesto es que Jang dice que las personas que se sienten “lo suficientemente importantes” pueden optar por no participar. ¿Dónde? ¿Cómo? ¿Dónde está la lista? ¿Por qué OpenAI no anunció esta lista antes de poner a disposición de las masas la generación de imágenes Chatgpt 4o? Después de todo, ChatGPT ya ha comenzado a usar celebridades en sus creaciones de ChatGPT, y a esas celebridades les puede gustar.
Seguro que parece que OpenAI está utilizando el nuevo producto de generación de imágenes para introducir características de seguridad de IA mucho más laxas que antes. Espero que ese no sea el caso, pero así es como se siente en este momento. El blog de Jang confirma además que OpenAI no necesariamente adoptará un enfoque de seguridad más fuerte para la herramienta de generación de imágenes 4O de inmediato.
Por otra parte, tantos ingenieros de seguridad de IA dejaron OpenAi en los últimos años que tiene sentido ver a la compañía más bajas protecciones de seguridad. Por cierto, no solo OpenAi está buscando una política de seguridad muy laxa para los modelos de imagen de IA. Otros también lo han estado haciendo. Es solo que el chatgpt se ha vuelto viral por sus increíbles poderes de generación de imágenes, por lo que no podemos ignorar los protocolos de seguridad que lo rigen.