Connect with us

Noticias

Un dilema entre la privacidad y la IA

Published

on

Fallo de David Mayer de ChatGPT: un dilema de privacidad e inteligencia artificial

En los últimos días, un evento inusual que involucra a ChatGPT, el chatbot impulsado por inteligencia artificial, ha causado revuelo en las plataformas de redes sociales. El nombre David Mayer se convirtió en una sensación en Internet después de que los usuarios descubrieron que ChatGPT se negaba a reconocerlo. Cada intento de lograr que el robot produjera el nombre generaba un mensaje de error, con respuestas como “algo parece haber salido mal” o una versión truncada que se detenía en “David”. Este peculiar problema rápidamente generó especulaciones generalizadas, ya que los usuarios intentaron y no lograron que ChatGPT respondiera con el nombre.

Internet explotó con teorías, que iban desde la creencia de que David Mayer había solicitado que se eliminara su nombre del robot hasta conspiraciones descabelladas que involucraban posibles vínculos con figuras de alto perfil. ¿Fue censura? ¿Alguien había influido deliberadamente en la producción de ChatGPT? ¿David Mayer sería borrado para siempre del mundo digital?

OpenAI, la empresa detrás de ChatGPT, finalmente intervino para aclarar la situación. No fue un movimiento deliberado ni estuvo relacionado con ninguna solicitud de un individuo en particular. Resulta que el problema se debió a un problema técnico. El nombre “David Mayer” había sido marcado por una de las herramientas internas de la empresa y este error impidió que apareciera en las respuestas. Según un portavoz de OpenAI, “Estamos trabajando para solucionarlo”, lo que indica que se trata de un problema aislado que se resolverá pronto. Fiel a su palabra, OpenAI corrigió el problema y ChatGPT ahora puede responder con el nombre “David Mayer” sin problemas.

Pero si bien se solucionó el problema, el incidente abrió preguntas más amplias sobre el papel de la privacidad, la seguridad de los datos y el derecho al olvido en el mundo actual, cada vez más impulsado por la IA. El error de David Mayer no solo provocó un debate generalizado sobre ChatGPT y cómo procesa los datos, sino que también arrojó luz sobre cómo las herramientas de inteligencia artificial manejan la información personal y cumplen con las regulaciones de privacidad como el GDPR (Reglamento General de Protección de Datos).

El misterio de David Mayer: ¿Qué pasó?

La confusión en torno al nombre de David Mayer se debió a una serie de extraños fallos dentro del chatbot. ChatGPT, que utiliza algoritmos avanzados de aprendizaje automático para generar respuestas similares a las humanas, simplemente no pudo procesar ni producir el nombre. Los usuarios inundaron las redes sociales con teorías, y algunos afirmaron que el problema fue el resultado de una eliminación intencional del nombre de Mayer debido a preocupaciones de privacidad. Muchos creían que Mayer había solicitado ser excluido de las respuestas de ChatGPT, lo que generó conversaciones sobre el poder que tienen las personas sobre sus datos personales en la era digital.

La especulación en las redes sociales abundaba, y los usuarios incluso teorizaban que el David Mayer en el centro de la controversia podría ser David Mayer de Rothschild, una figura muy conocida en el mundo bancario y miembro de la prominente familia Rothschild. Sin embargo, Mayer de Rothschild descartó cualquier conexión con el problema. En una declaración al Guardian, aclaró: “No, no he pedido que se elimine mi nombre. Nunca he tenido ningún contacto con ChatGPT. Lamentablemente, todo está impulsado por teorías de conspiración”.

El misterio se profundizó cuando algunos especularon que el problema técnico estaba de alguna manera relacionado con el fallecido profesor David Mayer, un respetado académico cuyo nombre había sido vinculado a un militante checheno debido a un error en la base de datos. Sin embargo, OpenAI confirmó que no había ningún vínculo con ninguno de los individuos y que el problema era puramente un error técnico.

El derecho al olvido y la privacidad de la IA

Uno de los aspectos clave de este incidente es su conexión con el derecho al olvido, un concepto central del RGPD, el reglamento europeo de protección de datos. El derecho al olvido brinda a las personas la posibilidad de solicitar la eliminación de sus datos personales de determinadas plataformas. Esto ha planteado desafíos únicos para las empresas que utilizan sistemas de inteligencia artificial, especialmente aquellas que generan contenido basado en vastos conjuntos de datos extraídos de fuentes públicas y privadas.

Si bien OpenAI no ha declarado explícitamente si la falla estuvo relacionada con alguna solicitud de eliminación de datos, no es difícil ver cómo este incidente podría desencadenar discusiones sobre la privacidad de los datos, el cumplimiento del RGPD y el poder de las personas para controlar su huella digital. Cuando alguien solicita ser eliminado de los sistemas de una empresa, no es tan sencillo como eliminar algunos registros; Implica la eliminación de datos en una amplia gama de sistemas interconectados.

Helena Brown, experta en protección de datos de Addleshaw Goddard, explicó la complejidad de esta cuestión. “El gran volumen de datos involucrados en la IA generativa y la complejidad de las herramientas crean un problema de cumplimiento de la privacidad”, dijo. Brown señaló que las herramientas de inteligencia artificial como ChatGPT a menudo recopilan datos personales de una amplia variedad de fuentes públicas, incluidos sitios web, plataformas de redes sociales y otras huellas digitales dejadas por los usuarios. Esto hace que sea increíblemente difícil garantizar que todos los datos personales vinculados a un individuo puedan borrarse por completo de la memoria de la IA.

Incluso cuando se marca y elimina un nombre específico, la cuestión más amplia persiste: ¿cómo pueden las empresas estar seguras de que todos los rastros de los datos personales de un individuo han sido completamente erradicados del sistema? Como señaló Brown, la idea de eliminar toda la información de identificación asociada con una persona no es una tarea sencilla, especialmente si se considera la naturaleza intrincada de los algoritmos de IA que aprenden de múltiples conjuntos de datos y fuentes.

Las implicaciones legales y éticas de la eliminación de datos de IA

Si bien OpenAI solucionó el problema de David Mayer, el incidente subrayó las implicaciones legales y éticas de los sistemas de inteligencia artificial que manejan datos personales. La cuestión pone de relieve la tensión entre la privacidad de los datos y la necesidad de desarrollar la IA.

Por un lado, existe una clara necesidad de proteger los datos personales, garantizando que las personas tengan control sobre sus identidades digitales y el derecho a solicitar la eliminación de su información. Por otro lado, existe la necesidad de desarrollar sistemas de IA que puedan aprender y evolucionar utilizando grandes cantidades de datos. Los modelos de IA generativa como ChatGPT se basan en esos datos para producir conversaciones similares a las humanas, pero plantea la pregunta: ¿dónde trazamos el límite cuando se trata de privacidad de datos?

El RGPD y regulaciones de privacidad similares en todo el mundo ya están tratando de abordar estos problemas, pero a medida que la tecnología de inteligencia artificial se vuelve más sofisticada, puede requerir regulaciones nuevas y más matizadas. Por ejemplo, las empresas de inteligencia artificial necesitarán desarrollar mecanismos más sólidos para responder a las solicitudes del derecho al olvido que realmente puedan erradicar los datos personales de sus sistemas.

Una de las preguntas más apremiantes es si es factible garantizar que los datos de una persona se eliminen por completo de los sistemas de inteligencia artificial. A medida que las herramientas de IA sigan integrándose cada vez más en la sociedad, la capacidad de controlar, acceder y borrar datos personales probablemente seguirá siendo un área importante de preocupación tanto para los expertos en privacidad como para los reguladores.

Relacionado: Estados Unidos propone una norma audaz para detener la venta de datos confidenciales de los estadounidenses por parte de corredores

Relacionado: Apple bajo fuego: la demanda de los empleados alega prácticas de vigilancia invasivas

IA, privacidad de datos y el futuro: ¿qué sigue?

El incidente de David Mayer pone de relieve una creciente preocupación por la privacidad y la seguridad de los datos de las herramientas de inteligencia artificial. El problema desató una conversación más amplia sobre cómo las empresas que desarrollan e implementan IA deben tomar medidas adicionales para garantizar el cumplimiento de las leyes globales de protección de datos.

A medida que avanzamos hacia una era de aplicaciones impulsadas por IA, incluidos chatbots, asistentes virtuales y otras herramientas, la cuestión de la privacidad de los datos se volverá más compleja. Herramientas como ChatGPT procesan una gran cantidad de información para crear respuestas significativas y, a medida que los usuarios se vuelven más conscientes de cómo funcionan estos sistemas, aumentará la demanda de mayor transparencia y responsabilidad.

Los desarrolladores de IA deberán asegurarse de que sus herramientas cumplan con las leyes existentes y estén preparadas para futuras regulaciones. También deberán idear formas más eficientes de manejar las solicitudes de eliminación de datos, garantizando que la información personal no sólo se marque y elimine, sino que se borre por completo de todos los conjuntos de datos de entrenamiento.

Por ahora, el problema de David Mayer sirve como recordatorio de que, si bien la IA es una herramienta poderosa, todavía está lejos de ser perfecta. Las preocupaciones sobre la privacidad deben seguir siendo una prioridad para los desarrolladores y reguladores a medida que la tecnología de inteligencia artificial continúa evolucionando. A medida que la IA y el aprendizaje automático se integran aún más en la vida diaria, está claro que la intersección de la privacidad, la protección de datos y el desarrollo de la IA será un área de escrutinio continuo.

El problema de David Mayer: una llamada de atención para la privacidad de la IA

El problema técnico de David Mayer puede haber parecido un momento peculiar, pero arroja luz sobre problemas serios y apremiantes que rodean la tecnología de inteligencia artificial. A medida que el mundo digital se vuelva más dependiente de los sistemas impulsados ​​por la IA, la intersección de la privacidad, la protección de datos y los derechos de los usuarios se volverá más complicada. El futuro de la IA generativa dependerá de encontrar un equilibrio entre el desarrollo de herramientas sofisticadas que puedan ayudar a las personas y garantizar que los datos personales permanezcan protegidos.

OpenAI ya ha resuelto el problema, pero las cuestiones más amplias planteadas por el incidente seguirán dando forma a los debates sobre la privacidad de la IA y el derecho al olvido en los próximos años. A medida que la IA siga avanzando, la protección de datos será una cuestión que las empresas y los reguladores no podrán permitirse el lujo de ignorar.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Alphabet Inc. (Googl) aprovecha el crecimiento de Gemini AI y Waymo para alimentar la próxima ola de innovación

Published

on

La inteligencia artificial es la mayor oportunidad de inversión de nuestra vida. ¡El tiempo para invertir en una IA innovadora es ahora, y esta acción es un robo!

Mi selección de IA #1 entregó ganancias sólidas desde el comienzo de 2025 mientras que las existencias populares de IA como NVDA y AVGO perdieron alrededor del 25%.

Los números hablan por sí mismos: mientras los gigantes del mundo de la IA sangran, nuestra selección de IA ofrece, mostrando el poder de nuestra investigación y la inmensa oportunidad esperando ser incautada.

Los susurros se están convirtiendo en rugidos.

La inteligencia artificial ya no es ciencia ficción.

Es la revolución que remodelan todas las industrias del planeta.

Desde automóviles sin conductor hasta avances médicos, AI está en la cúspide de una explosión global, y los inversores inteligentes pueden cosechar las recompensas.

He aquí por qué este es el mejor momento para saltar en el carro de la IA:

Crecimiento exponencial en el horizonte: Olvídese del crecimiento lineal: la IA está preparada para una trayectoria de palo de hockey.

Imagine todos los sectores, desde la atención médica hasta las finanzas, infundidas con inteligencia sobrehumana.

Estamos hablando de predicción de enfermedades, marketing hiperpersonalizado y logística automatizada que agiliza todo.

Esto no es tal vez, es una inevitabilidad.

Los primeros inversores serán los posicionados para montar la ola de este tsunami tecnológico.

Oportunidad de la planta baja: ¿Recuerdas los primeros días de Internet?

Aquellos que vieron el potencial de los gigantes tecnológicos en ese entonces están sentados bastante hoy.

AI está en un punto de inflexión similar.

No estamos hablando de jugadores establecidos: estamos hablando de nuevas empresas ágiles con ideas innovadoras y el potencial de convertirse en el próximo Google o Amazon.

¡Esta es tu oportunidad de entrar antes de que los Rockets despeguen!

La interrupción es el nuevo nombre del juego: Seamos realistas, la complacencia genera estancamiento.

La IA es el último disruptor, y está sacudiendo los cimientos de las industrias tradicionales.

Las compañías que adoptan la IA prosperarán, mientras que los dinosaurios se aferran a métodos obsoletos se dejarán en el polvo.

Como inversor, desea estar del lado de los ganadores, y AI es el boleto ganador.

El grupo de talentos se desborda: Las mentes más brillantes del mundo acuden en masa a la IA.

Desde informática hasta matemáticos, la próxima generación de innovadores está vertiendo su energía en este campo.

Esta afluencia de talento garantiza una corriente constante de ideas innovadoras y avances rápidos.

Al invertir en IA, esencialmente está respaldando el futuro.

El futuro funciona con inteligencia artificial, y el tiempo de invertir es ahora.

No seas un espectador en esta revolución tecnológica.

Sumérgete en la fiebre del oro AI y observa que tu cartera se eleva junto con las mentes más brillantes de nuestra generación.

No se trata solo de ganar dinero, se trata de ser parte del futuro.

Entonces, ¡abrochate y prepárese para el viaje de su vida de inversión!

Actúe ahora y desbloquee un rendimiento potencial del 10,000%: esta acción de IA es un diamante en bruto (¡pero nuestra ayuda es clave!)

La Revolución AI está sobre nosotros, y los inversores inteligentes pueden hacer una fortuna.

Pero con tantas opciones, ¿cómo se encuentra la joya oculta: la compañía preparada para un crecimiento explosivo?

Ahí es donde entra nuestra experiencia.

Tenemos la respuesta, pero hay un giro …

Imagine una compañía de IA tan innovadora, hasta ahora antes de la curva, que incluso si el precio de sus acciones cuadruplicado hoytodavía se consideraría ridículamente barato.

Ese es el potencial que estás viendo. No se trata solo de un regreso decente, estamos hablando de un 10,000% ¡Gane durante la próxima década!

Nuestro equipo de investigación ha identificado una joya oculta: una compañía de IA con tecnología de vanguardia, potencial masivo y un precio actual de acciones que grita oportunidades.

Esta compañía cuenta con la tecnología más avanzada en el sector de la IA, colocándolos en ligas por delante de los competidores.

Es como tener un auto de carreras en una pista de go-kart.

Tienen una gran posibilidad de arrinconar los mercados enteros, convirtiéndose en el líder indiscutible en su campo.

Aquí está la trampa (es buena): Para descubrir este gigante dormido, necesitará nuestro Intel exclusivo.

¡Queremos asegurarnos de que ninguno de nuestros valiosos lectores se pierda esta innovadora oportunidad!

Es por eso que estamos reduciendo el precio de nuestro boletín de lectores premium por un enorme 70%.

Por un precio ridículamente bajo de solo $ 29.99puede desbloquear un año de investigación de inversiones en profundidad y ideas exclusivas, ¡eso es menos que una comida de un solo restaurante!

He aquí por qué este es un trato que no puede permitirse dejar pasar:

• Acceso a nuestro informe detallado sobre esta acción de IA que cambia el juego: Nuestro informe en profundidad se sumerge en la tecnología innovadora de nuestra serie de IA #1 y un potencial de crecimiento masivo.

• 11 nuevos números de nuestro boletín de lectores premium: También recibirá 11 nuevos problemas y al menos una nueva selección de acciones por mes de la cartera de nuestro boletín mensual durante los próximos 12 meses. Estas acciones son seleccionadas por nuestro Director de Investigación, Dr. Inan Dogan.

• Un próximo número gratuito de nuestro boletín trimestral de más de 70 páginas: Un valor de $ 149

• Informes de bonificación: Acceso premium a solo para miembros Entrevistas de video del administrador de fondos

• navegación sin anuncios: Disfrute de un año de investigación de inversiones sin distracción de anuncios emergentes y anuncios emergentes, lo que le permite concentrarse en descubrir la próxima gran oportunidad.

• Garantía de devolución de dinero de 30 días: Si no está absolutamente satisfecho con nuestro servicio, proporcionaremos un reembolso completo dentro de los 30 días, no se hacen preguntas.

¡El espacio es limitado! Solo 1000 puntos están disponibles para esta oferta exclusiva. No permita que esta oportunidad se escape: suscríbase a nuestro boletín de lectores premium hoy y desbloquee el potencial de una inversión que cambie la vida.

Esto es lo que debe hacer a continuación:

1. Dirígete a nuestro sitio web y suscríbete a nuestro boletín de lectores premium por solo $ 29.99.

2. Disfrute de un año de navegación sin publicidad, acceso exclusivo a nuestro informe en profundidad sobre la Revolucionaria Compañía de IA y los próximos números de nuestro boletín de lectores premium en los próximos 12 meses.

3. Siéntese, relájese y sepa que está respaldado por nuestra garantía de dinero de dinero de 30 días.

¡No te pierdas esta increíble oportunidad! ¡Suscríbase ahora y tome el control de su futuro de inversión de IA!

¡No se preocupe por las renovaciones automáticas! ¡Nuestra garantía de devolución de dinero de 30 días se aplica si se está uniendo a nosotros por primera vez o renovando su suscripción un año después!

Continue Reading

Noticias

El éxito de Deepseek muestra por qué la motivación es clave para la innovación de IA

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


Enero de 2025 sacudió el paisaje de IA. El OpenAI aparentemente imparable y los poderosos gigantes tecnológicos estadounidenses se sorprendieron por lo que ciertamente podemos llamar un desvalido en el área de grandes modelos de idiomas (LLM). Deepseek, una empresa china que no está en el radar de nadie, de repente desafió a OpenAi. No es que Deepseek-R1 fuera mejor que los mejores modelos de los gigantes estadounidenses; Estaba ligeramente atrasado en términos de los puntos de referencia, pero de repente hizo que todos pensaran en la eficiencia en términos de hardware y uso de energía.

Dada la falta de disponibilidad del mejor hardware de alta gama, parece que Deepseek estaba motivado para innovar en el área de eficiencia, lo cual era una preocupación menor para los jugadores más grandes. Operai ha afirmado que tienen evidencia que sugiere que Deepseek puede haber usado su modelo para la capacitación, pero no tenemos pruebas concretas para respaldar esto. Entonces, ya sea cierto o que sea OpenAi simplemente tratar de apaciguar a sus inversores es un tema de debate. Sin embargo, Deepseek ha publicado su trabajo, y las personas han verificado que los resultados son reproducibles al menos en una escala mucho más pequeña.

Pero, ¿cómo podría Deepseek alcanzar tales ahorradores de costos, mientras que las empresas estadounidenses no podían? La respuesta corta es simple: tenían más motivación. La respuesta larga requiere un poco más de una explicación técnica.

Deepseek usó la optimización de KV-Cache

Un ahorro importante de costos para la memoria de GPU fue la optimización del caché de valor clave utilizado en cada capa de atención en un LLM.

Los LLM están formados por bloques de transformadores, cada uno de los cuales comprende una capa de atención seguida de una red regular de alimentación de vainilla. La red de feed-forward modela las relaciones arbitrarias conceptuales, pero en la práctica, es difícil para él determinar siempre los patrones en los datos. La capa de atención resuelve este problema para el modelado de idiomas.

El modelo procesa textos utilizando tokens, pero por simplicidad, nos referiremos a ellos como palabras. En un LLM, a cada palabra se le asigna un vector en una dimensión alta (por ejemplo, mil dimensiones). Conceptualmente, cada dimensión representa un concepto, como ser caliente o frío, ser verde, ser suave, ser un sustantivo. La representación vectorial de una palabra es su significado y valores según cada dimensión.

Sin embargo, nuestro lenguaje permite que otras palabras modifiquen el significado de cada palabra. Por ejemplo, una manzana tiene un significado. Pero podemos tener una manzana verde como versión modificada. Un ejemplo más extremo de modificación sería que una Apple en un contexto de iPhone difiere de una Apple en un contexto de prado. ¿Cómo dejamos que nuestro sistema modifique el significado vectorial de una palabra basado en otra palabra? Aquí es donde entra la atención.

El modelo de atención asigna otros dos vectores a cada palabra: una clave y una consulta. La consulta representa las cualidades del significado de una palabra que se puede modificar, y la clave representa el tipo de modificaciones que puede proporcionar a otras palabras. Por ejemplo, la palabra ‘verde’ puede proporcionar información sobre color y verde. Entonces, la clave de la palabra ‘verde’ tendrá un alto valor en la dimensión ‘verde’. Por otro lado, la palabra ‘manzana’ puede ser verde o no, por lo que el vector de consulta de ‘manzana’ también tendría un alto valor para la dimensión verde. Si tomamos el producto DOT de la clave de ‘verde’ con la consulta de ‘manzana’, el producto debe ser relativamente grande en comparación con el producto de la clave de ‘tabla’ y la consulta de ‘manzana’. La capa de atención luego agrega una pequeña fracción del valor de la palabra ‘verde’ al valor de la palabra ‘manzana’. De esta manera, el valor de la palabra ‘Apple’ se modifica para ser un poco más verde.

Cuando el LLM genera texto, lo hace una palabra tras otra. Cuando genera una palabra, todas las palabras generadas anteriormente se convierten en parte de su contexto. Sin embargo, las teclas y los valores de esas palabras ya están calculados. Cuando se agrega otra palabra al contexto, su valor debe actualizarse en función de su consulta y las claves y valores de todas las palabras anteriores. Es por eso que todos esos valores se almacenan en la memoria de la GPU. Este es el caché KV.

Deepseek determinó que la clave y el valor de una palabra están relacionados. Entonces, el significado de la palabra verde y su capacidad para afectar la verdura están obviamente muy estrechamente relacionados. Por lo tanto, es posible comprimir tanto como un vector único (y tal vez más pequeño) y descomprimir mientras se procesa muy fácilmente. Deepseek ha descubierto que afecta su rendimiento en los puntos de referencia, pero ahorra mucha memoria de GPU.

Deepseek aplicado moe

La naturaleza de una red neuronal es que toda la red debe ser evaluada (o calculada) para cada consulta. Sin embargo, no todo esto es un cálculo útil. El conocimiento del mundo se encuentra en los pesos o parámetros de una red. El conocimiento sobre la Torre Eiffel no se usa para responder preguntas sobre la historia de las tribus sudamericanas. Saber que una manzana es una fruta no es útil al responder preguntas sobre la teoría general de la relatividad. Sin embargo, cuando se calcula la red, todas las partes de la red se procesan independientemente. Esto incurre en grandes costos de cálculo durante la generación de texto que idealmente deberían evitarse. Aquí es donde entra la idea de la mezcla de expertos (MOE).

En un modelo MOE, la red neuronal se divide en múltiples redes más pequeñas llamadas expertos. Tenga en cuenta que el ‘experto’ en el tema no está definido explícitamente; La red lo resuelve durante el entrenamiento. Sin embargo, las redes asignan una puntuación de relevancia a cada consulta y solo activan las partes con puntajes de coincidencia más altos. Esto proporciona un gran ahorro de costos en el cálculo. Tenga en cuenta que algunas preguntas necesitan experiencia en múltiples áreas para ser respondidas correctamente, y el rendimiento de tales consultas se degradará. Sin embargo, debido a que las áreas se resuelven a partir de los datos, se minimiza el número de tales preguntas.

La importancia del aprendizaje de refuerzo

Se le enseña a un LLM a pensar a través de un modelo de cadena de pensamiento, con el modelo ajustado para imitar el pensamiento antes de entregar la respuesta. Se le pide al modelo que verbalice su pensamiento (genere el pensamiento antes de generar la respuesta). Luego se evalúa el modelo tanto en el pensamiento como en la respuesta, y se entrena con aprendizaje de refuerzo (recompensado para una coincidencia correcta y penalizado para una coincidencia incorrecta con los datos de entrenamiento).

Esto requiere datos de entrenamiento costosos con el token de pensamiento. Deepseek solo le pidió al sistema que generara los pensamientos entre las etiquetas y y que genere las respuestas entre las etiquetas y . El modelo es recompensado o penalizado puramente en función de la forma (el uso de las etiquetas) y la coincidencia de las respuestas. Esto requirió datos de capacitación mucho menos costosos. Durante la fase temprana de RL, el modelo probado generó muy poco pensamiento, lo que resultó en respuestas incorrectas. Finalmente, el modelo aprendió a generar pensamientos largos y coherentes, que es lo que Deepseek llama el momento ‘a-ha’. Después de este punto, la calidad de las respuestas mejoró bastante.

Deepseek emplea varios trucos de optimización adicionales. Sin embargo, son muy técnicos, por lo que no los profundizaré aquí.

Pensamientos finales sobre Deepseek y el mercado más grande

En cualquier investigación de tecnología, primero necesitamos ver lo que es posible antes de mejorar la eficiencia. Esta es una progresión natural. La contribución de Deepseek al paisaje LLM es fenomenal. La contribución académica no se puede ignorar, ya sea que estén o no entrenando o no la salida de OpenAI. También puede transformar la forma en que funcionan las startups. Pero no hay razón para que Operai o los otros gigantes estadounidenses se desesperen. Así es como funciona la investigación: un grupo se beneficia de la investigación de los otros grupos. Deepseek ciertamente se benefició de las investigaciones anteriores realizadas por Google, Operai y muchos otros investigadores.

Sin embargo, la idea de que Operai dominará el mundo LLM indefinidamente ahora es muy poco probable. Ninguna cantidad de cabildeo regulatorio o señalar con el dedo preservará su monopolio. La tecnología ya está en manos de muchos y fuera de la intemperie, lo que hace que su progreso sea imparable. Aunque esto puede ser un poco de dolor de cabeza para los inversores de OpenAI, en última instancia es una victoria para el resto de nosotros. Si bien el futuro pertenece a muchos, siempre estaremos agradecidos con los primeros contribuyentes como Google y OpenAI.

Debasish Ray Chawdhuri es ingeniero principal senior de Talentica Software.

Continue Reading

Noticias

Chatgpt o3 La función de ubicación de la foto es una locura buena

Published

on

Operai lanzó dos poderosos modelos de razonamiento hace unos días que hacen que Chatgpt sea aún más impresionante. Estos son O3 y O4-Mini que puedes probar de inmediato en ChatGPT. Son mucho mejores en el razonamiento que sus predecesores y pueden sobresalir en la codificación y las matemáticas si esos son sus pasatiempos.

Sin embargo, la nueva función de cambio de cabeza de ChatGPT en O3 y O4-Mini es, al menos para mí, la capacidad de la IA para interpretar los datos en las imágenes. Esencialmente, ChatGPT tiene una visión por computadora como en las películas, incluidas las capacidades de razonamiento que permiten que la IA extraiga los datos de ubicación de las fotos. Puedes preguntarle a la IA: “¿Dónde se tomó esta foto?” Y la IA hará todo lo que esté en su poder para responder.

Chatgpt O3 y O4-Mini obtendrán las cosas bien, como estás a punto de ver en mi prueba altamente científica que sigue. Es decir, harán las cosas bien incluso si trato de usar AI para engañar a Chatgpt.

Porque sí, usé GPT-4O Generation para crear una foto realista de una ubicación de esquí bien conocida en los Alpes en lugar de subir una imagen real. Luego le dije a ChatGPT que alterara esa imagen de una manera que cambiaría el horizonte.

Después de eso, comencé nuevas chats con O3 y O4-Mini, convencido de que ChatGPT reconocería la ubicación en la foto falsa que acababa de enviar. No me equivoqué; Ambos modelos me dieron el resultado que esperaba, demostrando que puede usar contenido generado por IA para engañar a la IA. Pero, sin embargo, me volaron la mente.

Recientemente le expliqué cómo los algoritmos de Apple Watch me decepcionan mientras esquiaba la semana pasada, y eso es lo que usé como inspiración en mi experimento para engañar a la IA.

Le pedí a ChatGPT que generara una foto que mostrara el conocido Matterhorn Peak en un día soleado, con esquiadores disfrutando de su tiempo. La foto tenía que tener una relación de aspecto de 16: 9 y parecerse a una foto de iPhone.

Fuente de la imagen: Chris Smith, BGR

Le dije a la IA que pusiera una góndola por si acaso, pero, como puede ver en el primer intento, que Góndola no iba a lugares. No importa; Solo necesitaba una primera imagen de la IA para poder alterarla. Ingrese la siguiente imagen:

Le indiqué a ChatGPT que eliminara la góndola y colocara un pico más pequeño de Matterhorn hacia la derecha.

Fuente de la imagen: Chris Smith, BGR

Tomé una captura de pantalla de la imagen para que no preservara ningún metadato, y luego convertí el archivo en una foto JPG:

Fuente de la imagen: Chris Smith, BGR

Luego, comencé dos chats separados, con Chatgpt O3 y Chatgpt O4-Mini, donde subí la foto falsa de Matterhorn y le pedí a la IA que me dijera dónde se tomó la foto y cómo la descubrieron.

Como era de esperar, ambos modelos de IA de razonamiento identificaron con éxito Matterhorn como la ubicación.

Chatgpt o3

Primero, tenemos O3, que me dio amplios detalles sobre cómo determinó la ubicación. La IA tiene una confianza increíblemente segura en su respuesta, diciéndome que “picos flanqueantes como el Dent Blanche y Weisshorn” son letreros.

Fuente de la imagen: Chris Smith, BGR

Tenía una sonrisa en mi rostro. Había vencido a la IA, con ai Haciéndolo reconocer la ubicación en una foto falsa. Era aún mejor que el O3 estuviera tan seguro de sí mismo después de solo 34 segundos de pensamiento.

Fuente de la imagen: Chris Smith, BGR

Pero luego pensé que empujaría las cosas más para que pudiera averiguar que la imagen era falsa. Le pedí que dibujara círculos sobre Dent Blanche y Weisshorn.

Fuente de la imagen: Chris Smith, BGR

Aquí es donde ver a O3 en acción me voló. Esta vez, la IA pasó casi seis minutos mirando la foto, tratando de identificar de manera confiable los dos picos que dijo que podía ver en la distancia.

Como verá, el Mini Matterhorn a la derecha inmediatamente arrojó la IA, pero Chatgpt no se detuvo allí. Seguía mirando la foto y buscó en la web imágenes de la región Alps donde se encuentran estos picos.

Fuente de la imagen: Chris Smith, BGR

También observó la foto para determinar la ubicación relativa de los picos adicionales en la región. “Puedo intentar superponer a los máximos locales aproximados basados ​​en el brillo, pero honestamente, creo que es más fácil usar mis ojos para esto”, pensó O3, y me sorprendió leerlo.

Fuente de la imagen: Chris Smith, BGR

La IA pasó a acercarse para ver mejor las partes de la foto de IA falsa:

Fuente de la imagen: Chris Smith, BGR

Recortó partes de la imagen tratando de descubrir detalles que esperaría estar allí en una foto real de las áreas que rodean el Matterhorn. En su cadena de pensamiento, Chatgpt dijo que no podía detectar formas de montaña que pensaba que debería estar allí.

Fuente de la imagen: Chris Smith, BGR

La IA comenzó a anotar la imagen, buscando la respuesta mientras continuaba buscando en la web más imágenes que lo ayudarían a determinar la ubicación de los dos picos que le pedí que colocara círculos rojos.

Como puede ver, el falso Mini-Matterhorn a la derecha seguía engañando a la IA.

Fuente de la imagen: Chris Smith, BGR

En última instancia, ChatGPT O3 reconoció las incertidumbres, pero aún así decidió marcar los dos picos que pedí. Ejecutó el código en el chat y me dio la siguiente imagen.

Me hubiera encantado ver Chatgpt O3 llamar a mi farol y decirme que esta foto no es real. Quizás las versiones futuras de la IA puedan hacerlo. Pero debo decir que leer esos cinco minutos de “pensamiento”, la mayoría de ellos vistos en la imagen de arriba, fue aún mejor.

Imagen de captura de pantalla Fuente: Chris Smith, BGR

Me mostró que AI está trabajando para hacer el trabajo y reforzar mi idea de que la visión por computadora de IA es increíble en estas nuevas versiones de ChatGPT.

Pero espera, se vuelve mejor.

Chatgpt o4-mini

Mi experimento no se puede hacer sin usar ChatGpt O4-Mini. Después de todo, O4-Mini es el precursor de O4, que debería ser incluso mejor que O3. O4-Mini fue mucho más rápido que O3 al darme la respuesta.

Fuente de la imagen: Chris Smith, BGR

La IA pensó durante 15 segundos, durante los cuales apareció imágenes de Internet para respaldar su opinión que la foto que había subido era una imagen real del Matterhorn.

O4-Mini también explicó cómo identificaba la ubicación, pero se sentía seguro de que era correcto al respecto. Este es el Matterhorn, dado todo lo que ha aprendido de la Web.

Fuente de la imagen: Chris Smith, BGR

A diferencia de ChatGPT O3, O4-Mini no mencionó los picos adicionales. Pero le pedí a O4-Mini que hiciera lo mismo que O3: Identifique a Dent Blanche y Weisshorn.

O4-Mini me voló con su velocidad aquí. Tomó 18 segundos darme la siguiente imagen, que tiene círculos rojos alrededor de los dos picos.

Fuente de la imagen: Chris Smith, BGR

Sí, no es un gran trabajo, y no tengo idea de por qué la IA coloca esos círculos allí porque la transcripción más limitada de la cadena de pensamiento no lo explica.

Obviamente es incorrecto, considerando que estamos trabajando con una imagen de IA falsa aquí. Y sí, O4-Mini no podía decir que la foto era falsa.

El verdadero materia

Las conclusiones son obvias, y no todas son grandes noticias.

Primero, la generación de imágenes 4O puede ser fácilmente abusada. En realidad, nunca he visto el Matterhorn en persona, y por eso le pedí a la IA que hiciera esta imagen específica. Reconocí su famosa silueta de las fotos de la vida real, pero definitivamente no estoy familiarizado con los otros picos de la región. Esto demuestra que las imágenes creadas por Chatgpt pueden engañar a las personas. También pueden engañar a otros modelos de IA.

En segundo lugar, O3 y O4-Mini son simplemente increíbles al analizar los datos en las imágenes. Por supuesto, tienen que serlo. Si 4O puede crear fotos impresionantes y realistas, es porque la IA puede interpretar los datos en las imágenes.

En tercer lugar, encontrar información de ubicación de las fotos será trivialmente fácil para modelos OpenAI como O3 y O4-Mini. Los competidores probablemente obtendrán poderes similares. Este es un problema de privacidad que tendremos que tener en cuenta en el futuro.

Cuarto, ChatGPT O3 se toma muy en serio el trabajo de razonamiento. Si pasó todo ese tiempo en una foto de IA falsa tratando de igualarlo con el mundo real, pasará un tiempo similar en otros trabajos que podría lanzarle, y usará un montón de herramientas disponibles en ChatGPT (como codificación, búsqueda web, manipulación de imágenes) para hacer el trabajo.

Estoy seguro de que si hubiera pasado más tiempo con el razonamiento de la IA sobre la imagen, finalmente llegaríamos a la conclusión de que la imagen que la IA estaba investigando era falsa.

Quinto, ChatGpt O4-Mini puede ser realmente rápido. Demasiado rápido. Es algo que quieres de Genai Chatbots, pero también algo de lo que preocuparse. O4-Mini tampoco reconoció la foto falsa, pero su enfoque era mucho más descuidado. Eso me hace pensar que debes prestar atención adicional al trabajar con la versión Mini para asegurar que la IA haga el trabajo. Pero bueno, estoy trabajando con un experimento muy limitado aquí.

Finalmente, aquí está el Matterhorn y el área circundante de un clip de YouTube que se cargó en diciembre de 2020. Digo que, porque, en la era de la IA, el video que estás a punto de ver siempre podría ser falso. El video te brinda una “vista desde arriba del Nordwand de Weisshorn mirando hacia Matterhorn (L) y Dent Blanche (R). Mt Blanc es visible en la distancia (lejos R)”. Es un ángulo diferente, pero al menos lo suficientemente bueno como para darle una idea de lo que Chatgpt O3 estaba buscando.

Continue Reading

Trending