Connect with us

Noticias

Segundo cumpleaños de ChatGPT: ¿Cómo será la IA (y el mundo) dentro de otros dos años?

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder en la industria. Más información


Han pasado poco más de dos años desde la primera aparición de ChatGPT el 30 de noviembre de 2022. En el momento de su lanzamiento, OpenAI vio a ChatGPT como un proyecto de demostración diseñado para aprender cómo las personas usarían la herramienta y el gran GPT 3.5 subyacente. modelo de lenguaje (LLM).

Un LLM es un modelo basado en la arquitectura transformadora introducida por primera vez por Google en 2017, que utiliza mecanismos de autoatención para procesar y generar texto similar a un humano en tareas como la comprensión del lenguaje natural. ¡Fue más que un proyecto de demostración exitoso! OpenAI quedó tan sorprendido como cualquiera por la rápida adopción de ChatGPT, que alcanzó los cien millones de usuarios en dos meses.

Aunque quizás no deberían haberse sorprendido tanto. El futurista Kevin Kelly, también cofundador de cableadoadvirtió en 2014 que “los planes de negocio de las próximas 10.000 nuevas empresas son fáciles de pronosticar: tome X y agregue IA. Esto es muy importante y ahora está aquí”.

Kelly dijo esto varios años antes de ChatGPT. Sin embargo, esto es exactamente lo que ha sucedido. Igualmente notable es su predicción en el mismo cableado artículo que: “Para 2024, el producto principal de Google no será la búsqueda sino la inteligencia artificial”. Se podría debatir si esto es cierto, pero podría serlo pronto. Gemini es el producto insignia de chat de IA de Google, pero la IA impregna su búsqueda y probablemente todos los demás productos, incluidos YouTube, TensorFlow y las funciones de IA en Google Workspace.

El bot escuchado en todo el mundo.

La precipitada avalancha de nuevas empresas de IA que Kelly previó realmente cobró impulso después del lanzamiento de ChatGPT. Podríamos llamarlo el momento del big bang de la IA o el robot escuchado en todo el mundo. E impulsó el campo de la IA generativa, la amplia categoría de LLM para texto y modelos de difusión para la creación de imágenes. Esto alcanzó la cima de la exageración, o lo que Gartner llama “el pico de las expectativas infladas” en 2023.

Es posible que el entusiasmo por 2023 haya disminuido, pero sólo un poco. Según algunas estimaciones, hay hasta 70.000 empresas de IA en todo el mundo, lo que representa un aumento del 100% desde 2017. Se trata de una verdadera explosión cámbrica de empresas que buscan usos novedosos para la tecnología de IA. La previsión de Kelly de 2014 sobre las nuevas empresas de IA resultó profética.

En todo caso, siguen fluyendo enormes inversiones de capital de riesgo hacia empresas emergentes que buscan aprovechar la IA. Los New York Times informó que los inversores invirtieron 27.100 millones de dólares en empresas emergentes de IA en EE. UU. solo en el segundo trimestre de 2024, “lo que representa casi la mitad de toda la financiación inicial de EE. UU. en ese período”. Statista agregó: “En los primeros nueve meses de 2024, las inversiones relacionadas con la IA representaron el 33% de las inversiones totales en empresas respaldadas por capital de riesgo con sede en los EE. UU. Eso representa un aumento del 14% en 2020 y podría aumentar aún más en los próximos años. ” El gran mercado potencial es un atractivo tanto para las empresas emergentes como para las empresas establecidas.

Una encuesta reciente del Instituto Reuters entre consumidores indicó que el uso individual de ChatGPT era bajo en seis países, incluidos EE. UU. y el Reino Unido. Solo el 1 % lo usaba a diario en Japón, aumentando al 2 % en Francia y el Reino Unido, y al 7 % en EE. UU. Esta lentitud La adopción podría atribuirse a varios factores, que van desde la falta de concienciación hasta las preocupaciones sobre la seguridad de la información personal. ¿Significa esto que se sobreestima el impacto de la IA? Difícilmente, ya que la mayoría de los encuestados esperaban que la IA genética tuviera un impacto significativo en todos los sectores de la sociedad en los próximos cinco años.

El sector empresarial cuenta una historia bastante diferente. Como informó VentureBeat, la firma de analistas de la industria GAI Insights estima que el 33% de las empresas tendrán aplicaciones de inteligencia artificial en producción el próximo año. Las empresas suelen tener casos de uso más claros, como mejorar el servicio al cliente, automatizar los flujos de trabajo y aumentar la toma de decisiones, lo que impulsa una adopción más rápida que entre los consumidores individuales. Por ejemplo, la industria de la salud está utilizando IA para capturar billetes y los servicios financieros están utilizando la tecnología para mejorar la detección de fraude. GAI informó además que la generación de IA es la principal prioridad presupuestaria para 2025 para los CIO y CTO.

¿Qué sigue? De la generación AI a los albores de la superinteligencia

El despliegue desigual de la IA genera dudas sobre lo que nos espera para su adopción en 2025 y más allá. Tanto el director ejecutivo de Anthropic, Dario Amodei, como el director ejecutivo de OpenAI, Sam Altman, sugieren que la inteligencia artificial general (AGI), o incluso la superinteligencia, podría aparecer en los próximos dos a diez años, remodelando potencialmente nuestro mundo. Se cree que la AGI es la capacidad de la IA para comprender, aprender y realizar cualquier tarea intelectual que pueda realizar un ser humano, emulando así las capacidades cognitivas humanas en una amplia gama de dominios.

Chispas de AGI en 2025

Según lo informado por VariedadAltman dijo que podríamos ver los primeros destellos de AGI ya en 2025. Probablemente estaba hablando de agentes de IA, en los que se puede asignar a un sistema de IA una tarea complicada y este utilizará de forma autónoma diferentes herramientas para completarla.

Por ejemplo, Anthropic introdujo recientemente una función de uso de computadoras que permite a los desarrolladores dirigir el chatbot Claude “para usar las computadoras como lo hacen las personas: mirando una pantalla, moviendo un cursor, haciendo clic en botones y escribiendo texto”. Esta característica permite a los desarrolladores delegar tareas a Claude, como programar reuniones, responder correos electrónicos o analizar datos, con el bot interactuando con las interfaces de la computadora como si fuera un usuario humano.

En una demostración, Anthropic mostró cómo Claude podría planificar de forma autónoma un viaje de un día interactuando con interfaces de computadora: una primera visión de cómo los agentes de IA pueden supervisar tareas complejas.

Leyenda: Anthropic muestra cómo su chatbot Claude puede planificar tareas de forma autónoma, como una excursión de un día. Fuente: https://www.youtube.com/watch?v=jqx18KgIzAE

En septiembre, Salesforce dijo que “está marcando el comienzo de la tercera ola de la revolución de la IA, ayudando a las empresas a implementar agentes de IA junto con trabajadores humanos”. Ven a los agentes centrándose en tareas repetitivas y de menor valor, lo que libera a las personas para centrarse en prioridades más estratégicas. Estos agentes podrían permitir que los trabajadores humanos se centren en la innovación, la resolución de problemas complejos o la gestión de las relaciones con los clientes.

Con características como las capacidades de uso de computadoras de Anthropic y la integración de agentes de IA de Salesforce y otros, la aparición de agentes de IA se está convirtiendo en una de las innovaciones más esperadas en el campo. Según Gartner, el 33% de las aplicaciones de software empresarial incluirán IA agente para 2028, frente a menos del 1% en 2024, lo que permitirá que el 15% de las decisiones laborales diarias se tomen de forma autónoma.

Si bien las empresas pueden beneficiarse significativamente de la IA agente, el concepto de “inteligencia ambiental” sugiere una transformación aún más amplia, en la que las tecnologías interconectadas mejoran perfectamente la vida diaria.

En 2016, escribí en TechCrunch sobre la inteligencia ambiental, como una “interconexión digital para producir información y servicios que mejoren nuestras vidas. Esto es posible gracias a la combinación dinámica de plataformas informáticas móviles, nube y big data, redes neuronales y aprendizaje profundo que utilizan unidades de procesamiento de gráficos (GPU) para producir inteligencia artificial (IA)”.

En ese momento, dije que conectar estas tecnologías y cruzar los límites necesarios para brindar experiencias fluidas, transparentes y persistentes en contexto tomaría tiempo para lograrlo. Es justo decir que ocho años después, esta visión está a punto de hacerse realidad.

Los cinco niveles de AGI

Según la hoja de ruta de OpenAI, el viaje hacia AGI implica la progresión a través de sistemas cada vez más capaces, con agentes de IA (nivel 3 de 5) que marcan un salto significativo hacia la autonomía.

Subtítulo: La hoja de ruta de OpenAI ilustra la progresión hacia AGI, desde chatbots básicos hasta sistemas autónomos que gestionan tareas complejas.

Altman afirmó que el impacto inicial de estos agentes será mínimo. Aunque eventualmente la AGI “será más intensa de lo que la gente piensa”. Esto sugiere que pronto deberíamos esperar cambios sustanciales que requerirán rápidos ajustes sociales para garantizar una integración justa y ética.

¿Cómo cambiarán los avances en AGI las industrias, las economías, la fuerza laboral y nuestra experiencia personal con la IA en los próximos años? Podemos suponer que el futuro a corto plazo impulsado por nuevos avances en la IA será a la vez emocionante y tumultuoso, y conducirá tanto a avances como a crisis.

Equilibrando avances y disrupciones

Los avances podrían abarcar el descubrimiento de fármacos mediante IA, la agricultura de precisión y robots humanoides prácticos. Si bien los avances prometen beneficios transformadores, el camino a seguir no está exento de riesgos. La rápida adopción de la IA también podría provocar perturbaciones importantes, en particular el desplazamiento de puestos de trabajo. Este desplazamiento podría ser grande, especialmente si la economía entra en recesión, cuando las empresas buscan reducir su nómina pero siguen siendo eficientes. Si esto ocurriera, es posible que se produzcan reacciones sociales contra la IA, incluidas protestas masivas.

A medida que la revolución de la IA avanza desde herramientas generativas hasta agentes autónomos y más, la humanidad se encuentra en la cúspide de una nueva era. ¿Estos avances elevarán el potencial humano o presentarán desafíos que aún no estamos preparados para enfrentar? Probablemente habrá ambas cosas. Con el tiempo, la IA no será solo parte de nuestras herramientas: se integrará perfectamente en el tejido de la vida misma, convirtiéndose en ambiente y remodelando la forma en que trabajamos, nos conectamos y experimentamos el mundo.

Gary Grossman es vicepresidente ejecutivo de práctica tecnológica en Edelman y líder global del Centro de Excelencia de IA de Edelman.

Tomadores de decisiones de datos

¡Bienvenido a la comunidad VentureBeat!

DataDecisionMakers es el lugar donde los expertos, incluidos los técnicos que trabajan con datos, pueden compartir conocimientos e innovación relacionados con los datos.

Si desea leer sobre ideas de vanguardia e información actualizada, mejores prácticas y el futuro de los datos y la tecnología de datos, únase a nosotros en DataDecisionMakers.

¡Incluso podrías considerar contribuir con un artículo propio!

Leer más de DataDecisionMakers

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Los padres de Suchir Balaji quieren saber qué pasó tras el aparente suicidio

Published

on

SAN FRANCISCO – Los padres de un ex investigador de OpenAI conocido por recientemente denunciar las prácticas comerciales de la compañía están cuestionando las circunstancias de la muerte de su hijo el mes pasado.

En una entrevista esta semana, la madre y el padre de Suchir Balaji expresaron confusión y conmoción por su repentino fallecimiento, expresando dudas de que su hijo pudiera haberse suicidado, según lo determinado por el médico forense del condado.

La familia contrató a un experto para realizar una autopsia independiente, pero aún no ha publicado los hallazgos del informe.

“Exigimos una investigación exhaustiva; ese es nuestro llamado”, dijo la madre de Balaji, Poornima Ramarao.

La policía de San Francisco encontró a Balaji muerto en su apartamento de Lower Haight el 26 de noviembre, menos de una semana después de cumplir 26 años.

La Oficina del Médico Forense de San Francisco dijo más tarde a esta agencia de noticias que su muerte fue considerada un suicidio, aunque aún no se ha publicado el informe final de la autopsia mientras la oficina completa las pruebas toxicológicas. A principios de este mes, funcionarios de la policía de San Francisco dijeron que “actualmente no hay evidencia de juego sucio”.

La muerte de Balaji conmocionó a todo Silicon Valley y a la industria de la inteligencia artificial.

Obtuvo atención nacional a finales de octubre cuando acusó a su antiguo empleador, OpenAI, de violar la ley federal de derechos de autor al desviar datos de Internet para entrenar su exitoso chatbot, ChatGPT.

Sus preocupaciones respaldaron las acusaciones difundidas en los últimos años por autores, guionistas y programadores informáticos que dicen que OpenAI robó su contenido sin permiso, en violación de las leyes de “uso justo” de Estados Unidos que rigen cómo las personas pueden utilizar el trabajo publicado anteriormente.

Las empresas de medios han estado entre las que demandaron a la empresa, incluido The Mercury News y siete de sus periódicos afiliados y, por separado, The New York Times.

Poornima Ramarao, madre de Suchir Balaji, habla con esta nueva organización en su casa en el condado de Alameda, California, el lunes 23 de diciembre de 2024. Suchir Balaji, de 26 años, es un ex investigador de OpenAI conocido por denunciar la exitosa empresa de inteligencia artificial. quien fue encontrado muerto en su departamento en noviembre pasado. (Nhat V. Meyer/Bay Area News Group)

En una entrevista con The New York Times publicada en octubre de 2024, Balaji describió su decisión de dejar la empresa de inteligencia artificial generativa en agosto y sugirió que sus prácticas de recopilación de datos “no son un modelo sostenible para el ecosistema de Internet en su conjunto”.

“Si crees en lo que yo creo, simplemente tienes que dejar la empresa”, dijo al periódico.

El 18 de noviembre, Balaji había sido nombrado en documentos judiciales como alguien que tenía “documentos únicos y relevantes” que respaldarían el caso contra OpenAI. Él estuvo entre al menos 12 personas, muchas de ellas ex empleados o empleados actuales de OpenAI, que fueron mencionadas por el periódico en documentos judiciales por tener material útil para su caso.

Su muerte, una semana después, dejó a los padres de Balaji atónitos.

En una entrevista en su casa del condado de Alameda esta semana, su madre dijo que su único hijo “fue un ser humano increíble, desde la infancia”.

“Nadie cree que él pueda hacer eso”, dijo Ramarao sobre su suicidio.

OpenAI no respondió de inmediato a una solicitud de comentarios, pero en un comunicado a Business Insider dijo que estaba “devastado” al enterarse de la muerte de Balaji y dijo que habían estado en contacto con sus padres “para ofrecerles todo nuestro apoyo durante este momento difícil”.

“Nuestra prioridad es seguir haciendo todo lo posible para ayudarles”, decía el comunicado de la empresa. “Nos dimos cuenta de sus preocupaciones por primera vez cuando The New York Times publicó sus comentarios y no tenemos constancia de ninguna interacción posterior con él.

“Respetamos su derecho y el de otros a compartir opiniones libremente”, añade el comunicado. “Nuestros corazones están con los seres queridos de Suchir y extendemos nuestro más sentido pésame a todos los que lamentan su pérdida”.

Nacido en Florida y criado en el Área de la Bahía, Balaji fue un prodigio desde temprana edad, dijo su madre a esta agencia de noticias. Pronunció su nombre a los 3 meses; a los 18 meses me pedía “que encendiera una lámpara para animarme” y podía reconocer palabras a los 20 meses, dijo.

Balaji parecía tener una habilidad especial para la tecnología, las matemáticas y la informática, llevándose a casa trofeos y ganando renombre, incluso en la Olimpiada de Computación de los Estados Unidos de América de 2016.

En 2020, comenzó a trabajar para OpenAI y consideró admirable el entonces compromiso de la compañía de operar como una organización sin fines de lucro, dijo su madre. Su opinión sobre la empresa se agrió en 2022 mientras le asignaban la tarea de recopilar datos de Internet para el programa GPT-4 de la empresa, informó el New York Times. El programa analizó texto de casi todo Internet para entrenar su programa de inteligencia artificial, informó el medio.

Ramarao dijo que no estaba al tanto de la decisión de su hijo de hacer públicas sus preocupaciones sobre OpenAI hasta que el periódico publicó su entrevista. Si bien ella inmediatamente sintió ansiedad por su decisión, llegando incluso a implorarle que hablara con un abogado de derechos de autor, Ramarao también expresó orgullo por la valentía de su hijo.

“No dejaba de asegurarme: ‘Mamá, no estoy haciendo nada malo, ve a ver el artículo’. Sólo digo que, en mi opinión, no hay nada malo en ello”, dijo Ramarao, una ex empleada de Microsoft que trabajó en su programa de computación en la nube Azure. “Lo apoyé. No lo critiqué. Le dije: ‘Estoy orgulloso de ti, porque tienes tus propias opiniones y sabes lo que está bien y lo que está mal’. Era muy ético”.

Después de dejar la empresa, Balaji decidió crear una organización sin fines de lucro, centrada en los campos del aprendizaje automático y las neurociencias, dijo Ramarao. Ya había hablado con al menos un capitalista de riesgo para obtener financiación inicial, dijo.

“Les pregunto: ‘¿Cómo vas a manejar tu vida?’ “Dijo Ramarao. Recordó cómo su hijo intentó repetidamente disipar cualquier preocupación sobre sus finanzas, sugiriendo que “el dinero no es importante para mí; quiero ofrecer un servicio a la humanidad”.

Balaji también parecía tener una agenda ocupada. Cumplió 26 años durante un viaje de mochilero a las Islas Catalina con varios amigos de la escuela secundaria. Este tipo de viajes eran para él algo habitual: en abril viajó con varios amigos a la Patagonia y América del Sur.

Balaji habló por última vez con sus padres el 22 de noviembre, una llamada telefónica de 10 minutos que se centró en su reciente viaje y que terminó hablando de cenar.

“Estaba muy feliz”, dijo Ramarao. “Se lo pasó genial. Pasó uno de los mejores momentos de su vida”.

Los padres de Suchir Balaji, Poornima Ramarao, izquierda, y Ramamurthy Balaji, derecha, sostienen una fotografía de su hijo de 2022, en su casa en Union City, California, el lunes 23 de diciembre de 2024. Suchir Balaji, de 26 años, es un ex investigador de OpenAI conocido por denunciar la exitosa compañía de inteligencia artificial que fue encontrado muerto en su apartamento el pasado mes de noviembre. (Nhat V. Meyer/Bay Grupo de noticias del área)
Los padres de Suchir Balaji, Poornima Ramarao, izquierda, y Balaji Ramamurthy, derecha, sostienen una fotografía de su hijo de 2022, en su casa en el condado de Alameda, California, el lunes 23 de diciembre de 2024. Suchir Balaji, de 26 años, es un ex investigador de OpenAI conocido por denunciar la exitosa compañía de inteligencia artificial que fue encontrado muerto en su apartamento el pasado mes de noviembre (Nhat V. Meyer/Grupo de Noticias del Área de la Bahía)

Ramarao recuerda haber llamado a su hijo poco después del mediodía del 23 de noviembre, pero dijo que sonó una vez y saltó el correo de voz. Pensando que él estaba ocupado con amigos, no intentó visitar su departamento hasta el 25 de noviembre, cuando llamó pero no obtuvo respuesta. Dijo que llamó a las autoridades esa noche, pero supuestamente un centro de despacho de la policía le dijo que poco se podía hacer ese día. Ella hizo un seguimiento el 26 de noviembre y la policía de San Francisco encontró más tarde el cuerpo de Balaji dentro de su apartamento.

Ramarao dijo que no le informaron de la muerte de su hijo hasta que apareció una camilla frente al apartamento de Balaji. No se le permitió entrar hasta el día siguiente.

“Nunca podré olvidar esa tragedia”, dijo Ramarao. “Se me rompió el corazón”.

Ramarao cuestionó la investigación de las autoridades sobre la muerte de su hijo, afirmando que la policía de San Francisco cerró su caso y lo entregó a la oficina del médico forense del condado una hora después de descubrir el cuerpo de Balaji.

Ramarao dijo que desde entonces ella y su marido encargaron una segunda autopsia del cuerpo de Balaji. Ella se negó a revelar cualquier documento de ese examen. Su abogado, Phil Kearney, se negó a comentar sobre los resultados de la autopsia independiente de la familia.

La semana pasada, el portavoz de la policía de San Francisco, Evan Sernoffsky, remitió las preguntas sobre el caso a la oficina del médico forense. David Serrano Sewell, director ejecutivo de la Oficina del Médico Forense Jefe, declinó hacer comentarios.

Sentada en el sofá de su sala, Ramarao sacudió la cabeza y expresó su frustración por los esfuerzos de investigación de las autoridades hasta el momento.

“Como padres afligidos, tenemos derecho a saber qué le pasó a nuestro hijo”, dijo Ramarao. “Estaba tan feliz. Fue muy valiente”.

Si usted o alguien que conoce está luchando contra sentimientos de depresión o pensamientos suicidas, 988 Suicide & Crisis Lifeline ofrece apoyo, información y recursos de ayuda gratuitos las 24 horas. Llame o envíe un mensaje de texto a Lifeline al 988, o visite el sitio web 988lifeline.org, donde está disponible el chat.

Publicado originalmente:

Continue Reading

Noticias

De o1 a o3: Cómo OpenAI está redefiniendo el razonamiento complejo en IA

Published

on

La IA generativa ha redefinido lo que creemos que puede hacer la IA. Lo que comenzó como una herramienta para tareas simples y repetitivas ahora resuelve algunos de los problemas más desafiantes que enfrentamos. OpenAI ha jugado un papel importante en este cambio, liderando el camino con su sistema ChatGPT. Las primeras versiones de ChatGPT mostraron cómo la IA podía tener conversaciones similares a las de los humanos. Esta capacidad ofrece una idea de lo que era posible con la IA generativa. Con el tiempo, este sistema ha avanzado más allá de simples interacciones para abordar desafíos que requieren razonamiento, pensamiento crítico y resolución de problemas. Este artículo examina cómo OpenAI ha transformado ChatGPT de una herramienta conversacional a un sistema que puede razonar y resolver problemas.

o1: El primer salto hacia el razonamiento real

El primer paso de OpenAI hacia el razonamiento se produjo con el lanzamiento de o1 en septiembre de 2024. Antes de o1, los modelos GPT eran buenos para comprender y generar texto, pero tenían dificultades con tareas que requerían razonamiento estructurado. o1 cambió eso. Fue diseñado para centrarse en tareas lógicas, dividiendo problemas complejos en pasos más pequeños y manejables.

o1 logró esto utilizando una técnica llamada cadenas de razonamiento. Este método ayudó al modelo a abordar problemas complicados, como matemáticas, ciencias y programación, dividiéndolos en partes fáciles de resolver. Este enfoque hizo que o1 fuera mucho más preciso que versiones anteriores como GPT-4o. Por ejemplo, cuando se evaluaron problemas de matemáticas avanzadas, o1 resolvió el 83% de las preguntas, mientras que GPT-4o solo resolvió el 13%.

El éxito de o1 no provino sólo de cadenas de razonamiento. OpenAI también mejoró la forma en que se entrenó el modelo. Utilizaron conjuntos de datos personalizados centrados en matemáticas y ciencias y aplicaron aprendizaje por refuerzo a gran escala. Esto ayudó a o1 a manejar tareas que requerían varios pasos para resolverse. El tiempo computacional adicional dedicado al razonamiento demostró ser un factor clave para lograr una precisión que los modelos anteriores no podían igualar.

o3: Llevar el razonamiento al siguiente nivel

Aprovechando el éxito de o1, OpenAI ahora lanzado o3. Liberado durante el “12 días de OpenAI”, este modelo lleva el razonamiento de la IA al siguiente nivel con herramientas más innovadoras y nuevas habilidades.

Una de las mejoras clave de o3 es su capacidad de adaptación. Ahora puede comparar sus respuestas con criterios específicos, asegurándose de que sean precisas. Esta capacidad hace que o3 sea más confiable, especialmente para tareas complejas donde la precisión es crucial. Piense en ello como si tuviera un control de calidad incorporado que reduce las posibilidades de cometer errores. La desventaja es que lleva un poco más de tiempo llegar a las respuestas. Puede llevar unos segundos o incluso minutos adicionales resolver un problema en comparación con los modelos que no utilizan el razonamiento.

Al igual que o1, o3 fue entrenado para “pensar” antes de responder. Esta formación permite a o3 realizar razonamiento en cadena de pensamiento utilizando el aprendizaje por refuerzo. OpenAI llama a este enfoque una “cadena de pensamiento privada”. Permite a o3 analizar los problemas y analizarlos paso a paso. Cuando a o3 se le da una indicación, no se apresura a responder. Se necesita tiempo para considerar ideas relacionadas y explicar su razonamiento. Después de esto, resume la mejor respuesta que se le ocurre.

Otra característica útil de o3 es su capacidad de ajustar cuánto tiempo dedica a razonar. Si la tarea es sencilla, o3 puede actuar rápidamente. Sin embargo, puede utilizar más recursos computacionales para mejorar su precisión en desafíos más complicados. Esta flexibilidad es vital porque permite a los usuarios controlar el rendimiento del modelo en función de la tarea.

En las primeras pruebas, el o3 mostró un gran potencial. en el Punto de referencia ARC-AGIque prueba la IA en tareas nuevas y desconocidas, o3 obtuvo una puntuación del 87,5%. Este desempeño es un resultado sólido, pero también señaló áreas donde el modelo podría mejorar. Si bien funcionó muy bien con tareas como codificación y matemáticas avanzadas, ocasionalmente tuvo problemas con problemas más sencillos.

¿O3 logró la Inteligencia General Artificial (AGI)?

Si bien o3 mejora significativamente las capacidades de razonamiento de la IA al obtener una puntuación alta en el ARC Challenge, un punto de referencia diseñado para probar el razonamiento y la adaptabilidad, todavía no alcanza la inteligencia a nivel humano. Los organizadores del ARC Challenge han aclarado que aunque el desempeño de o3 logró un hito importante, es simplemente un paso hacia AGI y no el logro final. Si bien o3 puede adaptarse a nuevas tareas de manera impresionante, todavía tiene problemas con tareas simples que resultan fáciles para los humanos. Esto muestra la brecha entre la IA actual y el pensamiento humano. Los humanos pueden aplicar conocimientos en diferentes situaciones, mientras que la IA todavía lucha con ese nivel de generalización. Entonces, si bien O3 es un desarrollo notable, aún no tiene la capacidad universal de resolución de problemas necesaria para AGI. AGI sigue siendo un objetivo para el futuro.

El camino por delante

El progreso de o3 es un gran momento para la IA. Ahora puede resolver problemas más complejos, desde codificación hasta tareas de razonamiento avanzado. La IA se está acercando a la idea de AGI y el potencial es enorme. Pero este progreso conlleva responsabilidad. Necesitamos pensar detenidamente sobre cómo avanzar. Existe un equilibrio entre impulsar a la IA a hacer más y garantizar que sea segura y escalable.

o3 todavía enfrenta desafíos. Uno de los mayores desafíos para o3 es su necesidad de una gran potencia informática. Ejecutar modelos como o3 requiere recursos importantes, lo que dificulta la ampliación de esta tecnología y limita su uso generalizado. Hacer que estos modelos sean más eficientes es clave para garantizar que puedan alcanzar su máximo potencial. La seguridad es otra preocupación principal. Cuanto más capaz sea la IA, mayor será el riesgo de consecuencias no deseadas o de uso indebido. OpenAI ya ha implementado algunas medidas de seguridad, como la “alineación deliberativa”, que ayudan a guiar la toma de decisiones del modelo siguiendo principios éticos. Sin embargo, a medida que avance la IA, estas medidas deberán evolucionar.
Otras empresas, como Google y DeepSeek, también están trabajando en modelos de inteligencia artificial que puedan realizar tareas de razonamiento similares. Se enfrentan a desafíos similares: altos costos, escalabilidad y seguridad.

El futuro de la IA es muy prometedor, pero aún existen obstáculos. La tecnología se encuentra en un punto de inflexión y la forma en que manejemos cuestiones como la eficiencia, la seguridad y la accesibilidad determinará hacia dónde se dirige. Es un momento emocionante, pero se requiere una reflexión cuidadosa para garantizar que la IA pueda alcanzar su máximo potencial.

La conclusión

El paso de OpenAI de o1 a o3 muestra hasta dónde ha llegado la IA en el razonamiento y la resolución de problemas. Estos modelos han evolucionado desde el manejo de tareas simples hasta abordar tareas más complejas como matemáticas y codificación avanzadas. o3 destaca por su capacidad de adaptación, pero aún no está al nivel de la Inteligencia General Artificial (AGI). Si bien puede manejar muchas cosas, todavía tiene dificultades con algunas tareas básicas y necesita mucha potencia informática.

El futuro de la IA es brillante, pero conlleva desafíos. Es necesario prestar atención a la eficiencia, la escalabilidad y la seguridad. La IA ha logrado avances impresionantes, pero aún queda trabajo por hacer. El progreso de OpenAI con o3 es un importante paso adelante, pero AGI todavía está en el horizonte. La forma en que abordemos estos desafíos dará forma al futuro de la IA.

Continue Reading

Noticias

Preguntas y respuestas navideñas: ChatGPT aborda las preguntas difíciles que eres demasiado educado para hacer | Noticias

Published

on









Las vacaciones y las situaciones socialmente incómodas van juntas como los guisantes y las zanahorias. Así que le hicimos a ChatGPT las preguntas difíciles que tienes en mente, pero que no te atreverías a preguntarle a alguien en persona. Algunas respuestas se editaron para ser breves porque ChatGPT es, bueno, bastante hablador.

P. ¿Cuánto tiempo es aceptable dejar las luces navideñas encendidas en la casa?

Esta página requiere Javascript.

Se requiere Javascript para poder leer contenido premium. Habilítelo en la configuración de su navegador.

kAmkDEC@?8mp]k^DEC@?8m xE’D 86?6C2==J 2446AE23=6 E@ =62G6 r9C:DE>2D =:89ED FA F?E:= D9@CE=J 27E6C E96 9@ =:52JD62D@? 6?5D[ EJA:42==J 2C@F?5 y2?] mi[ H9:49 >2C<D tA:A92?J @C %9C66 z:?8D’ s2J] %9:D 😀 EC25:E:@?2==J D66? 2D E96 4@?4=FD:@? @7 E96 r9C:DE>2D D62D@? 😕 >2?J 4F=EFC6D]w@H6G6C[ D@>6 A6@A=6 49@@D6 E@ =62G6 =:89ED FA =@?86C[ 6DA64:2==J :7 E96J 2C6 H:?E6C\E96>65 C2E96C E92? 6IA=:4:E=J r9C:DE>2D\E96>65]k^Soy

kAmx7 J@F =:G6 😕 2 ?6:893@C9@@5 H:E9 DA64:7:4 8F:56=:?6D @C 9@>6@H?6CDV 2DD@4:2E:@? CF=6D[ 4964< 7@C 2?J C6DEC:4E:@?D @? 9@=:52J 564@C2E:@?D]k^Soy

kAmkDEC@?8m”](92E 23@FE E96 r9C:DE>2D EC66n w@H =@?8 42? H6 =62G6 :E FA 367@C6 8F6DED DE2CE E@ BF6DE:@? @FC D2?:EJnk ^DIC@?8mk^Soy

kAmkDEC@?8mp]k^DEC@?8m %96 86?6C2= 8F:56=:?6 7@C E2<:?8 5@H? 2 r9C:DE>2D EC66 :DD:>:=2C E@ E92E 7@C =:89ED — 2C@F?5 y2?]e[ 27E6C tA:A92?J] @H6G6C[ D@>6 A6@A=6 6IE6?5 E9:D E@ >:5\y2?F2CJ @C 6G6? u63CF2CJ[ 56A6?5:?8 @? A6CD@?2= EC25:E:@? @C D6?E:>6?E2=:EJ]k^Soy

kAmx7 J@FC EC66 😀 C62=[ :EVD 36DE E@ C6>@G6 :E @?46 :E 368:?D E@ 5CJ @FE 2?5 D965 6I46DD:G6=J[ 2D :E 42? 364@>6 2 7:C6 92K2C5] u@C 2CE:7:4:2= EC66D[ E96C6’D ?@ C:D<[ 3FE =62G:?8 :E FA >F49 A2DE y2?F2CJ >2J 5C2H D@>6 D:56\6J6 7C@> G:D:E@CD F?=6DD J@F 92G6 2 DA64:7:4 C62D@?[ =:<6 46=63C2E:?8 ~CE9@5@I r9C:DE>2D Wy2?] fX @C A6CD@?2= EC25:E:@?D]k^Am

kAmp7E6C >:5\y2?F2CJ[ >@DE A6@A=6 H:== 368:? E@ BF6DE:@? E96 EC66VD =:?86C:?8 AC6D6?46 F?=6DD J@FVG6 4=62C=J EC2?D:E:@?65 :E :?E@ 2 H:?E6C 564@C2E:@?]k^Soy

kAmkDEC@?8m”]xD :ED@4:2==J 2446AE23=6 E@ C6EFC? 2 4C2AAJ @77:46 $64C6E $2?E2 8:7Enk^DEC@?8mk^Am

kAmkDEC@?8mp]k^DEC@?8m x? >@DE 42D6D[ C6EFC?:?8 2 $64C6E $2?E2 8:7E 😀 4@?D:56C65 D@4:2==J F?2446AE23=6 F?=6DD E96 8:G6C 6IA=:4:E=J AC@G:56D 2 8:7E C646:AE @C :?5:42E6D :E’D @<2J E@ 6I492?86 :E] $64C6E $2?E2 😀 >62?EE@ 36 2 =:89E962CE65 2?5 7F? EC25:E:@?[ 2?5 C6EFC?:?8 2 8:7E 4@F=5 4@>6 24C@DD 2D F?8C2E67F= @C 9FCE7F= E@ E96 8:G6C[ 6DA64:2==J :7 E96 8C@FA 😀 D>2== 2?5 E96 :56?E:EJ @7 E96 8:G6C 😀 <?@H? @C 62D:=J 8F6DD65]k^Soy

kAmx7 E96 8:7E 😀 ECF=JF?FD23=6 @C :?2AAC@AC:2E6[ 96C6 2C6 D@>6 E24E7F= 2=E6C?2E:G6Dik^Am

kAmkDEC@?8m#68:7E :Eik^DEC@?8m $2G6 :E 7@C 2 5:776C6?E @442D:@? H96C6 :E >:89E 36 36EE6C 2AAC64:2E65]k^soy

kAmkDEC@?8ms@?2E6 :Eik^DEC@?8m |2?J 492C:E:6D 2446AE ?6H @C 86?E=J FD65 :E6>D[ 2==@H:?8 E96 8:7E E@ 36?67:E D@>6@?6 6=D6]k^Soy

kAmkDEC@?8m#6AFCA@D6 :Eik^DEC@?8m u:?5 2 4C62E:G6 H2J E@ FD6 @C 6?;@J E96 8:7E 😕 2 5:776C6?E 4@?E6IE]k^Soy

kAm%96 <6J :DE@ 7@4FD@? E96 DA:C:E @7 E96 6I492?86 C2E96C E92? E96 8:7E :ED6=7]x7 C6EFC?:?8 :E :D 23D@=FE6=J ?646DD2CJ[ 5@ D@ 5:D4C66E=J H:E9@FE :?G@=G:?8 E96 $64C6E $2?E2 8C@FA]k^soy

kAmkDEC@?8m”](92E 23@FE E96 9:56@FD 92?5\ vC2?5>2n r2? x E2<6 E92E E@ 2 4@?D:8 ?>6?E D9@Ank^DEC@?8mk^Am

kAmkDEC@?8mp]k^DEC@?8m (9:=6 :E’D E649?:42==JA@DD:3=6 E@ E2<6 2 92?5\ vC2?5>2 E@ 2 4@?D:8?>6?E D9@A[ 5@:?8 D@ 4@F=5 36 D66? 2D 5:DC6DA64E7F=[ 6DA64:2==J :7 D96 AFE D:8?:7:42?E 677@CE :?E@ 4C62E:?8 :E] w2?5>256 8:7ED @7E6? 42CCJ D6?E:>6?E2= G2=F6[ 2?5 4@?D:8?:?8 E96 DH62E6C >:89E 9FCE 96C 766=:?8D :7 D96 7:?5D @FE]k^soy

kAmx7 E96 DH62E6C ECF=J :D?’EJ@FC DEJ=6 @C 7:E[ 4@?D:56C E96D6 2=E6C?2E:G6Dik^Am

kAmkDEC@?8m#6AFCA@D6 :Eik^DEC@?8m &D6 E96 DH62E6C 😕 2 H2J E92E 9@?@CD 96C 677@CE[ DF49 2D EFC?:?8 :E :?E@ 2 A:==@H 4@G6C[ D42C7[ @C 3=2?<6E]k^soy

kAmkDEC@?8m$E@C6 :Eik^DEC@?8m z66A :E 2D 2 D6?E:>6?E2= :E6>[ 6G6? :7 J@F 5@?’E H62C :E @7E6?]k^soy

kAmkDEC@?8m~776C :EE@ 72>:=Jik^DEC@?8m $66 :7 2?@E96C C6=2E:G6 H9@ F?56CDE2?5D :ED D6?E:>6?E2= G2 =F6 H@F=5 2AAC64:2E6 :E]k^Soy

kAmkDEC@?8ms@?2E6 5:D4C66E=Jik^DEC@?8m x7 J@F’C6 46CE2:? :EH@?’E 36 >:DD65[ 5@?2E:?8 :E E@ 2 492C:EJ >2J 6?DFC6 :E 7:?5D D@>6@?6 H9@ H:== 2AAC64:2E6 :E]k^soy

kAm%96 >@DE :>A@CE2?E E9:?8 :DE@ 36 4@?D:56C2E6 @7 E96 E:>6 2?5 =@G6 E92E H6?E :?E@ >2 <:?8 E96 8:7E]x7 J@F'C6 F?DFC6 9@H D96 >:89E 766=[ :E’D 36DE E@ <66A :E @C 7:?5 2 4C62E:G6 H2J E@ FD6 :E]k^soy

kAmkDEC@?8m”]x H2D :?G:E65 E@ 2 }6H *62CVD tG6 A2CEJ 3FE x =:<6 E@ 36 2D=66A 3J h A]>]w@H 42? x A@=: E6=J 564=:?6 H:E9@FE 36:?8 D66? A2CEJ A@@A6Cnk^DEC@?8mk^Am

kAmkDEC@?8mp]k^DEC@?8m *@F 42? A@=:E6=J 564=:?6 E96 }6H *62CVD tG6 A2CEJ :?G:E2E:@? H:E9@FE 4@>:?8 24C@DD 2D 2 A2CEJ A@@A6C 3J <66A:?8 J@FC C6DA@?D6 8C24:@FD 2?5 7@4FD:?8 @? J@FC 2AAC64:2E:@? 7@C E96 :?G:E6]w6C6 2C6 2 76H 6I2>A=6D @7 9@HE@ C6DA@?5ik^Am

kAmkDEC@?8mq6 9@?6DE 3FE 3C:67ik^DEC@?8m “%92?< J@FD@ >F49 7@C E96 :?G:E2E:@?P x FDF2==J <66A >J 6G6?:?8D AC6EEJ =@H\<6J[ 3FE x 9@A6 J@F 92G6 2 H@?56C7F= E:>6 46=63C2E:?8]”k^Soy

kAmkDEC@?8mtIAC6DD 8C2E:EF56 2?5 DF886DE 2? 2=E6C?2E:G6ik^DEC@?8m “x C62==J 2AAC64:2E6 E96 :?G:E6P }6H *62CVD tG6 A2CE:6D 2C6?’E BF:E6 >J DEJ=6[ 3FE x’5 =@G6 E@ 42E49 FA 2?@E96C E:>6 D@@?]”k^Soy

kAmkDEC@?8m&D6 2 A6CD@?2= EC25:E:@? 2D 2 C62D@?ik^DEC@?8m “%92?< J@F 7@C :?G:E:?8 >6P x 92G6 2 BF:6E }6H *62CVD EC25:E:@? E92E x DE:4< E@ 6G6CJ J62C[ 3FE x 9@A6 J@F 92G6 2 72?E2DE:4 E:>6]”k^Soy

kAmkDEC@?8mq=2>6 62C=J >@C?:?8D W:7 ECF6Xik^DEC@?8m “%92?F49 7@C E9:?<:?8 @7 >6P x92G62? 62C=J DE2CE E96 ?6IE 52J[ D@ x’== 92G6 E@ A2DD E9:D E:>6[ 3FE x C62==J 2AAC64:2E6 E96 :?G:E2E:@?]”k^Soy

kAm%96 <6J :DE@ 6IAC6DD J@FC 8C2E:EF56 2?5 564=:?6 :? 2 H2J E92E 5@6D?'E 4C:E:4:K6 E96 6G6?E @C :>A=J 5:D:?E6C6DE 😕 DA6?5:?8 E:>6 H:E9 E96 9@DE]%9:D 2AAC@249 <66AD E96 E@?6 A@D:E:G6 H9:=6 C6DA64E:?8 J@FC 3@F?52C:6D]k^Soy

kAmkDEC@?8m”]xD :E ~z E@ 4FE >J 5CF?< F?4=6 q@3 @FE @7 >J =:76 7@C >2<:?8 D?2C>6?ED 23@FE >J H6:89E 2E E96 r9C:DE>2D 5:??6C E23=6nk^DEC@?8mk^Soy

kAmkDEC@?8mp]k^DEC@?8m s64:5:?8 E@ 4FE D@>6@?6 @FE @7 J@FC =:76 😀 2 566A=J A6CD@?2= 49@ :46[ 2?5 :E 56A6?5D @? E96 4@?E6IE 2?5 J@FC 3@F?52C:6D] x7 &?4=6 q@3’D 3692G:@C H2D A2CE:4F=2C=J 9FCE7F= 2?5 C6A62E65 56DA:E6 AC6G:@FD 2EE6>AED E@ 255C6DD :E[ D6EE:?8 7:C> 3@F?52C:6D — 6G6? :7 E92E >62?D =:>:E:?8 @C 4FEE:?8 4@?E24E — 😀 23D@=FE6=J J@FC C:89E]k^soy

kAmx7 &?4=6 q@3 4@?D:DE6?E=J 5:DC6DA64ED J@FC 3@F?52C:6D @C C67FD6D E@ 492?86[ 4FEE:?8 E:6D >:89E 36 E96 962=E9:6DE @AE:@? 7@C J@FC H6==\36:?8] *@F 5@?’E @H6 2?J@?6 2446DD E@ J@FC =:76 :7 E96J 5@?’E EC62E J@FH:E9 C6DA64E[ 6G6? :7 E96J’C6 72>:=J]k^soy

kAm&=E:>2E6=J[ AC:@C:E:K6 J@FC 6>@E:@?2= 962=E9] xE’D @<2J E@ DFCC@F?5 J@FCD6=7 H:E9 A6@A=6 H9@ FA=:7E J@F 2?5 5:DE2?46 J@FCD6=7 7C@ > E9@D6 H9@ 5@?’E]k^Am

kAmkDEC@?8m”]|JF?8C2E67F= 3C2ED 2C6 4@>A=2:?:?8 23@FE ?@E 86EE:?8 E96 8:7ED E96J 2D<65 $2?E2 7@C]xD :E ~z E@ E6== E96> E96C6 😀 ?@ $2?E2 r=2FDnk^DEC@?8mk^Am

kAmkDEC@?8mp]k^DEC@?8m s64:5:?8 H96? E@E6== J@FC 49:=5C6? E96 ECFE9 23@FE $2?E2 r=2FD 😀 2 A6CD@?2= 564:D:@?[ 3FE FD:?8 E96:C 5:D2AA@:?E>6?E 2D E96 >@>6?E E@ C6G62= :E >:89E ?@E 36 E96 >@DE 4@?DECF4E:G6 2AAC@249] x?DE625[ E9:D 42? 36 2? @AA@CEF?:EJ E@ E6249 8C2E:EF56 2?5 A6CDA64E:G6 H:E9@FE 4@>A=6E6=J 5:DA6==:?8 E96 >28:4 @7 $2?E2 — :7 J@F’C6 ?@E C625J E@ 5@ D@]k^soy

kAmx7 J@F 766= :E’D E96 C:89E E:>6 E@ 6IA=2:? $2?E2[ 5@ D@ 😕 2 H2J E92E AC6D6CG6D E96 DA:C:E @7 E96 DE@CJi “$2?E2 😀 2 H@?56C7F= EC25:E:@? E92E 96=AD FD C6>6>36C E96 :>A@CE2?46 @7 8:G:?8 2?5 <:?5?6DD 5FC:?8 E96 9@=:52JD] !2C6?ED 96=A <66A E92E >28:4 2=:G6 7@C E96:C 49:=5C6?]”k^Am

kAmqJ 7@4FD:?8@? 8C2E:EF56 2?5 E96 DA:C:E @7 8:G:?8[ J@F 42? 255C6DD E96:C 4@>A=2:?ED 😕 2 H2J E92E E62496D 2 G2=F23=6 =6DD@? H9:=6 >2:?E2:?:?8 2 A@D:E:G6 9@=:52J 2E>@DA96C6]k^soy

Continue Reading

Trending