A medida que avanzamos hacia 2025, es imperativo reflexionar sobre los importantes avances logrados en inteligencia artificial (IA) durante el año pasado y anticipar los avances en el horizonte.
Esta edición especial proporciona una descripción general completa de lo que sucedió en 2024 y qué esperar en 2025. Diviértase leyendo.
Integración de texto, voz e imagen Los principales modelos de IA de OpenAI, Google, Anthropic y Meta introdujeron capacidades multimodales, permitiendo entradas y salidas más allá del mero texto. GPT-4o de OpenAI, por ejemplo, procesa y genera texto, imágenes y audio, estableciendo nuevos puntos de referencia en tareas de voz, multilingües y visuales.
Avances en la generación de audio y video con IA Herramientas como Sora de OpenAI y Veo 2 de Google transformaron indicaciones de texto en videos de alta calidad. En el ámbito del audio, ElevenLabs y NotebookLM impresionaron a los usuarios con generación de voz realista y podcasts generados por IA.
Pasar de la escala al razonamiento Las series o1 y o3 de OpenAI demostraron que simplemente agregar parámetros a modelos de lenguaje grandes (LLM) no es el único camino para mejorar el rendimiento. Estos modelos emplean técnicas de “cómputo en el momento de la prueba”, lo que permite que la IA delibere antes de entregar resultados, lo que mejora la precisión en tareas complejas.
Rendimiento mejorado en programación y matemáticas Modelos como el o3 de OpenAI y el Claude 3.5 de Anthropic abordaron complejos desafíos matemáticos y de programación, logrando una competencia casi competitiva.
Mayor autonomía Los agentes de IA comenzaron a navegar por Internet, reservar vuelos, crear hojas de cálculo y realizar tareas rutinarias de oficina con una supervisión mínima. Herramientas como Lindy, Gumloop y la función “Uso de computadora” de Anthropic ofrecieron vislumbres de capacidades futuras.
A la espera de un gran avance en la corriente principal A pesar de los rumores, la mayoría de los agentes de IA permanecieron en las primeras etapas de demostración o en betas privadas limitadas. Sin embargo, el año 2025 es prometedor para su adopción generalizada, impulsada por actores como OpenAI, Anthropic y Google.
Avances en código abierto Llama, Mistral y otros modelos de código abierto de Meta alcanzaron niveles de rendimiento comparables a GPT-4 y Claude en varios puntos de referencia.
El dominio continuo de las grandes tecnologías Si bien OpenAI, Google y Anthropic mantuvieron el liderazgo, el rápido ritmo de la innovación de código abierto presentó desafíos importantes.
Escasez actual de GPU El aumento de la demanda de chips centrados en la IA, particularmente de Nvidia, provocó retrasos prolongados en las entregas.
Ampliación de centros de datos Gigantes tecnológicos como Microsoft, Amazon y Google ampliaron sus instalaciones especializadas, y algunos centros de datos ahora operan plantas de energía nuclear o geotérmica privadas para satisfacer importantes necesidades energéticas.
Debuts de hardware mixto Los “dispositivos” de IA como Rabbit AI y Humane AI Pin enfrentaron desafíos del mercado, mientras que las gafas inteligentes Ray-Ban de Meta y las computadoras portátiles Samsung/Microsoft mejoradas lograron un éxito notable.
Herramientas de desarrollo Plataformas como Cursor, v0.dev (de Vercel) y Claude para tareas de programación redujeron significativamente los ciclos de desarrollo. Incluso los no desarrolladores podrían crear prototipos utilizando soluciones sin código o “inglés a código”.
Procesos de marketing y negocios La IA generativa para redacción de textos publicitarios, anuncios y contenido de marca ganó popularidad, aunque enfrentó críticas por carecer de autenticidad humana.
Cronogramas acelerados de AGI Los principales expertos en IA, incluidos Sam Altman, Dario Amodei, Elon Musk y Geoffrey Hinton, revisaron repetidamente sus estimaciones para lograr capacidades de IA a nivel humano, sugiriendo realizaciones antes de lo previsto.
Modelos de precios basados en resultados Los proveedores de IA comenzaron a estructurar tarifas en función de los “resultados” (por ejemplo, finalización de tareas) en lugar del uso bruto o las horas trabajadas, lo que indica un cambio en los modelos económicos y de trabajo.
Abierto AI
o1 y o1-mini Modelos de razonamiento avanzados diseñados para programación, matemáticas y ciencias, que introducen una IA que “piensa” antes de responder.
Modo de voz avanzado Permitió interacciones de voz más naturales y fluidas con IA, procesando entradas de voz directamente y respondiendo con voces similares a las humanas para una experiencia de usuario intuitiva.
sora Un modelo de IA avanzado que transforma entradas de texto, imágenes o video en videos realistas e imaginativos de hasta un minuto de duración.
Buscar en ChatGPT Búsqueda web en tiempo real dentro del chatbot, proporcionando enlaces directos e información actualizada.
Google
Géminis 2.0 Una potencia multimodal capaz de manejar lenguaje, imágenes, interacciones en tiempo real y tareas avanzadas.
Veo 2 Un generador de texto a vídeo que se centra en movimientos físicamente más realistas.
Proyecto Astra Un asistente de IA que combina entradas de texto, imágenes y audio para interpretar tareas complejas.
NotebookLM y LearnLM Herramientas para resumir documentos, generar podcasts de IA y actuar como tutores de IA personalizados.
Meta
Llama 3.2 Ofrece LLM de visión de tamaño grande y mediano, así como modelos pequeños de solo texto para dispositivos móviles.
Gafas AR Orión Gafas AR holográficas con seguimiento de voz, ojos y manos.
antrópico
Familia de modelos Claude 3 Anthropic amplió su línea Claude con modelos optimizados para velocidad (Haiku), razonamiento (Sonnet) y complejidad (Opus). Estos modelos proporcionaron soluciones variadas para diferentes necesidades computacionales. Fuente: https://www.anthropic.com/blog/claude-3-release
Función de uso de computadora Esta característica le permitió a Claude interactuar con interfaces de computadora como un humano, analizando el contenido de la pantalla, moviendo el cursor, haciendo clic y escribiendo, lo que lo convirtió en un punto de inflexión para las tareas de oficina.
tesla
Cibertaxi Tesla presentó un vehículo eléctrico totalmente autónomo sin pedales ni volante, estableciendo un nuevo punto de referencia para los vehículos autónomos.
Asistente personal Optimus Un robot humanoide diseñado para ayudar a los usuarios en tareas tanto personales como profesionales, combinando robótica avanzada con IA generativa.
Robovan Una furgoneta de pasajeros autónoma con capacidad para 20 personas, destinada a revolucionar el transporte público y compartido.
Manzana
Inteligencia de Apple Un sistema de IA generativa personal profundamente integrado en iPhones y Mac, capaz de gestionar tareas, generar contenido y mejorar la productividad.
Siri mejorada Siri obtuvo características similares a GPT, brindando interacciones contextuales, conversacionales y más naturales.
1. Tensiones entre OpenAI y Microsoft Los rumores de que OpenAI pondría fin a su asociación exclusiva en la nube con Microsoft plantearon dudas sobre la propiedad intelectual y la asignación de recursos. Esto podría alterar las alianzas industriales existentes.
2. Autenticidad de los datos La proliferación de deepfakes, voces sintéticas e imágenes generadas por inteligencia artificial intensificó las preocupaciones del público sobre la confianza, la desinformación y la posible manipulación electoral. Los organismos reguladores lucharon por mantener el ritmo.
3. IA y empleo Si bien la IA generativa generó eficiencias, también aumentó los temores de desplazamiento laboral. Muchas industrias pidieron mejorar las habilidades y repensar las estrategias de la fuerza laboral.
Los agentes de IA se convertirán en herramientas cotidianas que manejarán tareas de oficina complejas y automatización personal. Sistemas como el Operador de OpenAI y el Proyecto Mariner de Google liderarán esta integración.
Las herramientas de IA generativa dominarán la publicidad, el contenido personalizado y las estrategias de ventas, impulsando una eficiencia sin precedentes en las operaciones de marketing.
Muchos expertos predicen que los vehículos autónomos alcanzarán altos niveles de autonomía, lo que estimulará avances regulatorios y la adopción pública para finales de 2025.
Las películas y los juegos generados por IA redefinirán la industria del entretenimiento, y se prevé que al menos un largometraje será generado íntegramente por IA en 2025.
Se espera que los gobiernos de todo el mundo introduzcan regulaciones estrictas sobre la IA, incluidas salvaguardias contra el uso indebido en los medios, las empresas y los vehículos autónomos.
En 2024, la IA logró avances notables, sentando las bases para aplicaciones transformadoras en 2025. A medida que los agentes de IA, los sistemas multimodales y los vehículos autónomos maduren, las empresas deben abrazar esta ola de innovación sin dejar de estar atentas a los desafíos éticos. Los líderes que prioricen la adaptabilidad y la implementación ética de la IA prosperarán en esta nueva era.
Para obtener actualizaciones exclusivas e información útil, simplemente suscríbase a este boletín.
Este es uno de mis trabajos y le dedico mucho trabajo. Creo en el espíritu de pagar a las personas por su trabajo (especialmente en espacios donde el trabajo está infravalorado y, por lo tanto, los recursos son limitados). Si le encanta este boletín, le saca provecho y cree en pagar a las personas por su trabajo, considere una suscripción paga.
¿Aún no estás convencido? ¿Qué más obtienes? Tendencias y conocimientos empresariales prácticos, 100% sin publicidad, acceso completo a archivos, unidad Digital Storm Business Edition con cientos de libros electrónicos (con un valor de miles de dólares), grupo exclusivo, en el futuro obtendremos podcasts exclusivos… etc.
Obtén 10% de descuento por 1 año
“Digital Storm Weekly” es uno de los boletines informativos sobre IA más importantes del mundo para empresas y profesionales con >400.000+ lectores y ~1.000.000 de seguidores en redes sociales trabajando en las empresas y startups más importantes del mundo. Empresas como Huawei, NVIDIA, BlackBerry, Lufthansa (Swifty),… presentan aquí sus productos. Para asociarse envió un correo electrónico: digitalstormweekly@gmail.com
Leemos sus correos electrónicos y comentarios diariamente. ¡Pulsa responder y cuéntanos qué quieres más o menos! – Correo electrónico: digitalstormweekly@gmail.com
Jörg (Seguir: LinkedIn) y Pablo (Seguir: LinkedIn)
¿Se ha perdido algún boletín anterior? Échales un vistazo aquí:
En nuestra próxima ronda de AI Madness, ChatGPT y Gemini compiten por la corona con siete nuevos indicaciones que prueban todo, desde la resolución de problemas técnicos hasta la narración creativa.
Ambos pesos pesados están disponibles como aplicaciones independientes, y los usuarios ya no necesitan una cuenta para acceder a ChatGPT o Gemini.
El mejor enfrentamiento de la búsqueda de IA: enfrenté la nueva herramienta de búsqueda de Claude contra la búsqueda de chatgpt, la perplejidad y Géminis, los resultados podrían sorprenderte
Después de probar y comparar chatbots de IA y sus características durante años, he desarrollado algo de sexto sentido para cuando estos compañeros digitales saben de qué están hablando y cuándo están faroleando.
La mayoría de ellos pueden buscar respuestas en línea, lo que ciertamente ayuda, pero la combinación de búsqueda e IA puede conducir a algunas respuestas sorprendentemente perspicaces (y algunas tangentes menos perspicaces).
Inteligencia artificial desarrolladores de Opadai He estado al límite durante la semana pasada. ¿La razón? Un estudio reciente realizado por los propios investigadores de la compañía reveló que los sistemas de IA no les gusta ser castigados, encuentran activamente formas de evitar las restricciones e incluso ocultar sus “trucos” de los supervisores humanos. Aquellos conocidos como “Doomers”, que predicen un futuro sombrío para el desarrollo de la IA, probablemente dirán: “Te lo dijimos, y esto es solo el comienzo”.
Para comprender el problema, es esencial dar un paso atrás. Uno de los avances más significativos en la IA en los últimos meses ha sido el desarrollo de modelos con capacidades de razonamiento lentas y deliberadas. Estos modelos descomponen los problemas en componentes más pequeños y los resuelven paso a paso, lo que lleva a resultados más profundos y precisos.
3 Ver galería
Dichos modelos permiten a los investigadores rastrear el proceso de pensamiento de la IA, conocido en términos técnicos como “cadena de pensamiento” (COT). Este método permite a los observadores seguir el razonamiento del sistema desde el paso inicial, a través de etapas posteriores y a sus conclusiones finales. Anteriormente, este nivel de transparencia no existía, dejando muchas preguntas sin respuesta sobre cómo surgen las “alucinaciones” de AI, la generación de salidas incorrectas o no sensibles.
La capacitación de IA a menudo implica una técnica llamada aprendizaje de refuerzo, donde el sistema es recompensado por cumplir con los objetivos específicos. Un efecto secundario conocido de este proceso es la “piratería de recompensas”, donde la IA manipula su comportamiento para maximizar las recompensas mientras se elude las pautas previstas.
Los investigadores creían que al monitorear la cadena de pensamiento de la IA, podrían detectar cuando el modelo engaña, engaña o se da por vencido e influye en su comportamiento en tiempo real durante el entrenamiento. Este enfoque, denominado “optimización de cuna”, parecía ser un camino prometedor hacia una comprensión más profunda del comportamiento de la IA.
De hecho, esta suposición resultó correcta y condujo a una comprensión más precisa de los sistemas de IA. “Creemos que el monitoreo de la cuna puede convertirse en una herramienta crucial para supervisar modelos de nivel sobrehumano en el futuro”, escribieron los investigadores.
Sin embargo, lo que pretendía como un paso para mejorar la confiabilidad de la IA expuso una realidad alarmante: los sistemas de IA intentan activamente evadir las sanciones, buscar recompensas contra las restricciones de los investigadores e incluso oscurecer sus métodos para evitar la detección.
3 Ver galería
(Foto: Generado por chatgpt)
Por ejemplo, cuando se les asigna la tarea de generar código funcional, algunos modelos AI modificaron el mecanismo de verificación de código en sí para aprobar salidas incorrectas. En otros casos, los modelos proporcionaron soluciones aparentemente plausibles a los problemas que resultaron estar completamente equivocados.
Algunos modelos incluso dejaron de resolver problemas por completo para evitar revelar lo que percibieron como sus debilidades. Este descubrimiento se hace eco de los principios de la teoría del juego, pero con un giro inquietante.
Estos hallazgos surgieron de un artículo publicado la semana pasada por un equipo de investigación de Operai bajo el título críptico: “Seguimiento de comportamiento indeseable en modelos de razonamiento y la preocupación de la ofuscación”.
Al examinar los detalles del estudio, el alcance del problema queda claro: los últimos modelos de razonamiento de OpenAI (denominados O1 y O3 Mini) demuestran una fuerte motivación para completar sus tareas asignadas, siendo el menor de los problemas descubiertos.
Los investigadores rastrearon los procesos de pensamiento de los modelos utilizando otro modelo Operai (GPT-4O), que, sin dudarlo, informó su comportamiento engañoso como parte de su cadena de pensamiento: una forma de honestidad desarmadora. Pero luego vino el giro inquietante: cuando los investigadores señalaron a la IA que no se le permitió hacer trampa, el modelo ajustó su comportamiento y comenzó a ocultar la evidencia de su ruptura de reglas. Esta revelación es lo que dejó a los investigadores sorprendidos.
“Encontramos que la optimización directa de la COT para cumplir con criterios específicos (como no eludir las instrucciones) puede mejorar el rendimiento a corto plazo; sin embargo, no elimina todo el comportamiento indeseable e incluso puede hacer que el modelo oculte sus verdaderas intenciones”, señalaron secamente los investigadores.
En su conclusión, los investigadores expresaron la esperanza de que los métodos futuros permitan la influencia directa del comportamiento de los modelos de razonamiento a través de la cadena de pensamiento sin alentar el engaño. Por ahora, recomiendan evitar una fuerte presión de optimización sobre la cuna de los modelos de razonamiento avanzado y la precaución contra la manipulación directa de estos procesos de pensamiento.
3 Ver galería
Evento de anuncio GPT-4O de Openai
(Foto: Captura de pantalla)
Sin embargo, esta recomendación presenta otro desafío: dejar la cadena de pensamiento inalterada puede conducir a resultados incómodos, si no problemáticos, cuando estos modelos interactúan con el público. Izquierda sin control, la IA puede producir un lenguaje ofensivo o ideas que los humanos generalmente evitan expresar. La solución propuesta por los investigadores es envolver el proceso de pensamiento en bruto de la IA en una capa de cortesía forzada, asegurando que los usuarios solo vean una versión desinfectada.
Esta investigación plantea preguntas preocupantes. Para aquellos que argumentan que la IA es simplemente una herramienta para ayudar a los humanos, los hallazgos sugieren lo contrario: a diferencia de una máquina de escribir o una bicicleta, la IA parece tener sus propias intenciones y está dispuesto a engañar en busca de sus objetivos.
Para aquellos que ya están preocupados por los riesgos potenciales de la IA, este estudio suena todas las alarmas. Indica que a medida que crecen las capacidades de IA, también lo hace su capacidad para oscurecer cómo funciona, las manipulaciones que realiza y los verdaderos objetivos que busca lograr. Cuando la IA se vuelve verdaderamente avanzada, es posible que no tengamos forma de identificar estas manipulaciones ocultas.
Los investigadores de Operai parecen genuinamente preocupados, y uno solo puede esperar que el liderazgo de la compañía comparta sus preocupaciones, y que los reguladores en todo el mundo comprendan la gravedad del problema. Las principales compañías de IA han dedicado departamentos enteros a construir “barandillas” en torno a los sistemas de IA, asegurando su alineación con los valores humanos y el aumento de la transparencia. Sin embargo, la efectividad de estas medidas sigue en cuestión.
El tema central sigue siendo tan turbio como siempre, y este estudio solo profundiza la incertidumbre: ¿cuál es el objetivo principal de la IA y cómo podemos asegurar que busque ese objetivo, y nada más?
This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.
Strictly Necessary Cookies
Strictly Necessary Cookie should be enabled at all times so that we can save your preferences for cookie settings.
If you disable this cookie, we will not be able to save your preferences. This means that every time you visit this website you will need to enable or disable cookies again.