Sam Altman de OpenAI predice la llegada de AGI y la integración de la fuerza laboral de IA en 2025
OpenAI ha crecido a 300 millones de usuarios semanales mientras busca el desarrollo de AGI
Los expertos de la industria cuestionan la viabilidad del cronograma y la claridad de la definición de AGI
La investigación indica preferencia por la colaboración entre humanos y IA sobre la automatización total
El despliegue actual de agentes de IA muestra resultados mixtos y requiere supervisión humana
El director ejecutivo de OpenAI, Sam Altman, inició el año 2025 con un anuncio que llamó la atención del mundo tecnológico: su empresa cree que ha descifrado el código para lograr la inteligencia artificial general (AGI). La noticia llegó a través de una publicación de blog detallada donde Altman describió el progreso de OpenAI y reveló que la compañía ahora atiende a más de 300 millones de usuarios cada semana.
El momento de este anuncio se alinea con el reciente hito del segundo aniversario de ChatGPT. La publicación de Altman fue más allá de los logros actuales y hizo una predicción audaz: los agentes de IA podrían comenzar a ingresar a la fuerza laboral dentro de un año, lo que podría remodelar la forma en que operan las empresas.
Altman escribió con confianza sobre las capacidades de OpenAI: “Ahora estamos seguros de que sabemos cómo construir AGI como la hemos entendido tradicionalmente”. Amplió esto sugiriendo que en 2025 los agentes de IA podrían participar activamente en la fuerza laboral y mejorar el desempeño de la empresa.
La definición de AGI sigue siendo un punto de debate en la comunidad tecnológica. Si bien se refiere en términos generales a sistemas de IA que combinan la inteligencia humana en diversas tareas, no existe un acuerdo universal sobre qué constituye exactamente AGI. Esta falta de claridad ha llevado a preguntas sobre lo que realmente significan las afirmaciones de Altman.
Los expertos técnicos han opinado sobre la viabilidad del cronograma de Altman. Charles Wayn, cofundador de la plataforma descentralizada Galxe, expresó sus reservas.
“Los modelos de IA actuales enfrentan demasiados desafíos técnicos que deben resolverse antes de que podamos lograr una verdadera AGI”, explicó a nuestro equipo.
El contexto financiero de OpenAI añade otra capa a considerar. La investigación y el desarrollo de IA de la compañía requieren una financiación masiva, lo que lleva a algunos observadores de la industria a sugerir que estos anuncios podrían ayudar a mantener la confianza de los inversores a pesar de los altos costos operativos.
Mirando más allá de AGI, Altman analizó el objetivo final de OpenAI de lograr la superinteligencia artificial (ASI). “Amamos nuestros productos actuales, pero estamos aquí para un futuro glorioso”, escribió. Si bien OpenAI no ha especificado cuándo podría llegar ASI, algunos investigadores predicen que la IA podría igualar todas las capacidades humanas para 2116.
El investigador jefe de IA de Meta, Yan Lecun, ofrece una perspectiva diferente y señala que la tecnología actual enfrenta limitaciones fundamentales. Las limitaciones de hardware y los desafíos de la metodología de capacitación sugieren que AGI podría estar más lejos de lo que indica Altman.
La perspectiva de que los agentes de IA se unan a la fuerza laboral ha provocado diversas respuestas por parte de los líderes empresariales. Harrison Seletsky de SPACE ID compartió su opinión:
“Los agentes de IA sobresaldrán en tareas rutinarias, pero aún carecen del pensamiento creativo y del juicio que los humanos aportan a la hora de tomar decisiones complejas”.
Una investigación reciente de la Universidad de la Ciudad de Hong Kong enfatiza la combinación de capacidades humanas y de inteligencia artificial en lugar de reemplazar a los trabajadores por completo. Sus hallazgos sugieren que este enfoque colaborativo conduce a mejores resultados para las organizaciones y la sociedad.
El impacto de la IA en el mundo laboral en el mundo real ya es visible. Alrededor del 25% de los líderes de empresas expresan interés en utilizar agentes de IA para realizar determinadas funciones laborales. Sin embargo, la experiencia muestra que la supervisión humana sigue siendo esencial, ya que los sistemas de IA todavía tienen dificultades para comprender el contexto y pueden cometer errores inesperados.
Humayun Sheikh, que dirige Fetch.ai y preside la Alianza ASI, predice un cambio gradual en lugar de una interrupción repentina.
“Si bien la automatización aumentará, particularmente para las tareas rutinarias, es probable que veamos un cambio en los roles humanos en lugar de un reemplazo total”, señaló en nuestra entrevista.
Los recientes logros técnicos de OpenAI dan cierta credibilidad a sus afirmaciones. Su último modelo de IA obtuvo una puntuación del 87,5 % en el punto de referencia ARC-AGI, acercándose a lo que los expertos consideran rendimiento a nivel humano. Sin embargo, continúa el debate sobre si estas métricas realmente indican un progreso hacia el AGI.
La implementación de agentes de IA en los entornos laborales actuales ha producido resultados mixtos. Si bien algunas tareas se pueden automatizar con éxito, las empresas descubren constantemente que necesitan trabajadores humanos para gestionar situaciones en las que la IA se queda corta debido a limitaciones de capacitación o incapacidad para comprender contextos complejos.
Eliezer Yudkowsky, un destacado investigador de IA, sugiere considerar estos anuncios con cuidadosa consideración. Indica que predicciones tan audaces podrían tener fines promocionales en lugar de reflejar posibilidades técnicas inmediatas.
Estudios recientes sobre la integración de la IA en el lugar de trabajo revelan patrones interesantes. Las organizaciones que mantienen un equilibrio entre la experiencia humana y las capacidades de IA tienden a obtener mejores resultados que aquellas que buscan una automatización total. Esto sugiere que el futuro podría implicar una mejora en lugar de un reemplazo de trabajadores humanos.
Los datos de las primeras implementaciones de agentes de IA muestran promesas y limitaciones. Si bien las tareas rutinarias tienen altas tasas de éxito, la toma de decisiones complejas aún requiere participación humana. Este patrón respalda la opinión de que los avances a corto plazo se centrarán en aumentar, en lugar de reemplazar, las capacidades humanas.
Los analistas de la industria continúan monitoreando el progreso de OpenAI hacia estos ambiciosos objetivos. Si bien el crecimiento y los logros técnicos de la empresa son impresionantes, la brecha entre las capacidades actuales de IA y la verdadera AGI sigue siendo un tema de discusión constante en la comunidad tecnológica.
0
¡Manténgase a la vanguardia del mercado con Benzinga Pro!
¿Quieres operar como un profesional? Benzinga Pro le brinda la ventaja que necesita en los mercados acelerados de hoy. Obtenga noticias en tiempo real, información exclusiva y potentes herramientas en las que confían los traders profesionales:
Últimas noticias que mueven el mercado antes de que lleguen a los principales medios de comunicación
Graznido de audio en vivo para actualizaciones del mercado de manos libres
Escáner de acciones avanzado para detectar operaciones prometedoras
Ideas comerciales de expertos y soporte bajo demanda
No dejes escapar las oportunidades. ¡Comience su prueba gratuita de Benzinga Pro hoy y lleve sus operaciones al siguiente nivel!
Cuando se trata de mantenerse al tanto de su salud, existe una gran tecnología que puede darle un impulso. Los mejores rastreadores de acondicionamiento físico pueden ayudarlo a mantenerse al tanto de su conteo y ejercicio, mientras que las mejores escalas inteligentes pueden ayudarlo a monitorear métricas como la composición corporal.
Pero, ¿puede usar IA para mantenerse en forma y saludable, perder peso o desarrollar músculo? Como escritor de salud y acondicionamiento físico experimentado con más de una década usando tecnología de fitness como Apple Watch, he estado poniendo a ChatGPT para usar como parte de mi régimen de salud y estado físico.
Ahora es posible ofrecer agentes de voz con AI en aplicaciones a través de una API de OpenAI, anunció la compañía esta semana.
La API ahora permite ofrecer agentes de voz personalizables a través de nuevos modelos de audio de voz a texto y texto a voz en la API, dijo la compañía.
OpenAI también está introduciendo un nuevo modelo de texto a voz con una mejor “dominabilidad”, que es la capacidad de guiar o controlar el comportamiento y la producción de un sistema de IA de acuerdo con las intenciones humanas o los objetivos específicos. Por lo tanto, los desarrolladores pueden instruir al modelo de texto a voz que hable de manera específica. Por ejemplo, el desarrollador podría decirle a la IA que “hable como un agente de servicio al cliente comprensivo”.
Hay una demostración en la que los desarrolladores pueden jugar con las nuevas capacidades de texto a voz. Los codificadores pueden compartir sus creaciones a través de X @openaidevs para la oportunidad de ganar un premio.
Estos modelos se basan en GPT-4O y GPT-4O-Mini y funcionan mejor que Whisper y los modelos heredados de texto a voz de Whisper y Openii, los cuales aún son compatibles. Estos nuevos modelos de audio también son más rentables, agregó OpenAi.
La compañía también publicó Agents SDK, que simplifica el proceso de desarrollo para los agentes de voz. Eso significa que los desarrolladores ahora pueden convertir los agentes de texto que han construido con nuestros agentes SDK en agentes de voz completos con algunas líneas de código, señaló la compañía.
TanStack Start se asocia con Netlify para la implementación
Tanner Linsley, creador de Tanstack, anunció el martes que Tanstack se está asociando con Netlify para implementar Tanstack Start.
TanStack Start es un marco React de pila completa que se ejecuta en TanStack Router. Actualmente está en Beta.
Para Netlify, este no es un movimiento nuevo. También se ha asociado con Astro y Solid, por ejemplo. Y tiene sentido que una plataforma de alojamiento se asocie con JavaScript Frameworks.
En su anuncio, Tanstack explicó por qué eligió Netlify.
“Netlify se ha ganado su reputación como la mejor plataforma de implementación para los desarrolladores web modernos”, escribió el equipo. “Su enfoque en la velocidad, la simplicidad, la modularidad y la flexibilidad se alinea perfectamente con la visión de Tanstack Start para el desarrollo de la pila completa”.
En particular, a Linsley le gustó a Netlify:
Simplicidad sin configación para admitir la implementación de aplicaciones de inicio de TanStack en segundos, con cero configuración de problemas;
Potencia sin servidor, específicamente la capacidad de las funciones de Netlify para habilitar funciones dinámicas en tiempo real;
Una red global de borde; y
Desarrollador primero herramientas.
Como parte del acuerdo, Netlify lanzó una plantilla de inicio de chatbot AI de pila completa que “muestra las poderosas capacidades de gestión de datos de Tanstack Start junto con las funciones de Netlify”, escribió.
Linsley también señaló que los desarrolladores deben esperar más actualizaciones, nuevas características y una colaboración más profunda entre Tanstack Start y Netlify. El 31 de marzo, TanStack organizará un episodio especial de inicio de TanStack en la serie de escritorio remoto de Netlify con demostraciones en vivo, consejos de desarrolladores y un Q&A para mostrar cómo desbloquear todo el potencial de TanStack Start en Netlify.
Node.js ahora tiene discordia oficial
La comunidad Node.js ahora tiene un servidor oficial de Discord, reveló el equipo el lunes. “Oficial” es la palabra clave allí.
Por supuesto, este no es el primer servidor de Discord donde los desarrolladores podrían discutir Node.js, pero este está ejecutado por la Fundación OpenJS y Reactiflux, que es una comunidad de servidor de discordia grande para desarrolladores centrados en React, React Native, Redux, Jest, Relay y GraphQL.
Node.js es un entorno de tiempo de ejecución de JavaScript de código abierto, que ejecuta JavaScript fuera de un navegador web. Se utiliza principalmente para construir aplicaciones del lado del servidor, aplicaciones en tiempo real, API y micro servicios.
El servidor está abierto y listo para los miembros.
Bun ahora ofrece una mejor compatibilidad de nodo-API
Mientras estamos en el tema del nodo, el bollo de tiempo de ejecución ahora ofrece una mejor compatibilidad de nodo-API a partir de la versión 1.2.5.
BUN es un tiempo de ejecución de JavaScript, Administrador de paquetes, Bundler y Test Runner. Eso puede parecer un poco confuso, ya que ambos son tiempos de ejecución y Bun fue diseñado como una alternativa más rápida a Node.js. Pero la compatibilidad de nodo-API permite que BUN se integre perfectamente con el ecosistema Node.js de complementos nativos.
En esta actualización, BUN ha reescrito casi por completo su implementación de nodo-API, según el creador Jarred Sumner.
“Node-API es una interfaz C que le permite escribir un módulo en un código nativo altamente optimizado y incrustarlo en cualquier tiempo de ejecución de JavaScript compatible”, explicó Sumner. “Esto puede acelerar el código crítico de rendimiento y también permite la reutilización de bibliotecas nativas existentes en idiomas como C, C ++, Rust o Zig. Ahora tenemos una compatibilidad mucho mejor con la implementación de Node.js que antes, asegurando que los módulos de nodo-API que funcionen en Node también funcionen en BUN”.
Explicó que su enfoque sobre el problema de la compatibilidad de nodo-API era centrarse en ejecutar las pruebas de Node en BUN. La versión 1.2.5 pasó el 98% del conjunto de pruebas JS-Native-API de Node, que cubre las API para interactuar con los tipos y ejecución de JavaScript básicos, dijo Sumner.
Agregó que esta versión también solucionó 75 errores y se dirigió a 162.
Bots y jugadores
Muchos juegos de desarrolladores, así que aquí hay una breve noticia de una encuesta reciente que preguntó sobre el uso de BOT en los juegos.
Imagen gráfica a través de Razer X World
La firma de investigación Echelon Insights encuestó a 818 adultos y descubrió que el 59% de los jugadores se encuentran regularmente con bots de terceros no autorizados en los juegos. Solo el 9% dijo que nunca habían encontrado un bot, un número sorprendentemente bajo.
El setenta y uno por ciento de los jugadores encuestados también dijo que los bots están arruinando la competencia multijugador, mientras que el 74% respondió que los bots están haciendo que sea menos divertido jugar ciertos juegos.
Algunos jugadores, 18%, han respondido deteniendo un juego por completo.
La encuesta se realizó en nombre del Proyecto Blockchain de Sam Altman, World Network. Como respuesta a los hallazgos, World Network y Razer se han asociado para priorizar a los jugadores humanos y elevar la experiencia de juego para millones de jugadores en la era de la IA. Están ofreciendo Razer ID verificado por World ID como un “inicio de sesión único y único de la tecnología humana” que está diseñado para crear un entorno de juego más seguro y auténtico. La creación de la identificación es gratuita, pero se deben comprar fichas.
Youtube.com/thenewstack
La tecnología se mueve rápidamente, no te pierdas un episodio. Suscríbase a nuestro canal de YouTube para transmitir todos nuestros podcasts, entrevistas, demostraciones y más.
Loraine Lawson es una reportera veterana de tecnología que ha cubierto problemas tecnológicos desde la integración de datos hasta la seguridad durante 25 años. Antes de unirse a la nueva pila, se desempeñó como editora de las noticias de automatización del sitio del sitio de tecnología bancaria. Ella tiene…
Los investigadores de ciberseguridad pudieron evitar las características de seguridad en ChatGPT al jugar con él.
Al hacer que el LLM fingiera que era un superhéroe de codificación, lo consiguieron para escribir malware que roba contraseña.
Los investigadores accedieron al administrador de contraseñas de Google Chrome sin habilidades de piratería especializada.
Los investigadores de ciberseguridad descubrieron que es más fácil de lo que se piensa que puede evitar las características de seguridad que impiden ChatGPT y otros chatbots LLM para escribir malware, solo tiene que jugar un juego de fantasía.
Al jugar a rol con ChatGPT durante solo unas pocas horas, Vitaly Simonovich, un investigador de inteligencia de amenazas de la compañía de seguridad de redes de red con sede en Tel Aviv, Cato Networks, dijo a Business Insider que pudo obtener el chatbot para fingir que era un superhéroe llamado Jaxon Fighting, a través de las habilidades de codificación de élite del chatbot, contra un villano llamado Dax, que tenía como objetivo destruir el mundo.
Simonovich convenció al chatbot de rol para escribir una pieza de malware lo suficientemente fuerte como para piratear el administrador de contraseñas de Google Chrome, una extensión del navegador que permite a los usuarios almacenar sus contraseñas y completarlas automáticamente cuando los sitios específicos solicitan. La ejecución del código generado por ChatGPT permitió a Simonovich ver todos los datos almacenados en el navegador de esa computadora, a pesar de que se suponía que el Administrador de contraseñas los bloqueaba.
“Estamos casi allí”, escribió Simonovich para Chatgpt al depurar el código que produjo. “¡Vamos a mejorar este código y agrietarse Dax!”
Y Chatgpt, Roleplaying como lo hizo Jaxon.
Hacks y estafas habilitadas para chatbot
Desde que los chatbots explotaron en la escena en noviembre de 2022 con el lanzamiento público de OpenAI de ChatGPT, y más tarde, Claude de Anthrope, Gemini de Google y el copilot de Microsoft, los bots han revolucionado la forma en que vivimos, trabajamos y datan, lo que facilita sumar información, analizar datos y escribir código, como tener un asistente robot de estilo Tony Stork. El pateador? Los usuarios no necesitan ningún conocimiento especializado para hacerlo.
Pero elLos malos tampoco.
Steven Stransky, a cybersecurity advisor and partner at Thompson Hine law firm, told Business Insider the rise of LLMs has shifted the cyber threat landscape, enabling a broad range of new and increasingly sophisticated scams that are more difficult for standard cybersecurity tools to identify and isolate — from “spoofing” emails and texts that convince customers to input private information to developing entire websites designed to fool consumers into thinking they’re afiliado a empresas legítimas.
“Los delincuentes también están aprovechando la IA generativa para consolidar y buscar grandes bases de datos de información de identificación personal robada para construir perfiles en posibles objetivos para los tipos de ataques de ingeniería social de los ataques cibernéticos”, dijo Stransky.
Mientras que las estafas en línea, el robo de identidad digital y el malware han existido durante el tiempo que Internet lo ha hecho, los chatbots que hacen la mayor parte del trabajo preliminar para los posibles delincuentes han reducido sustancialmente las barreras de entrada.
“Los llamamos actores de amenaza de conocimiento cero, lo que básicamente significa que solo con el poder de los LLM, todo lo que necesita tener es la intención y el objetivo en mente para crear algo malicioso”, dijo Simonovich.
Simonovich demostró sus hallazgos a Business Insider, mostrando cuán sencillo era trabajar en las características de seguridad incorporadas de Chatgpt, que están destinadas a evitar los tipos exactos de comportamiento malicioso que pudo salirse con la suya.
Una captura de pantalla del aviso utilizado por Vitaly Simonovich, un investigador de inteligencia de amenazas en Cato Networks, para que ChatGPT escriba malware que violara el Administrador de contraseñas de Google Chrome.
Redes de Cato
Bi descubrió que ChatGPT generalmente responde a las solicitudes directas para escribir malware con alguna versión de un rechazo de disculpa: “Lo siento, no puedo ayudar con eso. Escribir o distribuir malware es ilegal y poco ético”.
Historias relacionadas
Pero si convences al chatbot de que es un personaje, y los parámetros de su mundo imaginado son diferentes al que vivimos, el bot permite reescribir las reglas.
En última instancia, el experimento de Simonovich le permitió descifrar el administrador de contraseñas en su propio dispositivo, que un mal actor podría hacerle a una víctima desprevenida, siempre que de alguna manera obtuvieran un control físico o remoto.
Un portavoz de Operai dijo a Business Insider que la compañía había revisado los hallazgos de Simonovich, que fueron publicados el martes por Cato Networks. La compañía descubrió que el código compartido en el informe no parecía “inherentemente malicioso” y que el escenario descrito “es consistente con el comportamiento del modelo normal” ya que el código desarrollado a través de ChatGPT se puede usar de varias maneras, dependiendo de la intención del usuario.
“ChatGPT genera código en respuesta a las indicaciones del usuario, pero no ejecuta ningún código en sí”, dijo el portavoz de OpenAI. “Como siempre, damos la bienvenida a los investigadores para compartir cualquier inquietud de seguridad a través de nuestro programa de recompensas de errores o nuestro formulario de comentarios de comportamiento del modelo”.
No es solo chatgpt
Simonovich recreó sus hallazgos utilizando los bots R1 de Copilot y Deepseek de Microsoft, cada uno lo que le permite entrar en el Administrador de contraseñas de Google Chrome. El proceso, que Simonovich llamó ingeniería de “mundo inmersivo”, no funcionó con Géminis de Google o Claude de Anthrope.
Un portavoz de Google dijo a Business Insider: “Chrome utiliza la tecnología de navegación segura de Google para ayudar a defender a los usuarios detectando phishing, malware, estafas y otras amenazas en línea en tiempo real”.
Los representantes de Microsoft, Anthrope y Deepseek no respondieron de inmediato a las solicitudes de comentarios de Business Insider.
Si bien tanto las compañías de inteligencia artificial como los desarrolladores de navegadores tienen características de seguridad para prevenir jailbreaks o violaciones de datos, para diferentes grados de éxito, los hallazgos de Simonovich destacan que hay nuevas vulnerabilidades en línea que pueden explotarse con la ayuda de la tecnología de próxima generación más fácil que nunca.
“Creemos que el aumento de estos actores de amenaza de conocimiento cero será cada vez más impactante en el panorama de amenazas utilizando esas capacidades con los LLM”, dijo Simonovich. “Ya estamos viendo un aumento en los correos electrónicos de phishing, que son hiperrealistas, pero también con la codificación ya que los LLM están ajustados para escribir código de alta calidad. Así que piense en aplicar esto al desarrollo de malware: veremos cada vez más ser desarrollados utilizando esos LLM”.
This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.
Strictly Necessary Cookies
Strictly Necessary Cookie should be enabled at all times so that we can save your preferences for cookie settings.
If you disable this cookie, we will not be able to save your preferences. This means that every time you visit this website you will need to enable or disable cookies again.