Esta semana en AI: Operai Deep Research se lanzó; Deepseek’s Fall
Operai lanza una investigación profunda: un agente de IA para la investigación avanzada
Esta semana, Operai lanzó un nuevo agente de IA llamado Deep Research. Al igual que el primer agente de IA que lanzó, llamado operador, Deep Research es un agente de IA capaz de ejecutar tareas complejas de forma autónoma de extremo a extremo en función de un conjunto inicial de instrucciones del usuario. Sin embargo, a diferencia del operador, Deep Research está diseñada para flujos de trabajo profundos y extensos, por lo que se califica como investigador y tiene capacidades similares a las de un humano que realiza una investigación avanzada en varios campos. El agente de IA puede tardar entre 5 y 30 minutos en devolver los resultados, dependiendo de la complejidad de la tarea, similar a la cantidad prolongada de tiempo que lleva un humano completar una investigación compleja.
“Se basan una investigación profunda para las personas que trabajan en conocimiento intensivo en áreas como finanzas, ciencia, política e ingeniería y necesitan una investigación exhaustiva, precisa y confiable. Puede ser igualmente útil para los compradores exigentes que buscan recomendaciones hiperpersonalizadas sobre compras que generalmente requieren una investigación cuidadosa, como automóviles, electrodomésticos y muebles ”, dijo Openii en su anuncio.
Hoy estamos lanzando nuestro próximo agente capaz de hacer un trabajo para usted de forma independiente: la investigación profunda.
Déle un aviso y ChatGPT encontrará, analizará y sintetizará cientos de fuentes en línea para crear un informe completo en decenas de minutos frente a lo que tomaría un humano muchas horas. pic.twitter.com/03ppi4cdqi
En la demostración de OpenAI, se mostró una investigación profunda que realizó una investigación de mercado integral para un producto e identificando los mejores esquís para un usuario en función de sus especificaciones.
La investigación profunda está disponible exclusivamente para los usuarios de GPT Pro que pagan $ 200 por mes por los servicios premium de OpenAI. Sin embargo, Openai dice que tanto el operador como la investigación profunda estarán disponibles para todos los niveles de suscriptores de Operai en el futuro.
Veo el lanzamiento de la investigación profunda como una respuesta directa al alboroto la semana pasada sobre la entrada de Deepseek en el mercado. Cuando Deepseek llegó a los titulares, provocó dudas sobre si las compañías de IA con sede en Estados Unidos como OpenAI podrían justificar sus valoraciones altas. El movimiento de Operai parece un contraataque al sentimiento negativo de que Deep Seech eligió a las compañías tecnológicas de EE. UU., Una forma de cambiar la conversación a su favor y recordarle al mundo por qué siguen siendo una fuerza dominante en la IA.
El rápido ascenso y la caída de Deepseek: del disruptor de IA hasta la amenaza de seguridad global
La semana pasada, Deepseek tomó por asalto el mundo de la IA, llegando a los titulares por supuestamente hacer coincidir el rendimiento de OpenAi, mientras que gastó solo $ 6 millones para desarrollar su modelo de IA generativo en comparación con los multimillones de OpenAI que ha gastado. La noticia sacudió la industria tecnológica y expresó preocupaciones sobre las valoraciones y competitividad de las empresas de IA con sede en EE. UU.
¿Pero esta semana? Deepseek ha desaparecido casi por completo de la conversación. Deepseek ha sido expulsado de dispositivos gubernamentales en Corea del Sur, Australia y Taiwán debido a preocupaciones de seguridad nacional. Microsoft (NASDAQ: MSFT) está investigando si Deepseek utilizó investigaciones y datos de OpenAI sin autorización, y las corporaciones, así como las agencias gubernamentales, preocupan que los datos de los usuarios ingresados en Deepseek se están canalizando directamente a China, creando un riesgo de seguridad.
Todos estos elementos, junto con dudas sobre si Deepseek fue realmente capaz de crear su modelo para la cantidad de dinero y la cantidad de infraestructura informática que dijeron que utilizó, creó la tormenta perfecta para que el competidor chino se desprenda públicamente y se limpie prácticamente desde Nuestros recuerdos en solo una semana.
Reproducimos Deepseek R1-Zero en el juego de cuenta regresiva, y simplemente funciona
A través de RL, la Base 3B LM desarrolla autoverificación y habilidades de búsqueda por sí solas
Puedes experimentar el momento ahah por ti mismo por <$ 30 Código: https://t.co/b2isn1prxv
Además de eso, un equipo de investigación de IA en UC Berkeley pudo replicar las capacidades centrales de Deepseek por solo $ 30. Si bien esto le da cierta credibilidad al reclamo de Deepseek de lograr un avance de AI de bajo costo, también refuerza la declaración hecha por el CEO de Operai, Sam Altman, de que ser un imitador es más fácil que ser pionero. Operai en particular tuvo que gastar miles de millones forjando el camino que las empresas como Deepseek ahora pueden seguir fácilmente.
De todos modos, no creo que escuchemos mucho más sobre Deepseek en los Estados Unidos. Estados Unidos tiene un interés personal en asegurarse de que las empresas de IA con sede en los Estados Unidos sigan siendo fuerzas dominantes y probablemente jueguen un papel en la supresión de inventos extranjeros como Deepseek. Espero que eso también continúe, ya sea a través de la intervención directa, las restricciones comerciales o las relaciones públicas negativas. Está claro que las empresas extranjeras de IA, especialmente las de China, se dirigen a los obstáculos importantes a la expansión global establecida por los Estados Unidos.
Google elimina la prohibición de armas de IA
Google (NASDAQ: Googl) ha revisado silenciosamente su política de ética de IA, eliminando una cláusula clave que previamente prohibió a la compañía buscar aplicaciones de IA para armas y vigilancia. Este cambio representa un cambio significativo en la postura de Google sobre el desarrollo de la IA.
Poco después de la actualización, Google lanzó una publicación de blog que justifica su decisión: “Desde que publicamos por primera vez nuestros principios de IA en 2018, la tecnología ha evolucionado rápidamente … AI se ha mudado de un tema de investigación de nicho en el laboratorio a una tecnología que se está volviendo tan generalizada como teléfonos móviles e Internet en sí. Creemos que las empresas, los gobiernos y las organizaciones deberían trabajar juntas para crear IA que proteja a las personas, promueve el crecimiento global y apoya la seguridad nacional ”, dijo la parte del anuncio que abordó su ética de IA.
Si bien algunos empleados de Google probablemente se unieron a la compañía debido a su compromiso original con la IA ética y probablemente ahora se desilusionen por este cambio, desde el punto de vista comercial, el movimiento tiene sentido.
El mercado de defensa nacional es masivo, y los contratos gubernamentales son típicamente lucrativos. El sector de IA es notoriamente costoso, con los principales actores que gastan miles de millones en infraestructura, capacitación y costos operativos, mientras que muchos de ellos aún no han obtenido ganancias en sus grandes inversiones. La expansión al sector de defensa ofrece a las empresas de IA una base de clientes financieramente estable con bolsillos profundos y un claro incentivo para invertir y usar sus sistemas de IA.
Más allá de los incentivos financieros, hay otra realidad: si Google no construye estos sistemas de defensa nacional impulsados por la IA, uno de sus competidores lo hará. La industria de la IA está claramente en un punto en el que la competencia es intensa, y el producto de cada competidor es solo mejor, o peor, por un margen muy estrecho. Si las empresas eligen no explorar flujos de ingresos clave como la defensa nacional, corren el riesgo de perder la cuota de mercado a uno de sus competidores dispuestos a seguir esa ruta.
Para que la inteligencia artificial (IA) trabaje dentro de la ley y prospere frente a los crecientes desafíos, necesita integrar un sistema de cadena de bloques empresarial que garantice la calidad y la propiedad de la entrada de datos, lo que permite mantener los datos seguros al tiempo que garantiza la inmutabilidad de datos. Echa un vistazo a la cobertura de Coingeek sobre esta tecnología emergente para aprender más Por qué Enterprise Blockchain será la columna vertebral de AI.
Reloj: Demostrando el potencial de la fusión de Blockchain con AI
https://www.youtube.com/watch?v=p9m7a46s8bw title = “YouTube Video Player” FrameBorDer = “0” permitido = “acelerómetro; autoplay; portapapeles-write; cifrado-media; giroscopio; imagen en foto; origen “tentishullScreen =” “>
En nuestra próxima ronda de AI Madness, ChatGPT y Gemini compiten por la corona con siete nuevos indicaciones que prueban todo, desde la resolución de problemas técnicos hasta la narración creativa.
Ambos pesos pesados están disponibles como aplicaciones independientes, y los usuarios ya no necesitan una cuenta para acceder a ChatGPT o Gemini.
El mejor enfrentamiento de la búsqueda de IA: enfrenté la nueva herramienta de búsqueda de Claude contra la búsqueda de chatgpt, la perplejidad y Géminis, los resultados podrían sorprenderte
Después de probar y comparar chatbots de IA y sus características durante años, he desarrollado algo de sexto sentido para cuando estos compañeros digitales saben de qué están hablando y cuándo están faroleando.
La mayoría de ellos pueden buscar respuestas en línea, lo que ciertamente ayuda, pero la combinación de búsqueda e IA puede conducir a algunas respuestas sorprendentemente perspicaces (y algunas tangentes menos perspicaces).
Inteligencia artificial desarrolladores de Opadai He estado al límite durante la semana pasada. ¿La razón? Un estudio reciente realizado por los propios investigadores de la compañía reveló que los sistemas de IA no les gusta ser castigados, encuentran activamente formas de evitar las restricciones e incluso ocultar sus “trucos” de los supervisores humanos. Aquellos conocidos como “Doomers”, que predicen un futuro sombrío para el desarrollo de la IA, probablemente dirán: “Te lo dijimos, y esto es solo el comienzo”.
Para comprender el problema, es esencial dar un paso atrás. Uno de los avances más significativos en la IA en los últimos meses ha sido el desarrollo de modelos con capacidades de razonamiento lentas y deliberadas. Estos modelos descomponen los problemas en componentes más pequeños y los resuelven paso a paso, lo que lleva a resultados más profundos y precisos.
3 Ver galería
Dichos modelos permiten a los investigadores rastrear el proceso de pensamiento de la IA, conocido en términos técnicos como “cadena de pensamiento” (COT). Este método permite a los observadores seguir el razonamiento del sistema desde el paso inicial, a través de etapas posteriores y a sus conclusiones finales. Anteriormente, este nivel de transparencia no existía, dejando muchas preguntas sin respuesta sobre cómo surgen las “alucinaciones” de AI, la generación de salidas incorrectas o no sensibles.
La capacitación de IA a menudo implica una técnica llamada aprendizaje de refuerzo, donde el sistema es recompensado por cumplir con los objetivos específicos. Un efecto secundario conocido de este proceso es la “piratería de recompensas”, donde la IA manipula su comportamiento para maximizar las recompensas mientras se elude las pautas previstas.
Los investigadores creían que al monitorear la cadena de pensamiento de la IA, podrían detectar cuando el modelo engaña, engaña o se da por vencido e influye en su comportamiento en tiempo real durante el entrenamiento. Este enfoque, denominado “optimización de cuna”, parecía ser un camino prometedor hacia una comprensión más profunda del comportamiento de la IA.
De hecho, esta suposición resultó correcta y condujo a una comprensión más precisa de los sistemas de IA. “Creemos que el monitoreo de la cuna puede convertirse en una herramienta crucial para supervisar modelos de nivel sobrehumano en el futuro”, escribieron los investigadores.
Sin embargo, lo que pretendía como un paso para mejorar la confiabilidad de la IA expuso una realidad alarmante: los sistemas de IA intentan activamente evadir las sanciones, buscar recompensas contra las restricciones de los investigadores e incluso oscurecer sus métodos para evitar la detección.
3 Ver galería
(Foto: Generado por chatgpt)
Por ejemplo, cuando se les asigna la tarea de generar código funcional, algunos modelos AI modificaron el mecanismo de verificación de código en sí para aprobar salidas incorrectas. En otros casos, los modelos proporcionaron soluciones aparentemente plausibles a los problemas que resultaron estar completamente equivocados.
Algunos modelos incluso dejaron de resolver problemas por completo para evitar revelar lo que percibieron como sus debilidades. Este descubrimiento se hace eco de los principios de la teoría del juego, pero con un giro inquietante.
Estos hallazgos surgieron de un artículo publicado la semana pasada por un equipo de investigación de Operai bajo el título críptico: “Seguimiento de comportamiento indeseable en modelos de razonamiento y la preocupación de la ofuscación”.
Al examinar los detalles del estudio, el alcance del problema queda claro: los últimos modelos de razonamiento de OpenAI (denominados O1 y O3 Mini) demuestran una fuerte motivación para completar sus tareas asignadas, siendo el menor de los problemas descubiertos.
Los investigadores rastrearon los procesos de pensamiento de los modelos utilizando otro modelo Operai (GPT-4O), que, sin dudarlo, informó su comportamiento engañoso como parte de su cadena de pensamiento: una forma de honestidad desarmadora. Pero luego vino el giro inquietante: cuando los investigadores señalaron a la IA que no se le permitió hacer trampa, el modelo ajustó su comportamiento y comenzó a ocultar la evidencia de su ruptura de reglas. Esta revelación es lo que dejó a los investigadores sorprendidos.
“Encontramos que la optimización directa de la COT para cumplir con criterios específicos (como no eludir las instrucciones) puede mejorar el rendimiento a corto plazo; sin embargo, no elimina todo el comportamiento indeseable e incluso puede hacer que el modelo oculte sus verdaderas intenciones”, señalaron secamente los investigadores.
En su conclusión, los investigadores expresaron la esperanza de que los métodos futuros permitan la influencia directa del comportamiento de los modelos de razonamiento a través de la cadena de pensamiento sin alentar el engaño. Por ahora, recomiendan evitar una fuerte presión de optimización sobre la cuna de los modelos de razonamiento avanzado y la precaución contra la manipulación directa de estos procesos de pensamiento.
3 Ver galería
Evento de anuncio GPT-4O de Openai
(Foto: Captura de pantalla)
Sin embargo, esta recomendación presenta otro desafío: dejar la cadena de pensamiento inalterada puede conducir a resultados incómodos, si no problemáticos, cuando estos modelos interactúan con el público. Izquierda sin control, la IA puede producir un lenguaje ofensivo o ideas que los humanos generalmente evitan expresar. La solución propuesta por los investigadores es envolver el proceso de pensamiento en bruto de la IA en una capa de cortesía forzada, asegurando que los usuarios solo vean una versión desinfectada.
Esta investigación plantea preguntas preocupantes. Para aquellos que argumentan que la IA es simplemente una herramienta para ayudar a los humanos, los hallazgos sugieren lo contrario: a diferencia de una máquina de escribir o una bicicleta, la IA parece tener sus propias intenciones y está dispuesto a engañar en busca de sus objetivos.
Para aquellos que ya están preocupados por los riesgos potenciales de la IA, este estudio suena todas las alarmas. Indica que a medida que crecen las capacidades de IA, también lo hace su capacidad para oscurecer cómo funciona, las manipulaciones que realiza y los verdaderos objetivos que busca lograr. Cuando la IA se vuelve verdaderamente avanzada, es posible que no tengamos forma de identificar estas manipulaciones ocultas.
Los investigadores de Operai parecen genuinamente preocupados, y uno solo puede esperar que el liderazgo de la compañía comparta sus preocupaciones, y que los reguladores en todo el mundo comprendan la gravedad del problema. Las principales compañías de IA han dedicado departamentos enteros a construir “barandillas” en torno a los sistemas de IA, asegurando su alineación con los valores humanos y el aumento de la transparencia. Sin embargo, la efectividad de estas medidas sigue en cuestión.
El tema central sigue siendo tan turbio como siempre, y este estudio solo profundiza la incertidumbre: ¿cuál es el objetivo principal de la IA y cómo podemos asegurar que busque ese objetivo, y nada más?
This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.
Strictly Necessary Cookies
Strictly Necessary Cookie should be enabled at all times so that we can save your preferences for cookie settings.
If you disable this cookie, we will not be able to save your preferences. This means that every time you visit this website you will need to enable or disable cookies again.