Connect with us

Noticias

Analizadores de análisis superiores: Pares de investigación profundos de Openai razonamiento de LLMS con trapo de agente para automatizar el trabajo y reemplazar trabajos

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


Las empresas empresariales deben tomar nota de la investigación profunda de OpenAI. Proporciona un poderoso producto basado en nuevas capacidades, y es tan bueno que podría dejar a mucha gente fuera de trabajo.

La investigación profunda está en el borde sangrado de una tendencia creciente: la integración de modelos de idiomas grandes (LLM) con motores de búsqueda y otras herramientas para expandir en gran medida sus capacidades. (Justo cuando se informó este artículo, por ejemplo, el XAI de Elon Musk presentó Grok 3, que reclama capacidades similares, incluido un producto de búsqueda profunda. Sin embargo, es demasiado pronto para evaluar el rendimiento del mundo real de Grok 3, ya que la mayoría de los suscriptores no han en realidad todavía lo conseguí).

La investigación profunda de Openai, lanzada el 3 de febrero, requiere una cuenta profesional con OpenAI, que cuesta $ 200 por mes, y actualmente está disponible solo para los usuarios de EE. UU. Hasta ahora, esta restricción puede tener comentarios tempranos limitados de la comunidad de desarrolladores globales, que generalmente se apresura a diseccionar nuevos avances de IA.

Con el modo de investigación profunda, los usuarios pueden hacer cualquier pregunta al modelo O3 líder de OpenAI. El resultado? Un informe a menudo superior a lo que producen los analistas humanos, entregado más rápido y a una fracción del costo.

Cómo funciona la investigación profunda

Si bien la investigación profunda se ha discutido ampliamente, sus implicaciones más amplias aún no se han registrado completamente. Las reacciones iniciales elogiaron sus impresionantes capacidades de investigación, a pesar de sus alucinaciones ocasionales en sus citas. Estaba el tipo que dijo que lo usó para ayudar a su esposa que tenía cáncer de seno. Proporcionó un análisis más profundo de lo que sus oncólogos proporcionaron sobre cómo la radioterapia era el curso de acción correcto, dijo. El consenso, resumido por el profesor de Wharton AI, Ethan Mollick, es que sus ventajas superan con creces las imprecisiones ocasionales, ya que la verificación de hechos lleva menos tiempo de lo que la IA salva en general. Esto es algo con lo que estoy de acuerdo, basado en mi propio uso.

Las instituciones financieras ya están explorando las solicitudes. BNY Mellon, por ejemplo, ve potencial en el uso de una investigación profunda para las evaluaciones de riesgos de crédito. Su impacto se extenderá entre las industrias, desde la atención médica hasta la gestión minorista, de fabricación y de la cadena de suministro, prácticamente cualquier campo que se basa en el trabajo de conocimiento.

Un agente de investigación más inteligente

A diferencia de los modelos de IA tradicionales que intentan respuestas de un solo disparo, la investigación profunda primero hace preguntas aclaratorias. Puede hacer cuatro o más preguntas para asegurarse de que comprenda exactamente lo que desea. Luego desarrolla un plan de investigación estructurado, realiza múltiples búsquedas, revisa su plan basado en nuevas ideas e itera en un bucle hasta que compila un informe integral y bien formato. Esto puede llevar entre unos minutos y media hora. Los informes varían de 1,500 a 20,000 palabras, y generalmente incluyen citas de 15 a 30 fuentes con URL exactas, al menos de acuerdo con mi uso durante la última semana y media.

La tecnología detrás de la investigación profunda: razonamiento LLMS y el trapo de agente

La investigación profunda hace esto fusionando dos tecnologías de una manera que no hemos visto antes en un producto de mercado masivo.

LLMS de razonamiento: El primero es el modelo de vanguardia de OpenAI, O3, que conduce en un razonamiento lógico y procesos extendidos de la cadena de pensamiento. Cuando se anunció en diciembre de 2024, el O3 obtuvo un 87.5% sin precedentes en el punto de referencia SUPER-DIFFICTULT ARC-AGI diseñado para probar nuevas habilidades de resolución de problemas. Lo interesante es que O3 no se ha lanzado como un modelo independiente para que los desarrolladores lo usen. De hecho, el CEO de OpenAI, Sam Altman, anunció la semana pasada que el modelo en cambio estaría envuelto en un sistema de “inteligencia unificada”, que uniría modelos con herramientas de agente como la búsqueda, los agentes de codificación y más. La investigación profunda es un ejemplo de dicho producto. Y aunque competidores como Deepseek-R1 se han acercado a las capacidades de O3 (una de las razones por las que había tanta emoción hace unas semanas), OpenAi todavía se considera ampliamente que está ligeramente por delante.

Trapo de agente: El segundo, Agentic Rag, es una tecnología que ha existido durante aproximadamente un año. Utiliza agentes para buscar información autónoma y contexto de otras fuentes, incluida la búsqueda de Internet. Esto puede incluir otros agentes de llamas de herramientas para encontrar información no WEB a través de API; agentes de codificación que pueden completar secuencias complejas de manera más eficiente; y búsquedas en la base de datos. Inicialmente, la investigación profunda de OpenAI está buscando principalmente en la web abierta, pero los líderes de la compañía han sugerido que podría buscar más fuentes con el tiempo.

La ventaja competitiva de OpenAI (y sus límites)

Si bien estas tecnologías no son completamente nuevas, las refinamientos de OpenAI, habilitados por cosas como su inicio de trabajo en trabajar en estas tecnologías, fondos masivos y su modelo de desarrollo de código cerrado, han llevado a una investigación profunda a un nuevo nivel. Puede funcionar a puerta cerrada y aprovechar los comentarios de los más de 300 millones de usuarios activos del popular producto CHATGPT de Openai. Operai ha liderado en investigación en estas áreas, por ejemplo, en cómo hacer verificación paso a paso para obtener mejores resultados. Y ha implementado claramente la búsqueda de una manera interesante, tal vez tomando prestado de Microsoft’s Bing y otras tecnologías.

Si bien todavía está alucinando algunos resultados de sus búsquedas, lo hace menos que los competidores, tal vez en parte porque el modelo O3 subyacente ha establecido una industria baja para estas alucinaciones al 8%. Y hay formas de reducir aún más los errores, mediante el uso de mecanismos como umbrales de confianza, requisitos de citas y otras verificaciones de credibilidad sofisticadas.

Al mismo tiempo, hay límites para el liderazgo y las capacidades de OpenAi. Dentro de los dos días del lanzamiento de Deep Research, Huggingface presentó un agente de investigación de IA de código abierto llamado Open Deep Research que obtuvo resultados que no estaban muy lejos de la de OpenAi, de manera similar, fusionando modelos líderes y capacidades de agente disponibles gratuitamente. Hay pocos focos. Los competidores de código abierto como Deepseek parecen mantenerse cerca en el área de los modelos de razonamiento, y Magentic-One de Microsoft ofrece un marco para la mayoría de las capacidades de agente de OpenAI, por nombrar solo dos ejemplos más.

Además, la investigación profunda tiene limitaciones. El producto es realmente eficiente para investigar información oscura que se puede encontrar en la web. Pero en áreas donde no hay mucho en línea y donde la experiencia en el dominio es en gran medida privada, ya sea en las cabezas de las personas o en bases de datos privadas, no funciona en absoluto. Por lo tanto, esto no va a amenazar los trabajos de los investigadores de fondos de cobertura de alta gama, por ejemplo, a quienes se les paga para hablar con expertos reales en una industria para encontrar información muy difícil de Obtain, como argumentó Ben Thompson En una publicación reciente (ver gráfico a continuación). En la mayoría de los casos, la investigación profunda de OpenAI afectará a los trabajos de analistas más bajos y calificados.

El valor de Deep Research primero aumenta a medida que la información en línea se vuelve escasa, luego cae cuando se vuelve realmente escaso. Fuente: Stratechery.

El producto más inteligente hasta ahora

Cuando fusiona el razonamiento de primer nivel con la recuperación de agente, no es realmente sorprendente que obtenga un producto tan poderoso. La investigación profunda de Openai logró un 26,6% en el último examen de la humanidad, posiblemente el mejor punto de referencia para la inteligencia. Este es un punto de referencia de IA relativamente nuevo diseñado para ser el más difícil de completar para cualquier modelo de IA, que cubra 3.000 preguntas en 100 sujetos diferentes. En este punto de referencia, la investigación profunda de OpenAI supera significativamente la investigación profunda de Perplexity (20.5%) y modelos anteriores como O3-Mini (13%) y Deepseek-R1 (9.4%) que no estaban conectados con trapo de agente. Pero las primeras revisiones sugieren clientes potenciales abiertos tanto en calidad como en profundidad. La investigación profunda de Google aún no se ha probado con este punto de referencia, pero las primeras revisiones sugieren clientes potenciales de calidad y profundidad.

Cómo es diferente: la primera IA del mercado masivo que podría desplazar los trabajos

Lo que es diferente con este producto es su potencial para eliminar los empleos. Sam Witteveen, cofundador de Red Dragon y desarrollador de agentes de IA, observó en una discusión de video de inmersión profunda conmigo que mucha gente va a decir: “Solía ​​mierda, puedo obtener estos informes por $ 200 que podría obtener de los que podría obtener una compañía de consultoría entre 4 mejores que me costarían $ 20,000 ”. Esto, dijo, causará algunos cambios reales, incluido probablemente dejar a las personas fuera de los trabajos.

Lo que me lleva de vuelta a mi entrevista la semana pasada con Sarthak Pattanaik, Jefe de Ingeniería e IA en BNY Mellon, un importante banco estadounidense.

Sin duda, Pattanaik no dijo nada sobre las ramificaciones del producto para los recuentos de trabajos reales en su banco. Ese será un tema particularmente sensible que cualquier empresa probablemente rehuya abordar públicamente. Pero dijo que podía ver que la investigación profunda de OpenAI se utilice para informes de suscripción de crédito y otras actividades de “línea superior”, y que tenga un impacto significativo en una variedad de trabajos: “Ahora eso no afecta a cada trabajo, pero eso afecta a un conjunto de empleos alrededor de la estrategia [and] Investigación, como la gestión de los proveedores de comparación, comparación del producto A versus producto B “. Agregó: “Así que creo que todo lo que está más en el sistema dos pensamientos: más exploratorio, donde puede no tener una respuesta correcta, porque la respuesta correcta se puede montar una vez que tenga esa definición de escenario, creo que es una oportunidad”.

Una perspectiva histórica: pérdida de empleo y creación de empleo

Las revoluciones tecnológicas han desplazado históricamente a los trabajadores a corto plazo mientras crean nuevas industrias a largo plazo. Desde automóviles que reemplazan los carruajes tirados por caballos hasta las computadoras que automatizan el trabajo administrativo, los mercados laborales evolucionan. Las nuevas oportunidades creadas por las tecnologías disruptivas tienden a generar una nueva contratación. Las empresas que no adoptan estos avances se quedarán atrás de sus competidores.

Altman de OpenAI reconoció el vínculo, incluso si es indirecto, entre investigaciones profundas y mano de obra. En la cumbre de IA en París la semana pasada, se le preguntó sobre su visión de inteligencia general artificial (AGI), o la etapa en la que AI puede realizar casi cualquier tarea que un humano pueda. Como respondió, su primera referencia fue una investigación profunda: “Creo que es un modelo capaz de hacer como un porcentaje de bajo dígito de todas las tareas en la economía en el mundo en este momento, que es una declaración loca, y Hace un año no creo que algo que la gente pensara vendrá “. (Ver minuto tres de este video). Continuó: “Por 50 centavos de cómputo, puede hacer como $ 500 o $ 5,000 de trabajo. Las empresas están implementando eso para ser mucho más eficientes “.

La comida para llevar: una nueva era para el trabajo de conocimiento

Deep Research representa un momento decisivo para la IA en las industrias basadas en el conocimiento. Al integrar el razonamiento de vanguardia con capacidades de investigación autónoma, OpenAi ha creado una herramienta que es más inteligente, más rápida y significativamente más rentable que los analistas humanos.

Las implicaciones son enormes, desde servicios financieros hasta atención médica hasta toma de decisiones empresariales. Las organizaciones que aprovechan esta tecnología de manera efectiva obtendrán una ventaja competitiva significativa. Aquellos que lo ignoran lo hacen bajo su riesgo.

Para una discusión más profunda sobre cómo funciona la investigación profunda de OpenAI, y cómo funciona el conocimiento, consulte mi conversación en profundidad con Sam Witteveen en nuestro último video:

https://www.youtube.com/watch?v=3m3qcf_ptdc

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

¿Chatgpt se está convirtiendo lentamente en el mayor sí-hombre de la IA?

Published

on

Hace solo unos días, un usuario de Reddit publicó una preocupación por lo que vio como un riesgo creciente en el comportamiento de Chatgpt. En un hilo titulado “¿Chatgpt está alimentando sus delirios?”, El usuario describió a un llamado influencer de IA que recibió elogios excesivos y validación emocional del Ai chatbot.

“Procede a volar tanto aire caliente en su ego”, escribieron. “Chatgpt confirma su sentido de persecución por OpenAi”. El usuario, que no mencionó el nombre del influencer, advirtió que el influencer se parecía a “un poco como alguien que tenía un episodio maníaco del engaño” y que ChatGPT era “alimentando dicha ilusión”.

Que golpeó un nervio y su correo no pasó desapercibido. En cuestión de horas, había atraído cientos de votos y respuestas de usuarios que afirmaron haber notado lo mismo.

Un usuario escribió que “consigna mi BS regularmente en lugar de ofrecer una visión y confrontación necesarias para incitar el crecimiento … ya no estoy confiando en él de manera consistente”. Otro usuario respondió que “dejaron de usar CHATGPT para usos personales por esa misma razón”, y agregó que “si no tiene cuidado, alimentará a su ego y lo hará seguro de habilidades que ni siquiera están allí”.

Sobre x, un usuario, Alejandro L.escribió: “Deja de preguntarle a Chatgpt sobre tus ideas. Validará cualquier cosa que digas”. Aunque uno podría cuestionar la publicación de alguien que atribuye un pronombre animado a una entidad inanimada, las preocupaciones de Alejandro son válidas y también han sido corroboradas por muchos otros en la plataforma de redes sociales. Craig Wessotro usuario X, tal vez fue incluso Blunter: “Chatgpt de repente es la mayor trampa que he conocido. Literalmente validará todo lo que digo”.

Para los clientes y desarrolladores empresariales por igual, estas no son molestias triviales: se traducen en costos reales en la pérdida de productividad, los ciclos de cómputo desperdiciados y la tarea interminable de las indicaciones de reentrenamiento.

Una experiencia reducida para los usuarios

En las plataformas de redes sociales, una ola de usuarios más leales de Chatgpt, que pagan $ 20/mes por el acceso al modelo, informan una caída notable en el rendimiento. Aparte de las preocupaciones de que se siente más lento Y más agradable, los usuarios también están cada vez más preocupados de que OpenAI no haya ofrecido ninguna explicación clara sobre este comportamiento.

Algunas de las quejas más recurrentes son sorprendentemente consistentes: las diferentes versiones de ChatGPT, especialmente los modelos heredados como GPT-4, que OpenAi ha anunciado que será el atardecer a fines de este mes, tardan más en responder y dar respuestas más cortas y menos útiles.

Estos usuarios perjudicados señalan que el chatbot AI desvía las preguntas que solía responder con facilidad. Y en algunos casos, parece estar alucinando más, no menos. De hecho, algunos usuarios de toda la vida continúan catalogando Docenas de casos de uso en los que notaron regresiones en Chatgpt – Desde el razonamiento matemático hasta la generación de códigos hasta la escritura comercial.

Sus quejas no son solo quejas. Los investigadores independientes continúan documentando brechas persistentes en las tareas de razonamiento y codificación. En febrero de 2025, Johan Boye y Birger Moell publicaron “Modelos de idiomas grandes y fallas de razonamiento matemático“, Mostrando que incluso GPT-4O tropieza rutinariamente en problemas matemáticos de varios pasos, con lógica defectuosa o supuestos injustificados que conducen a soluciones incorrectas.

La ilusión de la transparencia

La preocupación más amplia no se trata solo de chatgpt. Se trata de lo que sucede cuando las empresas retienen la claridad sobre cómo evolucionan los sistemas de IA. En su dirección en el año pasado AI para un buen innovado por impacto en ShanghaiGary Marcus, científico cognitivo y crítico desde hace mucho tiempo del desarrollo de IA de caja negra, dijo que “necesitamos una contabilidad completa de los datos que se utilizan para capacitar a los modelos, contabilidad completa de todos los incidentes relacionados con la IA a medida que afectan el sesgo, el cibercrimen, la interferencia electoral, la manipulación del mercado, etc.”.

Este es un problema creciente para las empresas que dependen de la IA. A medida que los usuarios pierden la confianza en lo que están haciendo los modelos, y por qué, quedan para completar los espacios en blanco con sospecha. Y cuando las plataformas no ofrecen una hoja de ruta o documentación, esa sospecha se endurece en la desconfianza.

Mientras que OpenAi de hecho tiene un suministro de cambio público Donde publica regularmente las principales actualizaciones en ChatGPT, hay muchos que creen que la compañía no entra en algunos detalles más complejos, instando a que sea más transparente. En su Gran pensamiento ensayo Desde el 19 de septiembre de 2024, Marcus argumentó que las notas de actualización superficial no son suficientes.

“Cada compañía de IA recibió una calificación fallida [on transparency] … Ni una sola empresa era realmente transparente en torno a los datos que usaban, ni siquiera Microsoft (a pesar de su servicio de labios a la transparencia) o OpenAi, a pesar de su nombre “, escribió. Agregó que” al mínimo, deberíamos tener un manifiesto de los datos en los que los sistemas están capacitados … debería ser fácil para cualquier persona interesada ver qué materiales con derechos de autor se han utilizado “.

Aunque Marcus no pidió “los cambios de cambio más detallados” en esas palabras exactas, su prescripción de la transparencia algorítmica, de datos y incidentes deja en claro que los resúmenes de actualización deben ser mucho más profundos, esencialmente exigiendo resúmenes de alto nivel y registros de actualizaciones completos y detrás de escena.

Lo que Operai ha dicho (y no)

En un ChangeLog publicado el 10 de abril de este año, Openai dijo que “a partir del 30 de abril de 2025, GPT-4 será retirado de ChatGPT y reemplazado por GPT-4”. OpenAi enmarcó el cambio como una actualización, señalando las pruebas internas de la cabeza a cara donde GPT-4O supera constantemente a GPT-4 “en escritura, codificación, STEM y más”. La compañía enfatizó que GPT-4 “permanecerá disponible a través de la API”, que mantiene intactos los flujos de trabajo empresariales.

Anteriormente, el CEO de Operai, Sam Altman, reconoció que las quejas sobre un GPT-4 “perezoso”, señalando en un Publicar en x en 2024 que “ahora debería ser mucho menos flojo”. Pero eso realmente no cambió lo que algunos usuarios piensan al que sea perezoso, como se evidencia en las muchas quejas anteriores.

Más recientemente, Operai publicó una 63 páginas Especificación de modelo dirigido a frenar “Sicofancia de IA“-El hábito de estar de acuerdo con los usuarios a toda costa. Joanne Jang, del equipo modelo-behavior El borde El objetivo es garantizar que ChatGPT “brinde comentarios honestos en lugar de elogios vacíos”. En esa misma entrevista, Jang dijo que “nunca queremos que los usuarios sientan que tienen que diseñar cuidadosamente su mensaje para no hacer que el modelo solo esté de acuerdo con usted”.

Y ayer, Altman admitió en un Publicar en x que “las últimas dos actualizaciones GPT-4O han hecho que la personalidad sea demasiado silófante y molesta (aunque hay algunas partes muy buenas)”, y agregó que OpenAi estaba “trabajando en las correcciones lo antes posible, algunas hoy y otras esta semana”. Altman publicó esto apenas dos días después anuncio que OpenAi había “actualizado GPT-4O y mejoró la inteligencia y la personalidad”.

Sin embargo, la compañía aún retiene los registros de cambios granulares, las revelaciones de datos de capacitación o las pruebas de regresión por actualización. Los desarrolladores obtienen notas de parche; Los consumidores no lo hacen. Esa opacidad alimenta la narrativa de rendimiento, incluso cuando se han actualizado los pesos del modelo.

O tal vez … somos nosotros

No todos están de acuerdo en que el modelo en sí sea peor. Algunos expertos en IA sugieren que la degradación siente que los usuarios pueden ser psicológicos. Argumentan que a medida que los usuarios se familiarizan con las capacidades de IA, lo que una vez se sintió mágico ahora se siente ordinario, incluso si los modelos subyacentes no han empeorado.

En un estudio reciente titulado “Adaptación hedónica en la era de la IA: una perspectiva sobre la disminución de los rendimientos de la satisfacción en la adopción de tecnología“Por Ganuthula, Balaraman y Vohra (2025), los autores exploraron cómo la satisfacción de los usuarios con la IA disminuye con el tiempo debido a la adaptación psicológica.

“La satisfacción del usuario con IA sigue una ruta logarítmica, creando así una ‘brecha de satisfacción’ a largo plazo a medida que las personas se acostumbran rápidamente a nuevas capacidades como expectativas”, señalaron en el estudio.

Es un punto justo. A medida que los usuarios aprenden cómo solicitar con mayor precisión, también se vuelven más en sintonía con las limitaciones y las fallas. Y a medida que OpenAi presenta barandillas para evitar salidas problemáticas, las respuestas pueden sentirse más seguras, pero también más tontas.

Aún así, como han argumentado Marcus y varios otros expertos, la transparencia no es solo una agradable de tener; Es una característica crítica. Y en este momento, parece que falta. Se deja ver si OpenAi se volverá más granular en su enfoque de la transparencia.

Confianza: el árbitro de IA

A medida que Operai corre hacia GPT-5, que se espera a finales de este año, la compañía enfrenta el desafío de retener la confianza del usuario incluso cuando las cosas no se sienten bien. Los usuarios de ChatGPT Plus ayudaron a impulsar el producto de Openai a una escala de consumo masiva. Pero también pueden ser los primeros en caminar si se sienten engañados.

Y con modelos de código abierto como Llama 3 y la tracción de ganancia de Mistral, que ofrece un poder comparable y más transparencia, la lealtad OpenAi que una vez daba por sentado ya no puede estar garantizada.

Continue Reading

Noticias

Google corre el riesgo de perder a Chrome, AI Education empujó

Published

on

Operai expresa interés en comprar Google Chrome

Nick Turley, el jefe de producto de OpenAi, recientemente fue noticia cuando expresó que Operai estaría interesado en comprar Google Chrome de Google (NASDAQ: Googl) si la oportunidad existiera. El Departamento de Justicia (DOJ) convocó a Turley para testificar en el caso antimonopolio de Google, en el que los tribunales de los Estados Unidos encontraron a Google culpable de violar las leyes antimonopolio con respecto a su dominio en los motores de búsqueda y la publicidad digital. Uno de los remedios propuestos del DOJ es obligar a Google a vender su navegador Chrome.

Probablemente no sea sorprendente que Operai quiera arrojar su sombrero al ring para comprar potencialmente a Chrome, el navegador de Internet más popular del mundo, con alrededor del 66% de la cuota de mercado global. Hace aproximadamente un año, se rumoreaba que Operai estaba construyendo su navegador web para competir con Chrome. Incluso llegaron a contratar a ex desarrolladores de Google como Ben Goodger y Darin Fisher, quienes trabajaron en el proyecto Chrome original.

A primera vista, puede parecer extraño que una compañía líder de inteligencia artificial generativa (AI) quiera tener un navegador web. Sin embargo, hacerlo beneficiaría directamente a las operaciones centrales de OpenAI. Primero, obtendrían acceso a una cantidad invaluable de datos de búsqueda generados por el usuario de los 3.4500 millones de usuarios de Chrome en todo el mundo, que podrían usarse para capacitar a sus modelos de IA. Más allá de eso, obtendrían un canal de distribución incorporado, lo que permite que cualquier nuevo producto Operai alcance los 3.45 mil millones de usuarios de Chrome casi instantáneamente a través de integraciones.

Ser propietario de Chrome también le daría a OpenAI un camino muy necesario hacia la rentabilidad. Se estima que los ingresos por publicidad solo desde el navegador aportan entre $ 17 mil millones y $ 35 mil millones por año, y eso ni siquiera cuenta las ofertas empresariales de Chrome y los modelos comerciales de asociaciones estratégicas que también generan ingresos.

Comprar Chrome sería una victoria masiva para Openai. Pero incluso si el Departamento de Justicia eventualmente obliga a Google a desinvertir a Chrome, Operai probablemente no sería la única compañía que se alineaba para hacer una oferta. La “prueba de remedios” que determinará el destino de Chrome comenzó el 21 de abril, pero no se espera una decisión final hasta agosto, por lo que tendremos que esperar y ver cómo se desarrolla esto.

Trump firma la orden ejecutiva para impulsar la educación de IA en las escuelas

Mientras tanto, una nueva orden ejecutiva relacionada con la inteligencia artificial salió de la Casa Blanca. El 23 de abril, el presidente Donald Trump firmó el Avance de la educación de inteligencia artificial para la juventud estadounidense Orden ejecutiva en efecto. La orden exige que se establezca una estrategia para preparar a los estudiantes (la fuerza laboral futura) y los educadores con el conocimiento, las habilidades y los recursos que necesitarán en una posición de fortaleza al usar la IA en los próximos años. En otras palabras, la Casa Blanca quiere crear una fuerza laboral educada en AI para ayudar a los Estados Unidos a mantenerse dominante en la economía global de IA.

Las iniciativas establecidas en el orden incluyen el aumento de la alfabetización de IA en la educación K-12, la creación de programas de desarrollo profesional para poner a los educadores en la mejor posición para enseñar a los estudiantes sobre la IA y crear aprendizajes registrados relacionados con la IA para proporcionar a los estudiantes de secundaria experiencias de aprendizaje basadas en el trabajo en la industria.

Lo que diría que es más importante que el contenido real de la orden ejecutiva es la noción más grande de que la Casa Blanca está proyectando que la IA es tan significativa que creen que las personas que actualmente están en el jardín de infantes, cinco y seis años, se necesitan para comenzar a aprender la IA ahora porque será importante para ellos un mínimo de 12 años en el camino cuando se gradúen de la escuela secundaria y pueden ingresar al trabajo a tiempo completo.

En este momento, tener conocimiento de IA, las habilidades para usarlo de manera efectiva, y el conocimiento práctico de las mejores herramientas y recursos es esencial, y aquellos que poseen estos pueden sobresalir. Entonces, solo por esa razón, es comprensible, razonable y probablemente incluso necesario agregar IA a los planes de estudio escolar, especialmente para los estudiantes mayores de K-12 que están a solo unos años de trabajar.

Pero hacer una predicción de 12 años sobre una pieza de tecnología es realmente difícil. Aunque podría decirse que es inteligente centrarse en la educación de la IA en este momento, ¿quién sabe cuán importante seguirá siendo la IA dentro de 12 años? En ese momento, fácilmente podríamos haber pasado a la próxima tecnología, y la IA podría ser una segunda naturaleza para los adultos jóvenes que tener planes de estudio completos que giran a su alrededor parecerán redundantes para la experiencia e interacciones que el mismo grupo está obteniendo en otros lugares de forma natural.

Amazon y Nvidia retroceden contra las preocupaciones del centro de datos de la IA

En las últimas semanas, las decisiones de algunos gigantes tecnológicos, particularmente Microsoft (NASDAQ: MSFT), plantearon preguntas sobre la demanda real de infraestructura de IA. Microsoft anunció que suspendería y detendría varios de sus planes anunciados previamente para construir y escalar sus centros de datos de IA, que cuestionaban cuál era realmente el propósito subyacente de la decisión; Muchas personas, incluidos me incluyen, se refieren a la decisión de Microsoft porque podría deberse a la demanda real de la IA del consumidor que no coincide con las proyecciones que muchos gigantes tecnológicos hicieron cuando se trata de la demanda de los consumidores de bienes y servicios de IA.

Sin embargo, Amazon (NASDAQ: AMZN) y NVIDIA (NASDAQ: NVDA) comentaron sus planes para la expansión del centro de datos. En una conferencia organizada por el Instituto Hamm para la Energía Americana, el Vicepresidente de Centros de Datos Globales de Amazon, Kevin Miller, dijo: “Realmente no ha habido un cambio significativo [in demand]. Continuamos viendo una demanda muy fuerte, y estamos buscando ambos en la próxima pareja. [of] años, así como a largo plazo, y ver los números solo subiendo ”.

El director senior de sostenibilidad corporativa de Nvidia, Josh Parker, también intervino, diciendo: “No hemos visto un retroceso” y enfatizamos que “estamos viendo un tremendo crecimiento en la necesidad de un nuevo poder de base. Estamos viendo un crecimiento sin precedentes”.

Sin embargo, no creo que los comentarios de estos dos gigantes tecnológicos cuenten la historia completa, o incluso la historia real, especialmente el comentario de Parker. Sin lugar a dudas, la demanda de poder está creciendo. Pero eso no es lo mismo que la demanda de rendimiento de datos, que muchos creen que es el factor real detrás de Microsoft que suspende sus planes. No es ningún secreto que las operaciones de IA y los centros de datos que los alojan consumen cantidades masivas de energía y pueden forzar las redes, especialmente a medida que los modelos de IA obtienen más avance y necesitan aún más potencia para operar.

Pero eso todavía no nos dice mucho sobre la demanda real del consumidor de bienes y servicios de IA. Sí, las operaciones de IA probablemente serán más eficientes si tienen más ancho de banda y potencia, e independientemente, a medida que los modelos continúan mejorando, lo que se necesita para entrenar y ejecutar modelos probablemente requerirá más/mejor infraestructura, pero el argumento que Nvidia y Amazon suenan mucho más como un argumento para el consumo de energía en crecimiento que una señal de la señal de los productos de la IA de la IA. Nos da un caso de por qué las empresas podrían no retirar los planes de expansión de sus centros de datos, pero en realidad no aborda el mayor miedo que los inversores y los expertos de la industria tienen: ¿qué pasa si los consumidores simplemente no quieren IA a la escala que se haya proyectado?

Para que la inteligencia artificial (IA) trabaje en la ley y prospere frente a los crecientes desafíos, necesita integrar un sistema de cadena de bloques empresarial que garantice la calidad y la propiedad de la entrada de datos, lo que permite mantener los datos seguros al tiempo que garantiza la inmutabilidad de los datos. Echa un vistazo a la cobertura de Coingeek sobre esta tecnología emergente para aprender más Por qué Enterprise Blockchain será la columna vertebral de AI.

Mirar | Alex Ball sobre el futuro de la tecnología: desarrollo de IA y emprendimiento

https://www.youtube.com/watch?v=ybzhoymfzwu title = “YouTube Video Player” FrameBorDer = “0” permitido = “acelerómetro; autoplay; portapapeles-write; cifrado-media; gyroscope; imagen-in-pinicure; web-share” referrerPolicy = “estricto-origin-when-cross-órigin” permitido aficionado = “>”> “>”

Continue Reading

Noticias

Estoy cancelando MidJourney para GPT-4O

Published

on

Resumen

  • GPT-4O crea imágenes impresionantes y realistas de manera más eficiente que MidJourney.

  • La IA multimodal de Chatgpt puede regenerar inteligentemente las viejas imágenes de mediana edad, mejorando la generación de imágenes.

  • Las herramientas integradas de generación de imágenes y chatbot de ChatGPT revolucionan el proceso de creación de imágenes colaborativas.

He sido un fanático leal de MidJourney durante algunos años, especialmente después de que el modelo V4 cayó y voló todo. ¡Al menos en mi opinión! Ahora, sin embargo, estoy cambiando de equipo al último modelo de ChatGPT, que reemplaza a Dall-E.

No creo que haya visto un salto dramático en habilidad y calidad de una vez, y cuanto más he estado usando la nueva función de generación de imágenes de GPT-4O, menos he sentido la necesidad de usar MidJourney. Ahora, esa suscripción se cancela.

GPT-4O crea imágenes impresionantes

Obtenemos la primera y más importante razón por la que he cambiado del camino: las imágenes se ven absolutamente increíbles. MidJourney siempre se ha destacado en la creación de buenas imágenes artísticas que parecen pinturas o arte digital. Sin embargo, siempre he sentido que se queda un poco corto cuando se trata de imágenes más utilitarias. El tipo de cosas que necesito crear cuando ninguno de los sitios de imagen de Stock que uso tiene exactamente la imagen correcta.

Ahora, GPT-4O puede hacer imágenes realistas y utilitarias que parecen fotografías sin mucho alboroto. MidJourney todavía tiene un ambiente particular que evita que este tipo de imágenes se vean reales, pero GPT-4O tiene resultados sorprendentemente convincentes.

Sydney Louw Butler / Geek / GPT-4O

Se equivocó nuestro logotipo, pero según el bot, esto es por diseño para evitar la infracción de las marcas registradas. De cualquier manera, esa no es una persona real, y ni una camisa real, y honestamente no lo hubiera sabido.

Agregue a eso, GPT-4O ahora también es capaz de un toque artístico similar a MidJourney (tal como es), y parece más inteligente ir con 4O.

Imagen de chatgpt de un dragón de fantasía.
Sydney Louw Butler / Geek / GPT-4O

No es solo por las habilidades puras de generación de imágenes, sino porque mi suscripción a ChatGPT incluye todo lo que uso chatbots de IA. Por lo tanto, es una reducción neta en los costos de suscripción. Había estado aferrando a MidJourney, porque ChatGPT no podía generar imágenes que consideraba utilizables, pero ese ya no es el caso.

Relacionado

Creación de arte con MidJourney: consejos y técnicas para principiantes

Cómo provocar una imagen más bonita.

Realmente puedo arreglar mis viejas fotos de mediana ranura

Una de las mejores cosas de la generación de imágenes con ChatGPT es que el ChatGPT AI multimodal puede mirar las imágenes que proporciona y usarlas de manera inteligente con su propio sistema de generación de imágenes.

Por ejemplo, aquí tomé una foto detrás de escena de Patrick Stewart como Capitán Picard con el cabello, y le pedí a Chatgpt que lo cambiara a un salmonete.

Pidiendo a Chatgpt que le dé un salmonete al Capitán Picard.

Entonces puede ver, aunque la nueva imagen se genera completamente desde cero, los mismos elementos básicos se han replicado. Esto significa que puedo tomar imágenes de mediana edad que no puedo hacer bien, o con las que no estoy contento, y alimentarlas en GPT-4O, pidiéndole que lo arregle. Como esta imagen que se supone que es Neo La matriz, pero Midjourney seguía malinamente la cara.

Lo que es realmente genial es que ChatGPT analizó primero la imagen para identificar lo que cree que no funciona, luego tuvo un rápido de ida y vuelta conmigo para clavar lo que estuve de acuerdo y lo que quería.

La iteración de la imagen es un cambio de juego

Chatgpt Imagen de un hombre que le dice a un robot qué pintar.
Sydney Louw Butler / Geek / GPT-4O

Es esta conversación iterativa de ida y vuelta la que realmente me hace abrir Chatgpt en lugar de MidJourney cuando quiero hacer algo. MidJourney es solo un modelo de generación de imágenes, pero usar ChatGPT se siente más como trabajar con un ilustrador o artista, darles ejemplos de lo que quiero, pedirles que hagan enmiendas a las imágenes existentes y, en general, colaborando para crear las imágenes que necesito.

Nunca había sentido que yo fuera el “artista” cuando usaba software de generación de imágenes, pero más como si todavía fuera un cliente encargando una imagen. Excepto en este caso, el servicio está siendo proporcionado por la inteligencia artificial. El único problema es que el software es poco comunicativo, y tengo que esperar que mi inmediato lo frote de la manera correcta.

Ahora, con los poderes de generación de imágenes y chatbot de GPT combinados, se siente absolutamente como si estoy involucrando una entidad inteligente que comprende lo que estoy pidiendo, y puedo ver su propia producción y ver que está en mal estado cuando es necesario.

El conocimiento de GPT lo distingue

GPT tiene una gran tienda de conocimiento general que enriquecemos su autoprueba para la generación de imágenes, comprende las imágenes que proporciona y comprende el contexto cuando solicita algo. Particularmente me gusta cuando ChatGPT me interrogue en detalles que no pensé en pedir, para que tenga una idea más completa de lo que quiero.

ChatGPT ofrece ideas para modificar una solicitud de generación de imágenes.

Esto ha resultado en una tasa de éxito mucho más alta, y paso menos tiempo esperando que la imagen genere y más tiempo obtenga exactamente lo que quería.

Todavía estoy descubriendo nuevos trucos

Debido a que la herramienta de generación de imágenes GPT-4O es más que la suma de sus partes, constantemente descubro cosas nuevas que puedo hacer con ella. La capacidad de construir el concepto para la imagen en detalle primero, en una conversación con el bot, significa que ahora puedo intentar cosas que simplemente no funcionarían en la mitad de la pareja. Especialmente cuando se trata de diseño, adherencia rápida y generación de texto.

Relacionado

¿Puede GPT-4O colorear fotos viejas? Más o menos, ¡pero ten cuidado!

Colorearme sorprendido.

Todavía estoy haciendo muchas de las mismas cosas que estaba haciendo con MidJourney, pero es más intuitivo, más exitoso, y ahora con este nuevo modelo avanzado de generación de imágenes, argumentaría que se ve igual de bien, si no mejor, que la parte de la pareja en la mayoría de los casos.


Dicho esto, mientras escribo esto, el modelo V7 de MidJourney está en la etapa alfa de desarrollo, y no apostaría a que la compañía sacara las grandes armas para competir con GPT-4O. Entonces, quién sabe, tal vez vuelva a cambiar si la nueva tecnología me impresiona lo suficiente.

Continue Reading

Trending