Han pasado más de 700 días desde que OpenAI presentó su ahora popular chatbot ChatGPT, marcando extraoficialmente el comienzo de la era de la IA y una carrera de las empresas para sacar provecho de ella.
Primero vino un período de experimentación por parte de clientes corporativos. Probaron la IA de forma limitada: infundieron algunas de sus herramientas internas con la tecnología incipiente para ver qué funcionaba y qué no. Luego, más recientemente, las empresas empezaron a volverse más serias y seguras. Invirtieron más en IA y la hicieron más central en sus operaciones.
“2023 fue realmente un año en el que la industria y las empresas se centraron en la IA”, dice James Dyett, director de ventas de plataformas de OpenAI. “2024 es el año en el que empezaremos a ver implementaciones a escala real de nuestra tecnología”.
El miércoles, Fortuna publicó su segunda lista anual Fortune 50 AI Innovators, destacando las empresas de AI que están liderando en esta nueva fase de adopción de la tecnología. Son los proveedores que han ganado mayor tracción, como financiación o clientes, y cuya IA se considera una de las mejores de su clase.
Además de OpenAI, las grandes empresas tecnológicas de la lista incluyen a Microsoft, el fabricante de chips Nvidia, la empresa de software empresarial Salesforce y el gigante chino del comercio electrónico Alibaba. Entre las nuevas empresas se encuentran la empresa de tecnología de clonación de voz ElevenLabs, la empresa francesa de chatbot de IA Mistral, la empresa de IA con sede en China ModelBest y la empresa de biotecnología Xaira Therapeutics, todas ellas con menos de tres años de existencia.
Por supuesto, la IA todavía está en sus inicios y el orden jerárquico de la industria aún es muy fluido. Las empresas que están en la cima hoy enfrentan muchos desafíos, incluido el alto costo de los modelos de capacitación y la dificultad de conseguir suficientes clientes que paguen para obtener ganancias. Al mismo tiempo, la industria tiene un exceso de nuevas empresas que hacen lo mismo, a menudo con poca diferencia entre los productos que venden. Una reducción, según todos los indicios, es inevitable.
De los conceptos básicos de la IA a soñar en grande
Hasta ahora, las empresas que adoptan la IA se han centrado en mejorar la productividad de los empleados, como ayudar a los desarrolladores de software a escribir código o abordar preguntas de servicio al cliente, reduciendo así la cantidad de llamadas que debe realizar un servicio de atención al cliente.
Estos ajustes pueden mejorar marginalmente las operaciones comerciales. Pero Eric Boyd, vicepresidente corporativo de la plataforma Azure AI de Microsoft, dice que los ejecutivos deberían soñar en grande.
“Probablemente esté perdiendo una oportunidad”, advierte Boyd, afirmando que los clientes corporativos deberían considerar cambiar por completo su forma de hacer negocios.
Microsoft es, por supuesto, uno de los mayores beneficiarios del auge de la IA. Sus ingresos relacionados con la IA pronto alcanzarán una tasa de ejecución anual de 10.000 millones de dólares, lo que convertirá al segmento empresarial en el más rápido en la historia de la empresa en alcanzar ese hito.
En general, las asociaciones corporativas entre proveedores de IA y clientes corporativos se han disparado en 2024, incluidos los pactos de OpenAI con la empresa de biotecnología Moderna y el gigante financiero Morgan Stanley. Acuerdos similares han ayudado a elevar la valoración de OpenAI a 157 mil millones de dólares, y más recientemente recaudaron 6,6 mil millones de dólares en una enorme ronda de financiación en octubre, casi duplicando la valoración de la compañía con respecto a nueve meses antes.
Durante el año pasado, se han presentado nuevos modelos de IA de gran tamaño a un ritmo constante, incluido el lanzamiento preliminar de o1, que OpenAI promociona por sus capacidades de “razonamiento” más sólidas. Mientras tanto, Meta introdujo tres versiones del modelo de lenguaje de código abierto de la compañía en 2024, frente a las dos del año anterior. La adopción de muchos de estos modelos fundamentales está creciendo rápidamente.
“Hemos alcanzado los 500 millones de descargas, diez veces más que el año pasado”, dice Ahmad Al-Dahle, vicepresidente de Meta y director de genAI. “Hemos visto una adopción increíble en las empresas Fortune 500 que aprovechan Llama para sus casos de uso internos”, citando el nombre del modelo de lenguaje grande de Meta.
¿Puede la IA ayudar a tratar los síntomas de la atención sanitaria?
La atención médica se encuentra entre los sectores especialmente preparados para beneficiarse de la IA, especialmente considerando su reputación de altos costos, complejidad administrativa, escasez de personal y agotamiento de los médicos. Según la consultora McKinsey, la IA podría generar 370 mil millones de dólares en valor para la atención médica al acelerar el descubrimiento y desarrollo de fármacos y relacionar con mayor precisión a los pacientes con tratamientos potenciales.
Xaira Therapeutics se encuentra entre las nuevas empresas de desarrollo de fármacos centradas en la IA que han causado sensación. En abril, obtuvo mil millones de dólares en financiación y desde entonces comenzó su primer esfuerzo para idear nuevos tratamientos farmacológicos, estableció una oficina en San Francisco y realizó nombramientos clave, incluida la contratación de un director científico.
La startup tiene la intención de aplicar IA generativa al descubrimiento, la producción y los ensayos clínicos de fármacos, con el objetivo de mejorar todo el proceso de desarrollo de fármacos y comercializar tratamientos más eficaces más rápidamente.
“Creemos que la IA nos permitirá transformar la forma en que realizamos los tres pasos y tener mucho más éxito”, afirma Marc Tessier-Lavigne, director ejecutivo de Xaira Therapeutics.
Abridge, que ayuda a los médicos a ahorrar tiempo transcribiendo y organizando automáticamente sus conversaciones con los pacientes, anunció en febrero una inversión Serie C de 150 millones de dólares. También ha revelado un ritmo constante de nuevos contratos con empresas como Yale New Haven Health System y The University of Vermont Health Network.
“Nuestra oportunidad es aliviar realmente a los médicos y ayudarlos a concentrarse en la persona más importante de la sala… el paciente”, dice Shiv Rao, director ejecutivo y fundador de Abridge, y también cardiólogo en ejercicio.
Cita encuestas que muestran que los médicos están abrumados y que muchos incluso están considerando abandonar este campo por completo. Los hospitales rurales, que ya corren el riesgo de cerrar debido a limitaciones financieras, se verían especialmente afectados por ese éxodo.
Rao dice que el valor de Abridge es que es una aplicación de IA específica para un sector, entrenada específicamente en datos médicos y de pacientes, y que está destinada a abordar múltiples mercados, desde grandes centros médicos académicos hasta consultorios privados, y en diferentes partes del sistema de atención médica. incluyendo cardiología, atención primaria y sala de emergencias. Este año, Abridge, junto con Mayo Clinic y el proveedor de software Epic, presentaron un producto de documentación de IA dirigido específicamente a enfermeras.
Para conseguir acuerdos, Rao dice que debe hacer una propuesta exitosa a tres ejecutivos: el director de información médica, el director de información y el director financiero. “Necesitamos que los tres crean que esto genera un retorno de la inversión para sus médicos”, afirma Rao.
La IA es a la vez la nueva estrella y villana de Hollywood
La industria creativa también presenta nuevas oportunidades con la IA, pero también cuestiones espinosas sobre la protección de los derechos de autor, la amenaza potencial a los medios de vida de los artistas y grandes cambios en el arte, las películas, el diseño y la publicidad. El discurso de la empresa de vídeos de IA Runway, que en junio lanzó su modelo más nuevo que puede crear videoclips de 10 segundos a partir de indicaciones de texto, dice que la IA puede ayudar a acelerar los proyectos de vídeo y dar a los creadores más tiempo.
“El cine es una forma de arte gracias a la tecnología”, dice Cristóbal Valenzuela, director ejecutivo y cofundador de Runway. “Estas son sólo herramientas”.
Runway trabaja con importantes estudios cinematográficos, incluido Lionsgate, tras una asociación que firmaron en septiembre. El acuerdo implica que dos personas creen y entrenen un nuevo modelo de IA personalizado en el catálogo patentado de la compañía de entretenimiento, que incluye Los juegos del hambre y Sierra ciclo de cine.
Mientras tanto, sus clientes han utilizado la herramienta de generación de imágenes Firefly AI de Adobe para crear más de 13 mil millones de imágenes. Los clientes han utilizado la tecnología, por ejemplo, para crear imágenes para envases de Barbie y para botellas personalizables vendidas por Gatorade.
“Estamos entusiasmados de ver que estas empresas no solo utilizan la IA de generación para facilitar la vida de sus departamentos creativos, sino que, en algunos casos, permiten a sus clientes personalizar y cambiar el compromiso con la marca”, afirma Alexandru Costin, vicepresidente. de IA generativa en Adobe.
Adobe ha presentado recientemente una herramienta de vídeo con IA generativa y una función que permite a los artistas dibujar una forma que Adobe Illustrator luego rellena con una imagen mediante un mensaje de texto. Adobe enfatiza que su IA generativa se entrena únicamente con datos que la empresa tiene derecho a utilizar o que son de dominio público y, por lo tanto, no viola las leyes de derechos de autor.
En general, Meta dice que los casos de uso que parecían imposibles antes del actual auge de la IA ahora se están convirtiendo en una realidad a medida que los modelos de IA se vuelven más inteligentes. Algunos clientes que utilizan Llama hoy incluyen la consultora Accenture, que creó un LLM personalizado para producir de manera más eficiente su informe ESG anual, mientras que el gigante de las telecomunicaciones AT&T utilizó versiones mejoradas de los modelos Llama para ayudar a acelerar los tiempos de respuesta a las consultas de los clientes.
Boyd de Microsoft dice que, si bien más de 60.000 clientes utilizan Azure AI en la actualidad, muchos líderes de la alta dirección todavía están pensando en el uso responsable y ético de la IA, en cómo administrar sus datos y en la búsqueda del retorno de la inversión. “En lo que nos hemos centrado es en cómo ayudamos a nuestros clientes a aprovechar esta nueva tecnología que realmente llega a todas las facetas de su negocio”, pregunta Boyd.
Dyett de OpenAI dice que no está claro cuál será el próximo gran avance en la IA ahora que los aspectos básicos ya están resueltos en gran medida. Pero quien lleve la tecnología al siguiente nivel tendrá que correr algunos riesgos. Dyett dijo: “Será una empresa que se arriesga y experimenta con algo que no se ha hecho antes, comienza a ver algunos resultados realmente positivos y eso hace que el resto del mercado funcione”.
El Asistente de Google está siendo reemplazado por Gemini
SOPA Images/LighTrocket a través de Getty Images
Google Assistant está evolucionando a Géminis, trayendo potentes nuevas capacidades de IA pero también descontinuando algunas características favoritas. Si usa el Asistente de Google para establecer temporizadores, reproducir música o controlar su hogar inteligente, prepárese para algunas interrupciones significativas a medida que la compañía comienza a reemplazar al asistente de nueve años con su chatbot Gemini más nuevo, más potente y alimentado por IA. Este artículo describirá los cambios clave que puede esperar, ayudándole a prepararse para la transición y comprender lo que será diferente.
Actualización del 22 de marzo a continuación, con consejos sobre cómo trabajar en algunas de las características descontinuadas del Asistente de Google. Este artículo fue publicado originalmente el 20 de marzo.
Google Gemini: una actualización inevitable
Gemini representa un salto gigante en la capacidad en comparación con el Asistente de Google. Podrá chatear con Gemini de manera similar a la forma en que hablas con Google Assistant ahora, pero como se basa en modelos de lenguaje grande (LLM) con AI, Gemini puede ser mucho más conversacional y útil, capaz de realizar tareas más desafiantes y capaz de adaptarle sus respuestas específicamente a usted.
Google ya ha comenzado la transición a Gemini. Los teléfonos inteligentes son los primeros en cambiar y serán seguidos por altavoces inteligentes, televisores, otros dispositivos domésticos, dispositivos portátiles y automóviles en los próximos meses.
Los teléfonos inteligentes, con algunas excepciones importantes (ver más abajo), se habrán trasladado a Gemini por completo a fines de 2025, momento en el que “el clásico Asistente de Google ya no se puede acceder en la mayoría de los dispositivos móviles o disponible para nuevas descargas en tiendas de aplicaciones móviles”, según Google.
Pero no siempre una transición perfecta
Desafortunadamente, la transición a Géminis no será perfecta para todos. Si actualmente hace un uso extenso de Google Assistant, puede requerir un poco de esfuerzo para adaptarse a Géminis. Algunos usuarios deberán hacer ajustes significativos en cómo usan sus dispositivos, ya que ciertas características de Google Assistant no funcionarán de la misma manera con Gemini, si es que funcionan. Es importante comprender estos cambios si desea evitar la interrupción.
Google ha eliminado varias características del Asistente de Google antes de la transición a Gemini.
GOOGLE
Varias características del Asistente de Google descontinuadas
Google tiene un historial de eliminación de funciones que considera “infrautilizadas” por los clientes. Desde el año pasado, ha eliminado 22 características de Google Assistant.
Las mudanzas notables incluyen funciones de libros de cocina/recetas y alarmas de medios que le permiten despertar a su música favorita. Si bien no todas estas discontinuaciones se pueden atribuir a la transición a Géminis, hacer que el interruptor hará que alguna funcionalidad desaparezca de inmediato.
Recientemente, Modo de intérprete para traducciones en vivo y Campana de la familia Los anuncios para establecer recordatorios personalizados fueron descontinuados para el consternación de muchos usuarios frecuentes. La lista de funciones discontinuadas continúa, y los usuarios están no feliz.
Puede leer la lista completa de funciones discontinuadas y cambiadas en Este documento de soporte de Google.
Google también reconoce que para empezar, Gemini puede ser más lento para responder a las solicitudes que en el Asistente de Google, aunque se espera que sea más rápido con el tiempo.
Sin embargo, debido a que se basa en AI, Gemini, a diferencia del Asistente de Google, a veces puede proporcionar información falsa o “alucinaciones”. Los usuarios tendrán que acostumbrarse a verificar cualquier información que Gemini proporcione de una manera que no fuera tan crítica con el Asistente de Google.
Gemini intenta comprender sus solicitudes y responder adecuadamente en lugar de simplemente seguir una lista de comandos programados. Esto lo hace considerablemente más poderoso pero también un poco impredecible.
Se eliminan las características antes de ser reemplazadas
Afortunadamente, Gemini es mucho más poderoso que el Asistente de Google que los usuarios eventualmente obtendrán muchas más capacidades de las que pierden. Géminis probablemente pueda restaurar gran parte de la funcionalidad eliminada eventualmente. Sin embargo, no todas las características de Google Assistant actualmente tienen una alternativa que funciona con Gemini.
¿Puede mi dispositivo usar Gemini?
No todos los dispositivos son compatibles con Gemini, y deberá ubicarse en uno de los países donde Géminis está disponible. Si su dispositivo no cumple con los criterios a continuación, puede continuar usando el Asistente de Google por ahora.
Para teléfonos y tabletas, necesitará:
Mínimo de 2 gb RAM
Android 10, iOS 16 o superior.
Los dispositivos Android Go no son compatibles
El Asistente de Google se convierte en Géminis: los altavoces inteligentes, las pantallas inteligentes y los televisores son los próximos
Por ahora, el Asistente de Google continuará trabajando en dispositivos, como altavoces inteligentes, pantallas inteligentes y televisores, pero eso cambiará en los próximos meses. El despliegue eventualmente se extenderá a tabletas, automóviles, auriculares y relojes, siempre que cumplan con las especificaciones mínimas.
Es posible que algunos otros dispositivos más antiguos tampoco sean lo suficientemente potentes como para ejecutar Gemini, aunque en este momento no se han dado requisitos específicos. Si su dispositivo es demasiado viejo para admitir Gemini, aún podrá usar Google Assistant siempre que Google continúe admitiendolo.
Para obtener detalles sobre la transición a Géminis y lo que Géminis puede hacer por usted, consulte Google’s Introducción a Géminis.
Actualización del 22 de marzo. Aquí hay algunas soluciones para algunas de las características más populares que se eliminan del Asistente de Google mientras Google hace la transición a Gemini.
Modo de intérprete
Si bien traduce con precisión palabras, frases y documentos completos, Gemini actualmente no reemplaza directamente la función de modo de intérprete de traducción en vivo de Google Assistant. Esto significa que los altavoces inteligentes y otros dispositivos ya no podrán traducir conversaciones en tiempo real.
La mejor alternativa de Google es cambiar a la aplicación Google Translate, que ofrece una función similar de “modo de conversación”. Sin embargo, es principalmente para dispositivos móviles y no ofrece la misma experiencia sin voz y activada por voz como altavoz inteligente o pantalla inteligente.
Si un modo de intérprete manos libres en un altavoz inteligente es de vital importancia para usted, siempre puede comprar un dispositivo de Amazon y usar la función de traducción en vivo de Alexa.
Verifique el de Google páginas de ayuda Para posibles actualizaciones sobre el modo intérprete.
Comandos de voz de Google Photos, configuración del marco de fotos y configuración de pantalla ambiental
Lamentablemente, ya no podrá usar su voz para favoritas y compartir sus fotos o preguntar cuándo y dónde fueron tomadas. Sin embargo, podrá usar la aplicación Google Photos para realizar estas funciones manualmente.
Es una situación similar para la configuración del marco de fotos y la configuración de la pantalla ambiental. Ahora tendrá que ajustarlos manualmente tocando las opciones de configuración en su pantalla.
La pérdida de control de voz será un golpe para cualquiera que se base en el control de voz para la accesibilidad. Con suerte, Gemini eventualmente podrá realizar una función similar, pero por ahora, si no puede usar la pantalla táctil, tendrá que buscar otras opciones de accesibilidad.
Aprenda a usar las rutinas de Google Home
Algunas de las características del Asistente de Google que Google ha eliminado, como Family Bell, se puede aproximar utilizando las rutinas de Google. Sin embargo, el proceso de configuración será más complicado que antes. Lo mismo ocurre con la creación de actualizaciones diarias automáticas. Google proporciona Ayuda para crear rutinas En sus páginas de apoyo, pero prepárese para invertir algo de tiempo aprendiendo a configurarlas.
Seguir @Paul_Monckton en Instagram.
ForbesLa nueva fuga de borde de Galaxy S25 revela la valiosa oferta sorpresa de SamsungPor Paul MoncktonForbesGoogle Gemini ahora accede a su historial de búsqueda: lo que necesita saberPor Paul Monckton
La lucha entre los creadores y los titanes tecnológicos de IA por la ley de derechos de autor y la licencia se está calentando. En una carta presentada a la Oficina de Política de Ciencia y Tecnología de la Administración Trump el 15 de marzo, más de 400 actores, escritores y directores pidieron al gobierno que defendiera la ley actual de derechos de autor.
Los firmantes incluyen a Paul McCartney, Guillermo del Toro, Ava Duvernay, Cynthia Erivo, Phoebe Waller-Bridge, Ayo Edebiri, Chris Rock y Mark Ruffalo. La carta solicita específicamente al gobierno que no otorgue excepciones de uso justo a las compañías tecnológicas que capacitan la IA.
El uso justo es un concepto fundamental en la ley de derechos de autor que brinda a las personas una excepción para usar contenido protegido, incluso si no son el titular de los derechos de autor, en casos limitados y específicos. Anteriormente, las compañías de IA, hambrientas por el contenido generado por los humanos para capacitar y mejorar sus modelos de IA, han necesitado pagar a los editores y catálogos de contenido por el acceso a ese material. Una excepción de uso justo facilitaría que las compañías tecnológicas accedan a contenido sin obstáculos legales.
Google y Openai propusieron cambios similares a la ley actual de derechos de autor en sus propuestas para el plan de acción de IA de la administración. Google escribió que tales excepciones le permiten “evitar negociaciones a menudo altamente impredecibles, desequilibradas y largas con los titulares de datos durante el desarrollo del modelo”. Operai escribió que las protecciones de uso justo para la IA son necesarias para proteger la seguridad nacional estadounidense.
Parte del reciente impulso gubernamental alrededor de la IA es una preocupación por la pérdida de la posición global y una ventaja tecnológica sobre el desarrollo de IA a adversarios como China. La IA china, como el rival de chatgpt Deepseek, continúa procesando, pero las preocupaciones abundan sobre su seguridad y falta de barandillas.
En otras palabras, compañías tecnológicas como Google y OpenAI, cada una valorada por la capitalización de mercado en los cientos de miles de millones y billones de dólares, no quieren pasar por el proceso legal establecido y pagar los derechos del contenido que necesitan para que su AIS sea competitivo con los desarrollados por China. Y quieren que la administración Trump codifique las protecciones para ellos como parte de su plan de acción de IA.
Los firmantes de Hollywood se oponen firmemente a la posibilidad de tal reescritura de la ley de derechos de autor. “Estados Unidos no se convirtió en una potencia cultural global por accidente”, dice la carta. “Nuestro éxito se deriva directamente de nuestro respeto fundamental por la IP y los derechos de autor que recompensa la toma de riesgos creativos por estadounidenses talentosos y trabajadores de todos los estados y territorio”.
La Oficina de Derechos de Autor de EE. UU. Ha estado desarrollando orientación sobre cómo manejar los reclamos de derechos de autor por contenido generado por IA. Pero la gente ha estado preocupada durante años, e incluso demandó, cómo los modelos de IA están entrenados de una manera que potencialmente viola los derechos de los titulares de derechos de autor. El doble huelga en el verano de 2023 por miembros del Guild de Escritores de América y el Gremio de Actores de Screen y la Federación Americana de Artistas de Televisión y Radio, o Sag-Aftra, incluyó a la IA como una de sus principales preocupaciones. Ni Openai ni Google han compartido exactamente qué contenido constituye sus bases de datos de capacitación para ChatGPT y Gemini.
La ecuación de derechos de autor se vuelve aún más complicada, ya que sabemos al menos una compañía que recibió un reclamo de derechos de autor para una imagen cuya IA genera cada parte. Deja espacio para la incertidumbre en cada lado del desastre que es los derechos de autor y la IA.
La administración Trump y la IA
Hasta este punto, no ha habido un progreso mucho significativo en la supervisión del gobierno o la legislación que regula cómo los gigantes tecnológicos como OpenAI y Google desarrollan IA. El ex presidente Biden consiguió que muchas de las principales compañías tecnológicas se comprometieran voluntariamente a desarrollar AI de manera responsable e intentó promulgar algunas barandillas en torno al desarrollo de la IA a través de la orden ejecutiva. Pero a las pocas horas de ser inaugurado, Trump retrocedió la orden ejecutiva de AI de Biden con una de las suyas.
En su propia orden ejecutiva sobre IA, Trump dijo que quiere “mantener y mejorar el dominio global de IA de Estados Unidos”. El Plan de Acción de AI es cómo planea promulgar su versión de la política tecnológica. El vicepresidente Vance presentó el plan, y más ampliamente la opinión de la administración sobre la tecnología, en una cumbre internacional sobre IA en enero.
Vance dijo: “Cuando conferencias como esta se convierten en discutir una tecnología de vanguardia, a menudo, creo que nuestra respuesta es ser demasiado consciente de sí misma, demasiado requerida por el riesgo. Pero nunca he encontrado un gran avance en la tecnología que claramente nos llama a hacer precisamente lo contrario”.
Además del llamado a los comentarios, una orden ejecutiva de enero del presidente Trump pidió que American AI estuviera “libre de sesgos ideológicos o agendas sociales diseñadas”.
Al mismo tiempo, los líderes tecnológicos como Sundar Pichai de Google y Sam Altman de Openai se han acercado a la nueva administración. Altman donó un millón de dólares de su propio dinero al Fondo de inauguración de Trump, y Google como compañía donó lo mismo. Altman y Pichai obtuvieron asientos de primera fila para la ceremonia de juramentación, junto con Mark Zuckerberg de Meta, Elon Musk de X y Jeff Bezos de Amazon. Es probable que los ejecutivos esperen que llegar al lado bueno de Trump los ayude a allanar el camino para el futuro de su empresa tecnológica, incluso si, en este caso, molestaría décadas de ley establecida de derechos de autor.
Muchos grupos de personas, no solo creadores, están preocupados de que el desarrollo y el uso no regulado de la IA puedan ser desastrosos.
¿Qué viene después para los derechos de autor y la IA?
Se espera que la Oficina de Derechos de Autor de los Estados Unidos publique un informe más sobre AI, específicamente sobre “implicaciones legales de capacitar a los modelos de IA en trabajos con derechos de autor, consideraciones de licencia y la asignación de cualquier posible responsabilidad”.
Mientras tanto, una serie de demandas activas podrían establecer precedentes importantes para la rama judicial. Thomson Reuters acaba de ganar su caso que dijo que una compañía de IA no tenía un caso de uso justo para usar su contenido para construir IA. La legislación como la Ley No Fakes también se está abriendo camino a través del Congreso, pero no está claro qué tipo de legislación futura de IA tendrá.
Para obtener más información, consulte cómo AI y Art Clash en SXSW y por qué la promesa anti-AI de una compañía resuena con los creadores.
Como Openai introdujo lo que todos los demás llaman a los agentes SDK, admitió que usar las capacidades existentes de manera unida “puede ser un desafío, a menudo requerir una amplia iteración rápida y una lógica de orquestación personalizada sin suficiente visibilidad o soporte incorporado”. En resumen, el uso de agentes necesitaba bastante programación, y esa no es la historia que cualquier proveedor de IA quiere vender.
Para devolver la narración a la idea de que gastar dinero en IA eventualmente erradicará la necesidad de un costoso desarrollo de software humano, o de hecho humanos, Openai está implementando una estructura para permitir una orquestación simple.
Primero resumamos cuáles son los problemas. Las tareas de agente implican al menos dos procesos que funcionan individualmente, con una tarea que comienza otra y con los resultados que se informan a un proceso de informes finales al final, con suerte en momentos similares. Los “resultados” también deben estar en un formato conocido (por ejemplo, una oración, un archivo, una imagen, una base de datos), pero esto no es fácil de generalizar. Incluso el camino feliz es un buen equilibrio: lidiar y explicar errores es otro problema. Todos estos son problemas de orquestación familiares. Pero como industria, nadie cree que la orquestación es un problema “resuelto”. Heavy LLM Uso también agrega la necesidad de controlar el uso del token; Las fichas son el nuevo oro negro.
Para comenzar el viaje de orquestación, OpenAI ha agregado algunas API nuevas a su plataforma central. En particular, ha introducido un básico Respuestas API Eso limpia algunos de los supuestos hechos por los agentes de chat.
En el sentido más simple, esto puede capturar la salida:
deopadai importarOpadai
cliente=Opadai()
respuesta=cliente.respuestas.crear(
modelo=“GPT-4O”,
aporte=“Escribe una historia de una oración a la hora de dormir sobre un unicornio”.
)
imprimir(respuesta.output_text)
Puede analizar imágenes en este nivel; y agregue una de las herramientas a continuación. Cuidado: es probable que los nuevos modelos dejen de admitir la API de finalización de chat existente: muchas características nuevas solo admiten la API de nuevas respuestas.
Veamos estas nuevas herramientas. Búsqueda web Permite que un agente rastree la web para tareas simples. El breve script de Python a continuación muestra cómo se le da a un modelo la opción de usar esta herramienta:
deopadai importarOpadai
cliente=Opadai()
respuesta=cliente.respuestas.crear(
modelo=“GPT-4O”,
herramientas=[{“type”:“web_search_preview”}],
aporte=“¿Qué historia de Kubernetes apareció hoy?”
)
imprimir(respuesta.output_text)
El reesponse También contendrá referencias a cualquier artículo citado. Estas consultas se pueden definir por tiempo o ubicación. También puede sopesar el costo, la calidad y la latencia.
Búsqueda de archivos es efectivamente una tienda vectorial alojada. Usted indica que la búsqueda de archivos es una herramienta disponible e identifica su tienda vectorial:
deopadai importarOpadai
cliente=Opadai()
respuesta=cliente.respuestas.crear(
modelo=“GPT-4O-Mini”,
aporte=“¿Qué es la investigación profunda de Operai?”,
herramientas=[{
“type”:“file_search”,
“vector_store_ids”:[“<vector_store_id>”]
}]
)
imprimir(respuesta)
Si es necesario, un agente lo usará. La respuesta citará los documentos utilizados en la respuesta. Puede limitar las respuestas a controlar el uso y la latencia del token. Hay límites para el tamaño total del archivo, los archivos buscados y el tamaño de la tienda Vector. Los tipos de documentos que se pueden buscar (por tipo de archivo) parecen extensos.
El Uso de la computadora La herramienta es interesante:
“La herramienta de uso de la computadora funciona en un bucle continuo. Envía acciones de la computadora, como click(x,y) o type(text)que su código se ejecuta en un entorno de computadora o navegador y luego devuelve capturas de pantalla de los resultados al modelo “.
Parece que está fingiendo ser selenio, la herramienta que usamos para probar las interfaces web a través de scripts. Obviamente, esto reconoce que todavía no estamos en el AIS solo hablando con otro mundo de AIS todavía. Pero al menos es un guiño a la idea de que no todo es un sitio web.
Probar agentes
Usaré los ejemplos de Python (definitivamente es un producto de Python-First, pero los documentos también muestran el script equivalente de JavaScript). Hemos ejecutado Python varias veces en mis publicaciones, pero en mi nuevo MacBook, solo verificaré que tenga Python instalado:
El resultado fue que python@3.13 3.13.2 ya está instalado y actualizado.
Mi pip también está allí (como PIP3).
Así que ahora puedo instalar los paquetes Operai:
Ah, recuerdo esto. Necesitamos un virtual:
Luego activo el virtual:
Y estamos listos para proceder.
Ahora, por supuesto, deberá usar y establecer un OpenAI_API_KEY. Me creé una nueva clave en la página de mi cuenta y establecí el opanai_api_key (no te preocupes, es mucho más largo que esto):
Y tienes que asegurarte de tener un poco de oro negro, me refiero a las fichas. He presentado algunas de las formas de evitar pagar OpenAi usando modelos locales, pero para esta publicación asumiré que está pagando por los tokens.
Como es tradicional, comencemos con una verificación de que los conceptos básicos anteriores están en su lugar a través de una simple solicitud con lo siguiente Haiku.py:
deagentes importarAgente,Corredor
agente=Agente(nombre=“Asistente”,instrucciones=“Eres un asistente útil”)
resultado=Corredor.run_sync(agente,“Escribe un haiku sobre la recursión en la programación”.)
imprimir(resultado.final_output)
Y obtenemos una buena respuesta:
(Un buen haiku tradicional debería mencionar las temporadas que pasan, pero no es por eso que estamos aquí). Por lo general, también verificaría mi equilibrio, pero no ha sido perturbado.
Nido de agentes
Como puede ver, ya hemos usado un agente. No es que interviniera de ninguna manera, pero llegaremos a eso.
OpenAI ha simplificado el proceso de orquestación con algunos términos simples. A manos libres es una introducción al mundo asincrónico, donde algo tiene que esperar algo más. Desglosemos su ejemplo, que ejecutaré como hola.py:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
deagentes importarAgente,Corredor
importarasincio
español_agent=Agente(
nombre=“Agente español”,
instrucciones=“Solo hablas español”.,
)
inglés_agent=Agente(
nombre=“Agente inglés”,
instrucciones=“Solo hablas inglés”,
)
triaje_agent=Agente(
nombre=“Agente de triaje”,
instrucciones=“Se transmite al agente apropiado basado en el idioma de la solicitud”.,
Esto muestra dos cosas básicas. En primer lugar, la configuración de roles para los agentes en inglés simple a los que estamos acostumbrados, pero también estableciendo la interacción entre los agentes. El agente de transferencia mantiene una lista de agentes disponibles para responder respuestas.
Ahora, esto implica que mi solicitud alemana no obtendrá la respuesta correcta. Entonces, si cambiamos la consulta dentro hola.py:
…
asíncrata defensorprincipal():
resultado=esperar Corredor.correr(triaje_agent,
aporte=“Wie Geht es Ihnen?”)
…
Y ejecutar nuestro nido de agentes:
Entonces, aunque OpenAi no tuvo problemas para traducir alemán, el agente de triaje no tenía un agente de idiomas relevante a la mano, por lo que hizo el trabajo y respondió en inglés. Es poco probable que nuestros clientes alemanes estén demasiado molestos, pero podemos mejorar.
Entonces, si finalmente agregamos el agente alemán y lo ponemos en la lista de transferencias a hola.py:
…
German_agent=Agente(
nombre=“Agente alemán”,
instrucciones=“Solo hablas alemán”,
)
triaje_agent=Agente(
nombre=“Agente de triaje”,
instrucciones=“Se transmite al agente apropiado basado en el idioma de la solicitud”.,
Podemos intentar esa solicitud alemana nuevamente:
Esta vez se llama al agente correcto y responde. Nuestros clientes alemanes ahora están más felices: ¡Ausgezeichnet! No olvides que mi terminal de urdimbre también te está dando los tiempos para estas respuestas.
Conclusión
Primero observamos el bucle de respuesta, que puede incluir más llamadas de herramientas. Si la respuesta tiene una transferencia, establecemos el agente en el nuevo agente y volvemos al inicio.
Hay opciones de registro debajo de esto, pero como de costumbre, OpenAI está dando una API de alto nivel en esta etapa, lo que debería fomentar la experimentación sin la necesidad de involucrarse demasiado con la orquestación.
Si bien he introducido agentes aquí, en publicaciones posteriores, veré más partes del SDK.
Vía Sahin Ahmed
Youtube.com/thenewstack
La tecnología se mueve rápidamente, no te pierdas un episodio. Suscríbase a nuestro canal de YouTube para transmitir todos nuestros podcasts, entrevistas, demostraciones y más.
David ha sido un desarrollador de software profesional con sede en Londres con Oracle Corp. y British Telecom, y un consultor que ayuda a los equipos a trabajar de una manera más ágil. Escribió un libro sobre diseño de la interfaz de usuario y ha estado escribiendo artículos técnicos desde entonces …
This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.
Strictly Necessary Cookies
Strictly Necessary Cookie should be enabled at all times so that we can save your preferences for cookie settings.
If you disable this cookie, we will not be able to save your preferences. This means that every time you visit this website you will need to enable or disable cookies again.