Connect with us

Noticias

OpenAI Newly Released AI Product ‘Swarm’ Swiftly Brings Agentic AI Into The Real World

Published

on

In today’s column, I examine the newly announced OpenAI product called Swarm and explain how this significant unveiling brings the emerging realm of agentic AI into tangible reality.

There is increasing momentum regarding agentic AI as the future next-stretch for the advent of advances in generative AI and large language models or LLMs. Anyone interested in where AI is going ought to be up-to-speed about Swarm since it comes from OpenAI, the 600-pound gorilla or big whale when it comes to advances in generative AI.

Let’s talk about it.

This analysis of an innovative proposition is part of my ongoing Forbes.com column coverage on the latest in AI including identifying and explaining various impactful AI complexities (see the link here).

Agentic AI Fundamentals

Before I do the unpacking of Swarm, I want to make sure we are all on the same page about agentic AI. I’ll provide the keystones of interest. For my detailed coverage of agentic AI, see the link here.

Here’s the deal.

Imagine that you are using generative AI to plan a vacation trip. You would customarily log into your generative AI account such as making use of the widely popular ChatGPT by OpenAI. The planning of your trip would be easy-peasy due to the natural language fluency of ChatGPT. All you need to do is describe where you want to go, and then seamlessly engage in a focused dialogue about the pluses and minuses of places to stay and the transportation options available.

When it comes to booking your trip, the odds are you would have to exit generative AI and start accessing the websites of the hotels, amusement parks, airlines, and other locales to buy your tickets. Few of the major generative AI available today will take that next step on your behalf. It is up to you to perform those tasks.

This is where agents and agentic AI come into play.

In earlier days, you would undoubtedly phone a travel agent to make your bookings. Though there are still human travel agents, another avenue would be to use an AI-based agent that is based on generative AI. The AI has the interactivity that you expect with generative AI. It also has been preloaded with a series of routines or sets of tasks that underpin the efforts of a travel agent. Using everyday natural language, you interact with the agentic AI which works with you on your planning and can proceed to deal with the nitty-gritty of booking your travel plans.

As a use case, envision that there is an overall AI agent that will aid your travel planning and booking. This agentic AI might make use of other AI agents to get the full job done for you. For example, there might be an AI agent booking hotels and doing nothing other than that specific task. Another AI agent books flights. And so on.

The overarching AI travel agent app would invoke or handoff phases of the travel booking activity to the respective AI agents. Those AI agents would perform their particular tasks and then go back to the overarching AI travel agent to indicate how things went.

You could say that the AI travel agent app is orchestrating the overall planning and booking process. This is done via a network of associated AI agents that undertake specialized tasks. The AI agents communicate with each other by passing data back and forth. For example, you might have given your name and credit card info to the AI travel agent app and it passes that along to the AI agent booking the hotel and the AI agent booking your flights.

In a sense, the AI agents are collaborating with each other. I somewhat hesitate to use the word “collaborate” because that might imply a semblance of sentience and overly anthropomorphize AI. Let’s just agree that the AI agents are computationally interacting with each other during the processing of these tasks. We will be a bit generous and suggest they are being collaborative.

Those Agentic AI Advantages

The beauty of this arrangement is that if the AI agents are all based on generative AI, the setup can make use of natural language to bring all the agents together and engage them in working with you interactively. A normal computer program that isn’t based on natural language capabilities would either not interact in a natural language manner, or the collaboration between the various routines or separate apps would have to be programmatically devised.

These AI agents can also make use of tools during their processing. The AI travel agent might have a backend database that keeps track of your various trips. To access the database, the AI travel agent invokes a tool that was built to record data in the database. By using such tools, each AI agent can leverage other available programs that aren’t necessarily natural language based.

I have now introduced you to some of the key terminology associated with agentic AI, consisting of these six primary considerations:

  • (1) Orchestration. A generative AI agent will at times orchestrate the use of other AI agents and conduct them toward fulfilling a particular purpose or goal.
  • (2) Network of AI agents. Various AI agents are often considered part of a virtual network that allows them to readily access each other.
  • (3) Communicate with each other. AI agents are typically set up to communicate with each other by passing data back and forth and performing handoffs with each other to get things done.
  • (4) Collaborate with each other. AI agents work in concert or collaborate, though not quite as robustly as humans would, so we’ll loosely say the AI kind of collaborates computationally, including doing handoffs and passing data to each other.
  • (5) Autonomously perform tasks. AI agents are said to be at times autonomous in that a human does not necessarily need to be in the loop when the various tasks are being performed by the AI.
  • (6) Expressed in natural language. The beauty of AI agents that are devised or based on the use of natural language is that rather than having to laboriously write program code to get them to do things, the use of natural language can be leveraged instead.

Shifting Into The OpenAI Swarm

OpenAI recently announced and made available access to their new product known as Swarm.

I will be quoting from the OpenAI blog about Swarm as posted on October 9, 2024. For those of you interested in actively trying out Swarm, right now it is considered experimental, and you’ll need to use the code that OpenAI has made available on GitHub. If you have sufficient Python coding skills and know how to make use of the generative AI APIs or application programming interface capabilities, you should be able to quickly try out the new product.

This is a one-liner by OpenAI that describes what Swarm is:

  • “An educational framework exploring ergonomic, lightweight multi-agent orchestration.”

Swarm is essentially an experimental and educational setup to get agentic AI underway by OpenAI and provides AI developers with a means of trying out agentic AI capabilities. I suppose that the name Swarm refers to the idea that you can have a whole bunch of AI agents working together. In addition, if you think of swarms such as a swarm of bees, swarms often have some overall purpose, such as bees defending against a perceived invader.

The OpenAI blog description quoted above says that the AI agents are lightweight. This suggests that the AI agents are somewhat narrowly scoped and not heavy-duty in terms of any particular agent doing a huge amount of work entirely on its own. That is also where the multi-agent aspects come to the fore. You are presumably going to use lots of said-to-be lightweight AI agents and orchestrate them together to achieve a noted end goal.

An Example Of Agentic AI In Action

The GitHub site and the blog about Swarm showcase some examples of how things work. I have opted to make up my own example and loosely based it on the official ones they posted. I am going to leave out the Python coding to make this example easier to comprehend. By and large, the example generally exemplifies the core essence involved.

My scenario is this.

A company I’ll name as the Widget Corporation wants to develop an automated Customer Support Agent using generative AI. This will be made available to existing customers. A customer will interact directly with the AI agent. The AI agent will find out what the customer’s concerns are. Based on those concerns, the AI agent will attempt to provide a potential resolution. If a resolution is not feasible, the customer will be able to return the item that they bought and get a refund.

I’d dare say this is a pretty common task and usually involves a series of subtasks.

The usual approach for a software developer would be to code this from scratch. It could take gobs of hours to write the code, test it, and field it. Instead, we will use agentic AI and indicate the primary agent, a Customer Support Agent, via the use of natural language.

To illustrate the notion of communication and collaboration, I will define two agents, a Customer Support Agent (considered an AI agentic “Routine” and my primary agent) and a second agent that is Refunds And Returns Agent (considered another AI agentic “Routine” and used by the primary agent). They will do handoffs and make use of tools.

Here is my definition of the Customer Support Agent.

  • AI agent routine with tool use and a handoff: Customer Support Agent

“You are a customer support agent for the Widget Corporation.”

“Follow this standard routine:

“(1) When a customer contacts you, make sure to ask sufficient questions to grasp what their customer support issue consists of.”

“(2) Access the Widget Corp internal customer support database WidgetSys to see if any similar issues have ever been logged.”

“(3) Try to come up with a solution for the customer that will resolve their support issue.”

“(4) Provide the proposed solution to the customer and get their feedback.”

“(5) If the customer wants to do a product return and get a refund then invoke the Returns And Refunds Agent and provide relevant details about the customer.”

End of definition

I’d like you to notice that the definition is written in natural language.

If you fed that same text into generative AI such as ChatGPT as a prompt, the AI would generally be able to proceed.

Give that a reflective moment of thought. Imagine the vast amount of arduous coding or programming you would have to write to do the same thing. All we had to do here was express what we wanted via the use of everyday natural language.

Boom, drop the mic.

Inside the natural language description in Step #2, I refer to a tool, the WidgetSys tool. This is a program that the Widget Corporation has developed to access its internal customer service records database.

In Step #5, I mention another AI agent, known as the Returns And Refunds Agent. This is a handoff activity that will occur when Step #5 is performed. In addition, I indicated that relevant customer data should be passed over.

The Allied AI Agent For This Example

Now that you’ve seen the primary AI agent, let’s take a look at the allied AI agent.

Here it is.

  • AI agent routine with tool use and a handoff: Returns And Refunds Agent

“You are a product returns and refund agent for the Widget Corporation.”

“Follow this standard routine:”

“(1) Ask the customer if they want to return the product and get a refund.”

“(2) If the customer says no then go back to Customer Support Agent.”

“(3) Access the WidgetSys database to mark that the product is being returned and the customer will be given a refund.”

“(4) Tell the customer how to return the product and let them know they will be given a refund.”

“(5) Go back to Customer Support Agent and inform that the return and refund processing is now underway.”

End of definition

Once again, the AI agent is defined via the use of natural language.

A handoff back to the primary agent happens in Step #2. Access to the tool WidgetSys takes place at Step #3. Another handoff back to the primary agent occurs in Step #5.

This allied AI agent takes on the task of processing a potential item return and refund. This could have been embedded entirely in the Customer Support Agent, but it turns out to be better for us to make it into a separate routine. Doing so means that we can always make use of the AI agent from other agentic AI that might need to invoke that specific task.

Vital Considerations About These AI Agents

Let’s be contemplative and mindfully explore the big picture. Life is always full of tradeoffs. The use of AI agents is no exception to that rule of thumb. You’ve seen first-hand that a notable plus is the ease of development via natural language.

Time to discuss some of the downsides or qualms.

I provided five steps for the Customer Support Agent and another five steps for the Returns And Refunds Agent. Is that sufficient to cover the wide range of aspects that might arise when successfully performing a customer support role?

Probably not.

Okay, so we might proceed to add more steps. But does that really solve the dilemma of completeness? Probably not. You aren’t likely to lay out all possible steps along with the endless number of permutations and combinations. The generative AI is going to be expected to do the right thing when having to go beyond the stipulated steps.

The generative AI might opt to do something that we would be chagrined or concerned about upon going beyond the stated steps. Keep in mind that the AI is not sentient. It works based on mathematical and computational pattern-matching. Do not expect a kind of human commonsense to be at play, see my analysis at the link here.

Another issue is that everyday words and natural language are said to be semantically ambiguous (see my detailed discussion at the link here). When I told the AI to resolve the customer issue (as part of Step #3 in Customer Support Agent), what does that exactly mean? Resolving something can be a vague concept. The AI could go in many different directions. Some of those directions might be desirable and we would be pleased, while other directions might frustrate a customer and cause poor customer service.

You must also anticipate that the AI could momentarily go off the rails. There are so-called AI hallucinations that generative AI can encounter, see my coverage at the link here. I don’t like the catchphrase because it implies that AI hallucinates in a manner akin to human hallucinations, which is a false anthropomorphizing of AI. In any case, the AI can make up something out of thin air that appears to be sensible but is not factually grounded. Imagine if the AI tells a customer that they can get a refund if they stand on one leg and whoop and holler. Not a good look.

These and other sobering considerations need to be cooked into how you devise the AI agents and how you opt to ensure they operate in a safe and sane manner.

Excerpts Of How OpenAI Explains Swarm

Congratulations, you are now up to speed on the overall gist of agentic AI. You are also encouraged to dig more deeply into Swarm, which is one framework or approach to AI agents. See my coverage at the link here for competing AI agentic frameworks and methods.

Since you are now steeped in some of the agentic AI vocabularies, I have a bit of an informative test or quiz for you. Take a look at these excerpts from the OpenAI blog. I am hoping that you are familiar enough with the above discussion that you can readily discern what the excerpts have to say.

I’m selecting these excerpts from “Orchestrating Agents: Routines and Handoffs” by Ilan Bigio, OpenAI blog, October 9, 2024:

  • “The notion of a ‘routine’ is not strictly defined, and instead meant to capture the idea of a set of steps. Concretely, let’s define a routine to be a list of instructions in natural language (which we’ll represent with a system prompt), along with the tools necessary to complete them.”
  • “Notice that these instructions contain conditionals much like a state machine or branching in code. LLMs can actually handle these cases quite robustly for small and medium-sized routines, with the added benefit of having ‘soft’ adherence – the LLM can naturally steer the conversation without getting stuck in dead-ends.”
  • “Dynamically swapping system instructions and tools may seem daunting. However, if we view ‘routines’ as ‘agents’, then this notion of handoffs allows us to represent these swaps simply – as one agent handing off a conversation to another.”
  • “Let’s define a handoff as an agent (or routine) handing off an active conversation to another agent, much like when you get transferred to someone else on a phone call. Except in this case, the agents have complete knowledge of your prior conversation!”
  • “As a proof of concept, we’ve packaged these ideas into a sample library called Swarm. It is meant as an example only and should not be directly used in production. However, feel free to take the ideas and code to build your own!”

How did you do?

I had my fingers crossed that the excerpts made abundant sense to you.

Getting Used To Agentic AI

A few final thoughts for now about the rising tide of agentic AI.

Conventional generative AI that you might be using day-to-day tends to do things one step at a time. Agentic AI boosts this by providing potential end-to-end processing for tasks that you might want to have performed on your behalf. Much of the time, agentic AI leans into the capabilities of generative AI.

Lots of AI agents can potentially get big things done.

I am reminded of the famous quote by Isoroku Yamamoto: “The fiercest serpent may be overcome by a swarm of ants.”

Though the bandwagon is definitely toward agentic AI, we need to keep our wits about us and realize that there are strengths and weaknesses involved. Suppose an agentic AI goes wild and like a swarm of bees’ attacks anything within range. Not a good look. All manners of AI ethics and AI law ramifications are going to arise.

You might brazenly assert that a swarm of them will soon emerge.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Google cancela el Asistente de Google para millones de usuarios: prepárate

Published

on

Google Assistant está evolucionando a Géminis, trayendo potentes nuevas capacidades de IA pero también descontinuando algunas características favoritas. Si usa el Asistente de Google para establecer temporizadores, reproducir música o controlar su hogar inteligente, prepárese para algunas interrupciones significativas a medida que la compañía comienza a reemplazar al asistente de nueve años con su chatbot Gemini más nuevo, más potente y alimentado por IA. Este artículo describirá los cambios clave que puede esperar, ayudándole a prepararse para la transición y comprender lo que será diferente.

Actualización del 22 de marzo a continuación, con consejos sobre cómo trabajar en algunas de las características descontinuadas del Asistente de Google. Este artículo fue publicado originalmente el 20 de marzo.

Google Gemini: una actualización inevitable

Gemini representa un salto gigante en la capacidad en comparación con el Asistente de Google. Podrá chatear con Gemini de manera similar a la forma en que hablas con Google Assistant ahora, pero como se basa en modelos de lenguaje grande (LLM) con AI, Gemini puede ser mucho más conversacional y útil, capaz de realizar tareas más desafiantes y capaz de adaptarle sus respuestas específicamente a usted.

Google ya ha comenzado la transición a Gemini. Los teléfonos inteligentes son los primeros en cambiar y serán seguidos por altavoces inteligentes, televisores, otros dispositivos domésticos, dispositivos portátiles y automóviles en los próximos meses.

Los teléfonos inteligentes, con algunas excepciones importantes (ver más abajo), se habrán trasladado a Gemini por completo a fines de 2025, momento en el que “el clásico Asistente de Google ya no se puede acceder en la mayoría de los dispositivos móviles o disponible para nuevas descargas en tiendas de aplicaciones móviles”, según Google.

Pero no siempre una transición perfecta

Desafortunadamente, la transición a Géminis no será perfecta para todos. Si actualmente hace un uso extenso de Google Assistant, puede requerir un poco de esfuerzo para adaptarse a Géminis. Algunos usuarios deberán hacer ajustes significativos en cómo usan sus dispositivos, ya que ciertas características de Google Assistant no funcionarán de la misma manera con Gemini, si es que funcionan. Es importante comprender estos cambios si desea evitar la interrupción.

Varias características del Asistente de Google descontinuadas

Google tiene un historial de eliminación de funciones que considera “infrautilizadas” por los clientes. Desde el año pasado, ha eliminado 22 características de Google Assistant.

Las mudanzas notables incluyen funciones de libros de cocina/recetas y alarmas de medios que le permiten despertar a su música favorita. Si bien no todas estas discontinuaciones se pueden atribuir a la transición a Géminis, hacer que el interruptor hará que alguna funcionalidad desaparezca de inmediato.

Recientemente, Modo de intérprete para traducciones en vivo y Campana de la familia Los anuncios para establecer recordatorios personalizados fueron descontinuados para el consternación de muchos usuarios frecuentes. La lista de funciones discontinuadas continúa, y los usuarios están no feliz.

Puede leer la lista completa de funciones discontinuadas y cambiadas en Este documento de soporte de Google.

Google también reconoce que para empezar, Gemini puede ser más lento para responder a las solicitudes que en el Asistente de Google, aunque se espera que sea más rápido con el tiempo.

Sin embargo, debido a que se basa en AI, Gemini, a diferencia del Asistente de Google, a veces puede proporcionar información falsa o “alucinaciones”. Los usuarios tendrán que acostumbrarse a verificar cualquier información que Gemini proporcione de una manera que no fuera tan crítica con el Asistente de Google.

Gemini intenta comprender sus solicitudes y responder adecuadamente en lugar de simplemente seguir una lista de comandos programados. Esto lo hace considerablemente más poderoso pero también un poco impredecible.

Se eliminan las características antes de ser reemplazadas

Afortunadamente, Gemini es mucho más poderoso que el Asistente de Google que los usuarios eventualmente obtendrán muchas más capacidades de las que pierden. Géminis probablemente pueda restaurar gran parte de la funcionalidad eliminada eventualmente. Sin embargo, no todas las características de Google Assistant actualmente tienen una alternativa que funciona con Gemini.

¿Puede mi dispositivo usar Gemini?

No todos los dispositivos son compatibles con Gemini, y deberá ubicarse en uno de los países donde Géminis está disponible. Si su dispositivo no cumple con los criterios a continuación, puede continuar usando el Asistente de Google por ahora.

Para teléfonos y tabletas, necesitará:

  • Mínimo de 2 gb RAM
  • Android 10, iOS 16 o superior.
  • Los dispositivos Android Go no son compatibles

El Asistente de Google se convierte en Géminis: los altavoces inteligentes, las pantallas inteligentes y los televisores son los próximos

Por ahora, el Asistente de Google continuará trabajando en dispositivos, como altavoces inteligentes, pantallas inteligentes y televisores, pero eso cambiará en los próximos meses. El despliegue eventualmente se extenderá a tabletas, automóviles, auriculares y relojes, siempre que cumplan con las especificaciones mínimas.

Es posible que algunos otros dispositivos más antiguos tampoco sean lo suficientemente potentes como para ejecutar Gemini, aunque en este momento no se han dado requisitos específicos. Si su dispositivo es demasiado viejo para admitir Gemini, aún podrá usar Google Assistant siempre que Google continúe admitiendolo.

Para obtener detalles sobre la transición a Géminis y lo que Géminis puede hacer por usted, consulte Google’s Introducción a Géminis.

Actualización del 22 de marzo. Aquí hay algunas soluciones para algunas de las características más populares que se eliminan del Asistente de Google mientras Google hace la transición a Gemini.

Modo de intérprete

Si bien traduce con precisión palabras, frases y documentos completos, Gemini actualmente no reemplaza directamente la función de modo de intérprete de traducción en vivo de Google Assistant. Esto significa que los altavoces inteligentes y otros dispositivos ya no podrán traducir conversaciones en tiempo real.

La mejor alternativa de Google es cambiar a la aplicación Google Translate, que ofrece una función similar de “modo de conversación”. Sin embargo, es principalmente para dispositivos móviles y no ofrece la misma experiencia sin voz y activada por voz como altavoz inteligente o pantalla inteligente.

Si un modo de intérprete manos libres en un altavoz inteligente es de vital importancia para usted, siempre puede comprar un dispositivo de Amazon y usar la función de traducción en vivo de Alexa.

Verifique el de Google páginas de ayuda Para posibles actualizaciones sobre el modo intérprete.

Comandos de voz de Google Photos, configuración del marco de fotos y configuración de pantalla ambiental

Lamentablemente, ya no podrá usar su voz para favoritas y compartir sus fotos o preguntar cuándo y dónde fueron tomadas. Sin embargo, podrá usar la aplicación Google Photos para realizar estas funciones manualmente.

Es una situación similar para la configuración del marco de fotos y la configuración de la pantalla ambiental. Ahora tendrá que ajustarlos manualmente tocando las opciones de configuración en su pantalla.

La pérdida de control de voz será un golpe para cualquiera que se base en el control de voz para la accesibilidad. Con suerte, Gemini eventualmente podrá realizar una función similar, pero por ahora, si no puede usar la pantalla táctil, tendrá que buscar otras opciones de accesibilidad.

Aprenda a usar las rutinas de Google Home

Algunas de las características del Asistente de Google que Google ha eliminado, como Family Bell, se puede aproximar utilizando las rutinas de Google. Sin embargo, el proceso de configuración será más complicado que antes. Lo mismo ocurre con la creación de actualizaciones diarias automáticas. Google proporciona Ayuda para crear rutinas En sus páginas de apoyo, pero prepárese para invertir algo de tiempo aprendiendo a configurarlas.

Seguir @Paul_Monckton en Instagram.

ForbesLa nueva fuga de borde de Galaxy S25 revela la valiosa oferta sorpresa de SamsungForbesGoogle Gemini ahora accede a su historial de búsqueda: lo que necesita saber

Continue Reading

Noticias

Hollywood a Trump: No dejes que Operai y Google entrenen en nuestro trabajo con derechos de autor

Published

on

La lucha entre los creadores y los titanes tecnológicos de IA por la ley de derechos de autor y la licencia se está calentando. En una carta presentada a la Oficina de Política de Ciencia y Tecnología de la Administración Trump el 15 de marzo, más de 400 actores, escritores y directores pidieron al gobierno que defendiera la ley actual de derechos de autor.

Los firmantes incluyen a Paul McCartney, Guillermo del Toro, Ava Duvernay, Cynthia Erivo, Phoebe Waller-Bridge, Ayo Edebiri, Chris Rock y Mark Ruffalo. La carta solicita específicamente al gobierno que no otorgue excepciones de uso justo a las compañías tecnológicas que capacitan la IA.

El uso justo es un concepto fundamental en la ley de derechos de autor que brinda a las personas una excepción para usar contenido protegido, incluso si no son el titular de los derechos de autor, en casos limitados y específicos. Anteriormente, las compañías de IA, hambrientas por el contenido generado por los humanos para capacitar y mejorar sus modelos de IA, han necesitado pagar a los editores y catálogos de contenido por el acceso a ese material. Una excepción de uso justo facilitaría que las compañías tecnológicas accedan a contenido sin obstáculos legales.

Google y Openai propusieron cambios similares a la ley actual de derechos de autor en sus propuestas para el plan de acción de IA de la administración. Google escribió que tales excepciones le permiten “evitar negociaciones a menudo altamente impredecibles, desequilibradas y largas con los titulares de datos durante el desarrollo del modelo”. Operai escribió que las protecciones de uso justo para la IA son necesarias para proteger la seguridad nacional estadounidense.

Parte del reciente impulso gubernamental alrededor de la IA es una preocupación por la pérdida de la posición global y una ventaja tecnológica sobre el desarrollo de IA a adversarios como China. La IA china, como el rival de chatgpt Deepseek, continúa procesando, pero las preocupaciones abundan sobre su seguridad y falta de barandillas.

En otras palabras, compañías tecnológicas como Google y OpenAI, cada una valorada por la capitalización de mercado en los cientos de miles de millones y billones de dólares, no quieren pasar por el proceso legal establecido y pagar los derechos del contenido que necesitan para que su AIS sea competitivo con los desarrollados por China. Y quieren que la administración Trump codifique las protecciones para ellos como parte de su plan de acción de IA.

Los firmantes de Hollywood se oponen firmemente a la posibilidad de tal reescritura de la ley de derechos de autor. “Estados Unidos no se convirtió en una potencia cultural global por accidente”, dice la carta. “Nuestro éxito se deriva directamente de nuestro respeto fundamental por la IP y los derechos de autor que recompensa la toma de riesgos creativos por estadounidenses talentosos y trabajadores de todos los estados y territorio”.

La Oficina de Derechos de Autor de EE. UU. Ha estado desarrollando orientación sobre cómo manejar los reclamos de derechos de autor por contenido generado por IA. Pero la gente ha estado preocupada durante años, e incluso demandó, cómo los modelos de IA están entrenados de una manera que potencialmente viola los derechos de los titulares de derechos de autor. El doble huelga en el verano de 2023 por miembros del Guild de Escritores de América y el Gremio de Actores de Screen y la Federación Americana de Artistas de Televisión y Radio, o Sag-Aftra, incluyó a la IA como una de sus principales preocupaciones. Ni Openai ni Google han compartido exactamente qué contenido constituye sus bases de datos de capacitación para ChatGPT y Gemini.

La ecuación de derechos de autor se vuelve aún más complicada, ya que sabemos al menos una compañía que recibió un reclamo de derechos de autor para una imagen cuya IA genera cada parte. Deja espacio para la incertidumbre en cada lado del desastre que es los derechos de autor y la IA.

La administración Trump y la IA

Hasta este punto, no ha habido un progreso mucho significativo en la supervisión del gobierno o la legislación que regula cómo los gigantes tecnológicos como OpenAI y Google desarrollan IA. El ex presidente Biden consiguió que muchas de las principales compañías tecnológicas se comprometieran voluntariamente a desarrollar AI de manera responsable e intentó promulgar algunas barandillas en torno al desarrollo de la IA a través de la orden ejecutiva. Pero a las pocas horas de ser inaugurado, Trump retrocedió la orden ejecutiva de AI de Biden con una de las suyas.

En su propia orden ejecutiva sobre IA, Trump dijo que quiere “mantener y mejorar el dominio global de IA de Estados Unidos”. El Plan de Acción de AI es cómo planea promulgar su versión de la política tecnológica. El vicepresidente Vance presentó el plan, y más ampliamente la opinión de la administración sobre la tecnología, en una cumbre internacional sobre IA en enero.

Vance dijo: “Cuando conferencias como esta se convierten en discutir una tecnología de vanguardia, a menudo, creo que nuestra respuesta es ser demasiado consciente de sí misma, demasiado requerida por el riesgo. Pero nunca he encontrado un gran avance en la tecnología que claramente nos llama a hacer precisamente lo contrario”.

Además del llamado a los comentarios, una orden ejecutiva de enero del presidente Trump pidió que American AI estuviera “libre de sesgos ideológicos o agendas sociales diseñadas”.

Al mismo tiempo, los líderes tecnológicos como Sundar Pichai de Google y Sam Altman de Openai se han acercado a la nueva administración. Altman donó un millón de dólares de su propio dinero al Fondo de inauguración de Trump, y Google como compañía donó lo mismo. Altman y Pichai obtuvieron asientos de primera fila para la ceremonia de juramentación, junto con Mark Zuckerberg de Meta, Elon Musk de X y Jeff Bezos de Amazon. Es probable que los ejecutivos esperen que llegar al lado bueno de Trump los ayude a allanar el camino para el futuro de su empresa tecnológica, incluso si, en este caso, molestaría décadas de ley establecida de derechos de autor.

Muchos grupos de personas, no solo creadores, están preocupados de que el desarrollo y el uso no regulado de la IA puedan ser desastrosos.

¿Qué viene después para los derechos de autor y la IA?

Se espera que la Oficina de Derechos de Autor de los Estados Unidos publique un informe más sobre AI, específicamente sobre “implicaciones legales de capacitar a los modelos de IA en trabajos con derechos de autor, consideraciones de licencia y la asignación de cualquier posible responsabilidad”.

Mientras tanto, una serie de demandas activas podrían establecer precedentes importantes para la rama judicial. Thomson Reuters acaba de ganar su caso que dijo que una compañía de IA no tenía un caso de uso justo para usar su contenido para construir IA. La legislación como la Ley No Fakes también se está abriendo camino a través del Congreso, pero no está claro qué tipo de legislación futura de IA tendrá.

Para obtener más información, consulte cómo AI y Art Clash en SXSW y por qué la promesa anti-AI de una compañía resuena con los creadores.

Continue Reading

Noticias

Introducción a la API de SDK y respuestas de los agentes de Operai

Published

on

Como Openai introdujo lo que todos los demás llaman a los agentes SDK, admitió que usar las capacidades existentes de manera unida “puede ser un desafío, a menudo requerir una amplia iteración rápida y una lógica de orquestación personalizada sin suficiente visibilidad o soporte incorporado”. En resumen, el uso de agentes necesitaba bastante programación, y esa no es la historia que cualquier proveedor de IA quiere vender.

Para devolver la narración a la idea de que gastar dinero en IA eventualmente erradicará la necesidad de un costoso desarrollo de software humano, o de hecho humanos, Openai está implementando una estructura para permitir una orquestación simple.

Primero resumamos cuáles son los problemas. Las tareas de agente implican al menos dos procesos que funcionan individualmente, con una tarea que comienza otra y con los resultados que se informan a un proceso de informes finales al final, con suerte en momentos similares. Los “resultados” también deben estar en un formato conocido (por ejemplo, una oración, un archivo, una imagen, una base de datos), pero esto no es fácil de generalizar. Incluso el camino feliz es un buen equilibrio: lidiar y explicar errores es otro problema. Todos estos son problemas de orquestación familiares. Pero como industria, nadie cree que la orquestación es un problema “resuelto”. Heavy LLM Uso también agrega la necesidad de controlar el uso del token; Las fichas son el nuevo oro negro.

Para comenzar el viaje de orquestación, OpenAI ha agregado algunas API nuevas a su plataforma central. En particular, ha introducido un básico Respuestas API Eso limpia algunos de los supuestos hechos por los agentes de chat.

En el sentido más simple, esto puede capturar la salida:

Puede analizar imágenes en este nivel; y agregue una de las herramientas a continuación. Cuidado: es probable que los nuevos modelos dejen de admitir la API de finalización de chat existente: muchas características nuevas solo admiten la API de nuevas respuestas.

Veamos estas nuevas herramientas. Búsqueda web Permite que un agente rastree la web para tareas simples. El breve script de Python a continuación muestra cómo se le da a un modelo la opción de usar esta herramienta:

El reesponse También contendrá referencias a cualquier artículo citado. Estas consultas se pueden definir por tiempo o ubicación. También puede sopesar el costo, la calidad y la latencia.

Búsqueda de archivos es efectivamente una tienda vectorial alojada. Usted indica que la búsqueda de archivos es una herramienta disponible e identifica su tienda vectorial:

Si es necesario, un agente lo usará. La respuesta citará los documentos utilizados en la respuesta. Puede limitar las respuestas a controlar el uso y la latencia del token. Hay límites para el tamaño total del archivo, los archivos buscados y el tamaño de la tienda Vector. Los tipos de documentos que se pueden buscar (por tipo de archivo) parecen extensos.

El Uso de la computadora La herramienta es interesante:

“La herramienta de uso de la computadora funciona en un bucle continuo. Envía acciones de la computadora, como click(x,y) o type(text)que su código se ejecuta en un entorno de computadora o navegador y luego devuelve capturas de pantalla de los resultados al modelo “.

Parece que está fingiendo ser selenio, la herramienta que usamos para probar las interfaces web a través de scripts. Obviamente, esto reconoce que todavía no estamos en el AIS solo hablando con otro mundo de AIS todavía. Pero al menos es un guiño a la idea de que no todo es un sitio web.

Probar agentes

Usaré los ejemplos de Python (definitivamente es un producto de Python-First, pero los documentos también muestran el script equivalente de JavaScript). Hemos ejecutado Python varias veces en mis publicaciones, pero en mi nuevo MacBook, solo verificaré que tenga Python instalado:

El resultado fue que python@3.13 3.13.2 ya está instalado y actualizado.

Mi pip también está allí (como PIP3).

Así que ahora puedo instalar los paquetes Operai:

Ah, recuerdo esto. Necesitamos un virtual:

Luego activo el virtual:

Y estamos listos para proceder.

Ahora, por supuesto, deberá usar y establecer un OpenAI_API_KEY. Me creé una nueva clave en la página de mi cuenta y establecí el opanai_api_key (no te preocupes, es mucho más largo que esto):

Y tienes que asegurarte de tener un poco de oro negro, me refiero a las fichas. He presentado algunas de las formas de evitar pagar OpenAi usando modelos locales, pero para esta publicación asumiré que está pagando por los tokens.

Como es tradicional, comencemos con una verificación de que los conceptos básicos anteriores están en su lugar a través de una simple solicitud con lo siguiente Haiku.py:

Y obtenemos una buena respuesta:

(Un buen haiku tradicional debería mencionar las temporadas que pasan, pero no es por eso que estamos aquí). Por lo general, también verificaría mi equilibrio, pero no ha sido perturbado.

Nido de agentes

Como puede ver, ya hemos usado un agente. No es que interviniera de ninguna manera, pero llegaremos a eso.

OpenAI ha simplificado el proceso de orquestación con algunos términos simples. A manos libres es una introducción al mundo asincrónico, donde algo tiene que esperar algo más. Desglosemos su ejemplo, que ejecutaré como hola.py:

Esto muestra dos cosas básicas. En primer lugar, la configuración de roles para los agentes en inglés simple a los que estamos acostumbrados, pero también estableciendo la interacción entre los agentes. El agente de transferencia mantiene una lista de agentes disponibles para responder respuestas.

Ahora, esto implica que mi solicitud alemana no obtendrá la respuesta correcta. Entonces, si cambiamos la consulta dentro hola.py:

Y ejecutar nuestro nido de agentes:

Entonces, aunque OpenAi no tuvo problemas para traducir alemán, el agente de triaje no tenía un agente de idiomas relevante a la mano, por lo que hizo el trabajo y respondió en inglés. Es poco probable que nuestros clientes alemanes estén demasiado molestos, pero podemos mejorar.

Entonces, si finalmente agregamos el agente alemán y lo ponemos en la lista de transferencias a hola.py:

Podemos intentar esa solicitud alemana nuevamente:

Esta vez se llama al agente correcto y responde. Nuestros clientes alemanes ahora están más felices: ¡Ausgezeichnet! No olvides que mi terminal de urdimbre también te está dando los tiempos para estas respuestas.

Conclusión

Primero observamos el bucle de respuesta, que puede incluir más llamadas de herramientas. Si la respuesta tiene una transferencia, establecemos el agente en el nuevo agente y volvemos al inicio.

Hay opciones de registro debajo de esto, pero como de costumbre, OpenAI está dando una API de alto nivel en esta etapa, lo que debería fomentar la experimentación sin la necesidad de involucrarse demasiado con la orquestación.

Si bien he introducido agentes aquí, en publicaciones posteriores, veré más partes del SDK.

Vía Sahin Ahmed


Grupo Creado con boceto.

Continue Reading

Trending