El martes estaba pensando en escribir una historia sobre las implicaciones de la derogación de la orden ejecutiva de Biden sobre la IA por parte de la administración Trump. (La mayor implicación: que a los laboratorios ya no se les pide que informen sobre capacidades peligrosas al gobierno, aunque pueden hacerlo de todos modos.) Pero entonces surgieron dos historias más grandes e importantes sobre la IA: una de ellas técnica y otra económica.
Noticias
On the OpenAI Economic Blueprint
-
Man With a Plan.
-
Oh the Pain.
-
Actual Proposals.
-
For AI Builders.
-
Think of the Children.
-
Content Identification.
-
Infrastructure Week.
-
Paying Attention.
The primary Man With a Plan this week for government-guided AI prosperity was UK Prime Minister Keir Starmer, with a plan coming primarily from Matt Clifford. I’ll be covering that soon.
Today I will be covering the other Man With a Plan, Sam Altman, as OpenAI offers its Economic Blueprint.
Cyrps1s (CISO OpenAI): AI is the ultimate race. The winner decides whether the future looks free and democratic, or repressed and authoritarian.
OpenAI, and the Western World, must win – and we have a blueprint to do so.
Do you hear yourselves? The mask on race and jingoism could not be more off, or firmly attached, depending on which way you want to set up your metaphor. If a movie had villains talking like this people would say it was too on the nose.
Somehow the actual documents tell that statement to hold its beer.
The initial exploratory document is highly disingenuous, trotting out stories of the UK requiring people to walk in front of cars waving red flags and talking about ‘AI’s main street,’ while threatening that if we don’t attract $175 billion in awaiting AI funding it will flow to China-backed projects. They even talk about creating jobs… by building data centers.
The same way some documents scream ‘an AI wrote this,’ others scream ‘the authors of this post are not your friends and are pursuing their book with some mixture of politics-talk and corporate-speak in the most cynical way you can imagine.’
I mean, I get it, playas gonna play, play, play, play, play. But can I ask OpenAI to play with at least some style and grace? To pretend to pretend not to be doing this, a little?
As opposed to actively inserting so many Fnords their document causes physical pain.
The full document starts out in the same vein. Chris Lehane, their Vice President of Global Affairs, writes an introduction as condescending as I can remember, and that plus the ‘where we stand’ repeat the same deeply cynical rhetoric from the summary.
In some sense, it is not important that the way the document is written makes me physically angry and ill in a way I endorse – to the extent that if it doesn’t set off your bullshit detectors and reading it doesn’t cause you pain, then I notice that there is at least some level on which I shouldn’t trust you.
But perhaps that is the most important thing about the document? That it tells you about the people writing it. They are telling you who they are. Believe them.
This is related to the ‘truesight’ that Claude sometimes displays.
As I wrote that, I was only on page 7, and hadn’t even gotten to the actual concrete proposals.
The actual concrete proposals are a distinct issue. I was having trouble reading through to find out what they are because this document filled me with rage and made me physically ill.
It’s important to notice that! I read documents all day, often containing things I do not like. It is very rare that my body responds by going into physical rebellion.
No, the document hasn’t yet mentioned even the possibility of any downside risks at all, let alone existential risks. And that’s pretty terrible on its own. But that’s not even what I’m picking up here, at all. This is something else. Something much worse.
Worst of all, it feels intentional. I can see the Fnords. They want me to see them. They want everyone to implicitly know they are being maximally cynical.
All right, so if one pushes through to the second half and the actual ‘solutions’ section, what is being proposed, beyond ‘regulating us would be akin to requiring someone to walk in front of every car waiving a red flag, no literally.’
The top level numbered statements describe what they propose, I attempted to group and separate proposals for better clarity. The nested statements (a, b, etc) are my reactions.
They say the Federal Government should, in a section where they actually say words with meanings rather than filling it with Fnords:
-
Share national security information and resources.
-
Okay. Yes. Please do.
-
-
Incentivize AI companies to deploy their products widely, including to allied and partner nations and to support US government agencies.
-
Huh? What? Is there a problem here that I am not noticing? Who is not deploying, other than in response to other countries regulations saying they cannot deploy (e.g. the EU)? Or are you trying to actively say that safety concerns are bad?
-
-
Support the development of standards and safeguards, and ensure they are recognized and respected by other nations.
-
In a different document I would be all for this – if we don’t have universal standards, people will go shopping. However, in this context, I can’t help but read it mostly as pre-emption, as in ‘we want America to prevent other states from imposing any safety requirements or roadblocks.’
-
-
Share its unique expertise with AI companies, including mitigating threats including cyber and CBRN.
-
Yes! Very much so. Jolly good.
-
-
Help companies access secure infrastructure to evaluate model security risks and safeguards.
-
Yes, excellent, great.
-
-
Promote transparency consistent with competitiveness, protect trade secrets, promote market competition, ‘carefully choose disclosure requirements.’
-
I can’t disagree, but how could anyone?
-
The devil is in the details. If this had good details, and emphasized that the transparency should largely be about safety questions, it would be another big positive.
-
-
Create a defined, voluntary pathway for companies that develop LLMs to work with government to define model evaluations, test models and exchange information to support the companies safeguards.
-
This is about helping you, the company? And you want it to be entirely voluntary? And in exchange, they explicitly want preemption from state-by-state regulations.
-
Basically this is a proposal for a fully optional safe harbor. I mean, yes, the Federal government should have a support system in place to aid in evaluations. But notice how they want it to work – as a way to defend companies against any other requirements, which they can in turn ignore when inconvenient.
-
Also, the goal here is to ‘support the companies safeguards,’ not to in any way see if the models are actually a responsible thing to release on any level.
-
Amazing to request actively less than zero Federal regulations on safety.
-
-
Empower the public sector to quickly and securely adopt AI tools.
-
I mean, sure, that would be nice if we can actually do it as described.
-
A lot of the components here are things basically everyone should agree upon.
Then there are the parts where, rather than this going hand-in-hand with an attempt to not kill everyone and ensure against catastrophes, attempts to ensure that no one else tries to stop catastrophes or prevent everyone from being killed. Can’t have that.
They also propose that AI ‘builders’ could:
-
Form a consortium to identify best practices for working with NatSec.
-
Develop training programs for AI talent.
I mean, sure, those seem good and we should have an antitrust exemption to allow actions like this along with one that allows them to coordinate, slow down or pause in the name of safety if it comes to that, too. Not that this document mentions that.
Sigh, here we go. Their solutions for thinking of the children are:
-
Encourage policy solutions that prevent the creation and distribution of CSAM. Incorporate CSAM protections into the AI development lifestyle. ‘Take steps to prevent downstream developers from using their models to generate CSAM.’
-
This is effectively a call to ban open source image models. I’m sorry, but it is. I wish it were not so, but there is no known way to open source image models, and have them not be used for CSAM, and I don’t see any reason to expect this to be solvable, and notice the reference to ‘downstream developers.’
-
-
Promote conditions that support robust and lasting partnerships among AI companies and law enforcement.
-
Apply provenance data to all AI-generated audio-visual content. Use common provenance standards. Have large companies report progress.
-
Sure. I think we’re all roughly on the same page here. Let’s move on to ‘preferences.’
-
-
People should be ‘empowered to personalize their AI tools.’
-
I agree we should empower people in this way. But what does the government have to do with this? None of their damn business.
-
-
People should control how their personal data is used.
-
Yes, sure, agreed.
-
-
‘Government and industry should work together to scale AI literacy through robust funding for pilot programs, school district technology budgets and professional development trainings that help people understand how to choose their own preferences to personalize their tools.’
-
No. Stop. Please. These initiatives never, ever work, we need to admit this.
-
But also shrug, it’s fine, it won’t do that much damage.
-
And then, I feel like I need to fully quote this one too:
-
In exchange for having so much freedom, users should be responsible for impacts of how they work and create with AI. Common-sense rules for AI that are aimed at protecting from actual harms can only provide that protection if they apply to those using the technology as well as those building it.
-
If seeing the phrase ‘In exchange for having so much freedom’ doesn’t send a chill down your spine, We Are Not the Same.
-
But I applaud the ‘as well as’ here. Yes, those using the technology should be responsible for the harm they themselves cause, so long as this is ‘in addition to’ rather than shoving all responsibility purely onto them.
-
Finally, we get to ‘infrastructure as destiny,’ an area where we mostly agree on what is to actually be done, even if I despise a lot of the rhetoric they’re using to argue for it.
-
Ensure that AIs can train on all publicly available data.
-
This is probably the law now and I’m basically fine with it.
-
-
‘While also protecting creators from unauthorized digital replicas.’
-
This seems rather tricky if it means something other than ‘stop regurgitation of training data’? I assume that’s what it means, while trying to pretend it’s more than that. If it’s more than that, they need to explain what they have in mind and how one might do it.
-
-
Digitize government data currently in analog form.
-
Probably should do that anyway, although a lot of it shouldn’t go on the web or into LLMs. Kind of a call for government to pay for data curation.
-
-
‘A Compact for AI’ for capital and supply chains and such among US allies.
-
I don’t actually understand why this is necessary, and worry this amounts to asking for handouts and to allow Altman to build in the UAE.
-
-
‘AI economic zones’ that speed up the permitting process.
-
Or we could, you know, speed up the permitting process in general.
-
But actually we can’t and won’t, so even though this is deeply, deeply stupid and second best it’s probably fine. Directionally this is helpful.
-
-
Creation of AI research labs and workforces aligned with key local industries.
-
This seems like pork barrel spending, an attempt to pick our pockets, we shouldn’t need to subsidize this. To the extent there are applications here, the bottleneck won’t be funding, it will be regulations and human objections, let’s work on those instead.
-
-
‘A nationwide AI education strategy’ to ‘help our current workforce and students become AI ready.’
-
I strongly believe that what this points towards won’t work. What we actually need is to use AI to revolutionize the education system itself. That would work wonders, but you all (in government reading this document) aren’t ready for that conversation and OpenAI knows this.
-
-
More money for research infrastructure and science. Basically have the government buy the scientists a bunch of compute, give OpenAI business?
-
Again this seems like an attempt to direct government spending and get paid. Obviously we should get our scientists AI, but why can’t they just buy it the same way everyone else does? If we want to fund more science, why this path?
-
-
Leading the way on the next generation of energy technology.
-
No arguments here. Yay next generation energy production.
-
Clearly Altman wants Helion to get money but I’m basically fine with that.
-
-
Dramatically increase federal spending on power and data transmission and streamlined approval for new lines.
-
I’d emphasize approvals and regulatory barriers more than money.
-
Actual dollars spent don’t seem to me like the bottleneck, but I could be convinced otherwise.
-
If we have a way to actually spend money and have that result in a better grid, I’m in favor.
-
-
Federal backstops for high-value AI public works.
-
If this is more than ‘build more power plants and transmission lines and batteries and such’ I am confused what is actually being proposed.
-
In general, I think helping get us power is great, having the government do the other stuff is probably not its job.
-
When we get down to the actual asks in the document, a majority of them I actually agree with, and most of them are reasonable, once I was able to force myself to read the words intended to have meaning.
There are still two widespread patterns to note within the meaningful content.
-
The easy theme, as you would expect, is the broad range of ‘spend money on us and other AI things’ proposals that don’t seem like they would accomplish much. There are some proposals that do seem productive, especially around electrical power, but a lot of this seems like the traditional ways the Federal government gets tricked into spending money. As long as this doesn’t scale too big, I’m not that concerned.
-
Then there is the play to defeat any attempt at safety regulation, via Federal regulations that actively net interfere with that goal in case any states or countries wanted to try and help. There is clear desirability of a common standard for this, but a voluntary safe harbor preemption, in exchange for various nebulous forms of potential cooperation, cannot be the basis of our entire safety plan. That appears to be the proposal on offer here.
The real vision, the thing I will take away most, is in the rhetoric and presentation, combined with the broader goals, rather than the particular details.
OpenAI now actively wants to be seen as pursuing this kind of obviously disingenuous jingoistic and typically openly corrupt rhetoric, to the extent that their statements are physically painful to read – I dealt with much of that around SB 1047, but this document takes that to the next level and beyond.
OpenAI wants no enforced constraints on their behavior, and they want our money.
OpenAI are telling us who they are. I fully believe them.
Noticias
California está investigando la conversión de Openai a una empresa con fines de lucro
El fiscal general del estado preguntó a la compañía cómo planea transferir activos de su organización caritativa sin fines de lucro.
Manténgase actualizado con informes gratuitos sobre temas que importan a todos los californianos. Suscríbase a Calmatters hoy para obtener noticias sin fines de lucro en su bandeja de entrada.
Como parte de lo que describió como una investigación en curso, la Oficina del Fiscal General de California ha solicitado respuestas de Operai sobre su plan informado para convertir a una corporación con fines de lucro y cómo tiene la intención de transferir activos de su organización sin fines de lucro existente.
En una carta enviada al fabricante de chatgpt el 6 de diciembre, el fiscal general adjunto Christopher Lamerdin citó cláusulas en los artículos de incorporación de OpenAi bajo los cuales “los activos de OpenAi están irrevocablemente dedicados a su propósito caritativo”, como lo expresó Lamerdin, así como la responsabilidad de la oficina, como la responsabilidad de la oficina, como la responsabilidad de la oficina, como la responsabilidad de la oficina, como la responsabilidad de la oficina, como la responsabilidad de la oficina, como la responsabilidad de la oficina, así como la responsabilidad de la oficina, así como la responsabilidad de la oficina. para proteger los activos mantenidos en la confianza caritativa “. Además de preguntar sobre las transferencias de activos, buscó información sobre el plan de reestructuración de OpenAI y el valor de sus activos.
La oficina del abogado general dijo a Calmatters en un correo electrónico: “El Departamento de Justicia está comprometido a proteger los activos caritativos para su propósito previsto y toma esta responsabilidad en serio”.
La carta solicitó una respuesta de Openai antes del 8 de enero. Preguntó si el Fiscal General recibió dicha respuesta, escribió un portavoz: “Para proteger su integridad, no podemos comentar sobre una investigación en curso”.
Operai no respondió preguntas sobre el registro sobre la carta o su estructura como organización.
Permitir que la organización sin fines de lucro OpenAi reutilice sus activos para obtener ganancias y atraer a los inversores podría establecer un precedente peligroso, argumentan los críticos, lo que permite a las nuevas empresas disfrutar de las escrituras fiscales de las organizaciones sin fines de lucro, incluso cuando pretenden eventualmente convertirse en empresas capitalistas altamente lucrativas.
El debate sobre la reestructuración comercial de Openai llega en un momento en que la compañía intenta aumentar su influencia. Operai aumentó el gasto en el lobby del Congreso siete veces el año pasado, y por primera vez contrató a los cabilderos para oponerse a los proyectos de ley para regular la IA en Sacramento.
En septiembre, Reuters informó que OpenAI movería el control de su negocio principal de su organización sin fines de lucro a una corporación de beneficios público con fines de lucro. En noviembre, Bloomberg informó que Operai estaba en conversaciones con el Fiscal General de California sobre el turno.
La compañía confirmó a fines de diciembre que estaba considerando una nueva estructura y planeaba establecer una corporación de beneficios públicos con fines de lucro, aunque no se detuvo en decir que planeaba mover el control a la entidad con fines de lucro.
Openai fue fundada a fines de 2015 con el respaldo de miembros de “Mafia de PayPal” como el cofundador de Linkedin, Reid Hoffman, y el CEO de Tesla, Elon Musk. Originalmente, una organización sin fines de lucro se centró en beneficiar a la humanidad a través de la investigación de la inteligencia general artificial, creó cuatro años después un brazo con fines de lucro para parecer más atractivo para los inversores y verter miles de millones de dólares en los recursos informáticos para capacitar a los poderosos sistemas de IA. Se entiende que las ganancias que fluyen a esa parte de la empresa y sus inversores están limitados, creando una barrera para la recaudación de fondos. Una disputa entre los brazos sin fines de lucro y con fines de lucro de OpenAi entró en la abierta a fines de 2023 luego de un esfuerzo de la junta sin fines de lucro para expulsar al cofundador y CEO Sam Altman, lo que llevó a un ultimátum de una mayoría de empleados, que amenazaron con renunciar si Altman no fue reinstalado.
Desde entonces, Openai cerró una ronda de financiación de $ 6.6 mil millones y, a principios de esta semana, junto con el presidente Trump en la Casa Blanca, anunció el Proyecto Stargate, una empresa conjunta de $ 500 mil millones para construir centros de datos e infraestructura energética que las compañías como OpenAI dicen que es necesaria para capacitar a Grandes modelos de IA.
El fiscal general de California, Rob Bonta, el 12 de diciembre se instó en una carta de Meta a evitar que Operai se convierta en una compañía con fines de lucro, según el Wall Street Journal, y Meta argumentó que tal precedente podría tener “implicaciones sísmicas para la silicio Valle “al permitir que las nuevas empresas disfruten de un estado fiscal sin fines de lucro privilegiado hasta que comiencen a ganar dinero. Musk ha tratado de bloquear la conversión como parte de una demanda contra Operai presentada el verano pasado.
Después de que la junta sin fines de lucro Operai despidió a Altman en 2023, el grupo de defensa del consumidor sin fines de lucro Public Citizen argumentó repetidamente en cartas a los abogados generales en California, donde OpenAi tiene su sede, y Delaware, donde OpenAi presentó artículos de incorporación, que deberían investigar la organización. El copresidente de Public Citizen, Robert Weissman, escribió que OpenAi no estaba operando como una organización sin fines de lucro, debería perder su estado sin fines de lucro y ser obligado a operar como un negocio con fines de lucro, y que cualquier entidad con fines de lucro que suponga el control de OpenAI debe pagar una prima por ese control a una organización sin fines de lucro completamente separada de OpenAI.
El precedente de este enfoque proviene de Blue Cross of California, que, después de una transferencia de activos a una subsidiaria con fines de lucro en la década de 1990, dio más de $ 3 mil millones en acciones a dos fundaciones.
Es difícil decir con precisión cuánto vale tal prima cuando se trata de OpenAi, pero un día antes de la ronda de financiamiento de $ 6 mil millones de Openai en octubre pasado, Weissman estimó que vale al menos $ 30 mil millones.
El proyecto de Stargate, Weissman, dijo a Calmatters: “Es más evidencia de que la organización sin fines de lucro de OpenAi realmente no existe como un organismo independiente, que la junta sin fines de lucro de OpenAi no está ejerciendo ninguna autoridad significativa sobre las ganancias, y ni siquiera está tomando en serio su en serio. misión sin fines de lucro “.
Weissman quiere ver que el Fiscal General investigue cuánta de una prima necesitaría pagar un OpenAI con fines de lucro y cómo esa valoración se relaciona con la propiedad intelectual propiedad de OpenAI y empresas y subsidiarias vinculadas a OpenAI.
“La Oficina del Fiscal General de California es un regulador serio de organizaciones sin fines de lucro, y no hay forma de que esta escala se desvíe de una organización sin fines de lucro sin una cuidadosa revisión por parte del Fiscal General de California”, dijo Weissman a Calmatters. “Esperamos que lleguen a conclusiones que rastrean [with] Lo que hemos estado discutiendo durante el último año y medio ”.
Levi Sumagaysay contribuyó a esta historia.
Noticias
El operador aún no vale su suscripción ChatGPT Pro de $ 200 por mes: he aquí por qué
Esta semana, OpenAI presenta una vista previa de la investigación llamada Operador. Inicialmente quería hacer una prueba práctica, pero una vez que descubrí que necesitas una cuenta Pro (que cuesta $200 por mes), decidí ver las diversas demostraciones de OpenAI, compartirlas contigo y luego compartir mis pensamientos. Altman dijo que los usuarios del plan Plus de $20 por mes eventualmente podrían usar Operador.
El operador es un agente de IA. Básicamente, simula los clics del teclado y el mouse en un navegador, lee la pantalla y realiza acciones.
Además: ¿Tienes un misterio genealógico? Cómo utilicé la IA para resolver un rompecabezas familiar
Tengo una trayectoria bastante larga en la creación de este tipo de aplicaciones, utilizando principalmente programación algorítmica junto con un poco de aprendizaje automático para identificar la ubicación de ciertas imágenes en la pantalla.
Mi proyecto más reciente fue una herramienta de publicación automática que haría mis publicaciones en las redes sociales por mí. Sí, hay una gran cantidad de servicios de suscripción que harán eso por usted, pero decidí ver qué se necesitaría para crear el mío propio.
Mi código utilizó una combinación de DOM (modelo de objetos de documento) para páginas de servicios de redes sociales individuales, junto con reconocedores de imágenes que podían encontrar botones (como los botones + o Publicar). Utilicé la herramienta que construí durante aproximadamente un año, pero me encontré con un problema muy molesto.
Aproximadamente cada dos semanas, uno de los seis sitios por los que navegaba hacía un pequeño cambio en la interfaz de la pantalla, lo que procedía a descifrar mi código. Entonces, cada dos semanas, en lugar de publicar mis publicaciones en las redes sociales normalmente, tenía que dedicar algunas horas a arreglar lo que se había roto.
El hecho de que la web cambie constantemente (por ejemplo, un botón azul “Publicar” podría convertirse en un botón rojo “Publicar/Suscribirse con un 30% de descuento” durante una promoción) podría sacar a la IA de su juego.
Agente que usa computadora
El modelo que utiliza OpenAI se llama CUA o agente de uso informático. Este modelo dicta cómo el Operador habla con los sitios web por los que se supone que debe navegar.
En su video de introducción, Sam Altman y los miembros del equipo OpenAI, Yash Kumar, Casey Chu y Reiichiro Nakano, explicaron que Operador no usa API y no trabaja con texto extraído del DOM. En cambio, está “viendo” una página web real en un navegador en vivo que se ejecuta en la nube, leyendo el contexto directamente en la pantalla.
Además: Cómo ChatGPT escaneó 170.000 líneas de código en segundos, ahorrándome horas de trabajo
Tenían muy claro que el mecanismo de control de las páginas web era la simulación del mouse y el teclado, y la entrada que lee la IA es la representación visual de la página web real que vemos como humanos.
El equipo de OpenAI dijo que Operador funcionará como un ser humano usando un navegador web: buscará, hará clic y visitará sitios web. Pero hay una contradicción que aún no he descubierto del todo: OpenAI se ha asociado con varios sitios (Instacart, DoorDash, Etsy, OpenTable, Tripadvisor, AP, Priceline, StubHub, Thumbtack, Target, Uber y más).
¿Qué hacen estas asociaciones por el Operador? ¿Son acuerdos de afiliados en los que OpenAI obtiene una comisión por las ventas? ¿Tienen un acuerdo para informar al Operador si el formato del sitio web ha cambiado? ¿OpenAI realizó modelos adicionales para esos sitios? ¿Tiene algún nivel de acceso API a los datos que esos sitios muestran en la web?
Hasta que comprendamos mejor esas respuestas, no sabremos realmente el alcance de lo que puede hacer el Operador. Todas las demostraciones mostradas se realizaron utilizando sitios con los que la compañía se ha asociado, por lo que no está claro, por ejemplo, si podría ingresar a ZDNET y construir una lista de mis últimos 10 artículos y enviármela por correo electrónico usando Gmail.
También: Cómo utilizar ChatGPT
En este momento, tengo la impresión de que Operador es bastante superficial en lo que puede lograr. Esta demostración, por ejemplo, pudo buscar una receta en un sitio y luego completar un carrito de compras de Instacart con la lista de ingredientes.
Había demostraciones que mostraban cómo hacer una reserva en un restaurante, comprar entradas para un partido de baloncesto, etc. Cada uno de estos fueron uno o dos procesos de sitio donde los datos se encontraron en un sitio y luego se aplicaron a otro.
Barandillas y privacidad
OpenAI parece haber considerado seriamente las cuestiones de privacidad y barreras de seguridad. Por ejemplo, una demostración mostraba la reserva de cuatro entradas de baloncesto por un total de más de 1.000 dólares. Es poco probable que alguno de nosotros se sienta cómodo dejando que la IA siga adelante y gaste esa cantidad de dinero en nuestro nombre sin supervisión.
El operador sabe cuándo hacer una pausa y solicitar la intervención humana. O al menos, se supone que así sea. Todavía está en versión beta, por lo que es posible que se vuelva loco, simplemente porque no está del todo terminado.
También: La mejor IA para codificar
Pero la idea clave es simple: cuando las operaciones en un sitio web están a punto de volverse sensibles (iniciar sesión, gastar dinero, hacer reservas, pagar, etc.), el Operador le pide a su humano que confirme la operación.
Además, el usuario humano puede tomar el control de la ventana del navegador basado en la nube. Según OpenAI, cuando el humano controla el navegador, actúa como una sesión privada y nada de lo que ocurre mientras el humano tiene el control se retroalimenta a la IA.
También puede optar por no permitir que las interacciones de su sitio web se utilicen como datos de entrenamiento para la IA.
Instrucciones personalizadas específicas del sitio
El operador le permite crear instrucciones personalizadas específicas del sitio, sitio por sitio.
En el ejemplo anterior, extraído del vídeo a continuación, el demostrador quiere asegurarse de que las reservas en Priceline sean totalmente reembolsables y tengan un desayuno gratis. Al colocar esa instrucción personalizada en las preferencias del sitio web, el agente de IA siempre lo tendrá en cuenta al realizar una tarea en Priceline.
Además, Operador le permitirá guardar una tarea para que pueda volver a ejecutarla o programarla más tarde.
Si tiene una actividad regular que le gustaría que Operador hiciera por usted, esta es una manera rápida de asegurarse de que pueda volver a ejecutar su trabajo cuando lo desee.
Pasos de bebé
Para mí, el operador es como pequeños pasos en este momento. Por ejemplo, me encantaría decirle a una IA que revise mi bandeja de entrada, busque todos los comunicados de prensa y los asigne a una etiqueta (estoy usando Gmail). O busque todos los comunicados de prensa relacionados con la IA y asígneles una etiqueta, mientras que el resto de los comunicados de prensa reciben otra.
Esta es una tarea compleja y que requiere un tiempo de ejecución bastante largo (tengo 51.000 piezas de marketing en mi pestaña Promociones). Como tal, está mucho más allá del alcance de lo que puede hacer el Operador.
También: Pasé horas probando las tareas de ChatGPT y su negativa a seguir instrucciones fue un poco aterradora.
¿Pero algún día? Tal vez.
También estoy tratando de evitar la interpretación de terror y ciencia ficción de todo esto. Hay una pequeña parte de mi cerebro gritando: “¿Están dejando que la IA navegue por Internet? ¿Están locos?”.
Y sí, herramientas como Operador (e incluso todas las IA que se entrenan en Internet en su conjunto) probablemente estén abriendo puertas a algunas cosas realmente malas, especialmente si alguna vez creamos IA sensibles. Pero por ahora, es un ejercicio interesante ver qué tan bien una IA logra leer una receta y pedir los ingredientes de Instacart.
¿Qué opinas? Cuando el precio baje al rango de $20 por mes, ¿ve tareas que podría asignar al Operador? ¿Te preocupa? Háganos saber su opinión en los comentarios a continuación.
Puedes seguir las actualizaciones diarias de mi proyecto en las redes sociales. Asegúrate de suscribirte a mi boletín de actualización semanal y sígueme en Twitter/X en @DavidGewirtzen Facebook en Facebook.com/DavidGewirtz, en Instagram en Instagram.com/DavidGewirtz, en Bluesky en @DavidGewirtz.com y en YouTube en YouTube.com/DavidGewirtzTV.
Noticias
Stargate creará empleos. Pero no para los humanos.
Regístrese aquí para explorar los grandes y complicados problemas que enfrenta el mundo y las formas más eficientes de resolverlos. Enviado dos veces por semana.
Stargate es un programa de empleo, pero tal vez no para humanos
La historia económica es Stargate. Junto con empresas como Oracle y Softbank, el cofundador de OpenAI, Sam Altman, anunció una alucinante inversión planificada de 500 mil millones de dólares en “nueva infraestructura de IA para OpenAI”, es decir, para centros de datos y las plantas de energía que se necesitarán para alimentarlos. .
La gente inmediatamente tuvo preguntas. Primero, estuvo la declaración pública de Elon Musk de que “en realidad no tienen el dinero”, seguida de la réplica del CEO de Microsoft, Satya Nadella: “Estoy bien para mis 80 mil millones de dólares”. (Recuerde que Microsoft tiene una gran participación en OpenAI).
En segundo lugar, algunos cuestionaron la afirmación de OpenAI de que el programa “creará cientos de miles de empleos estadounidenses”.
¿Por qué? Bueno, la única forma plausible para que los inversores recuperen su dinero en este proyecto es si, como ha estado apostando la compañía, OpenAI pronto desarrollará sistemas de inteligencia artificial que puedan realizar la mayor parte del trabajo que los humanos pueden hacer en una computadora. Los economistas están debatiendo ferozmente qué impactos económicos tendría exactamente eso, si se produjera, aunque la creación de cientos de miles de empleos no parece serlo, al menos no a largo plazo.
La automatización masiva ha ocurrido antes, al comienzo de la Revolución Industrial, y algunas personas esperan sinceramente que a largo plazo será algo bueno para la sociedad. (Mi opinión: eso realmente depende de si tenemos un plan para mantener la responsabilidad democrática y la supervisión adecuada, y para compartir los beneficios del nuevo y alarmante mundo de ciencia ficción. En este momento, no tenemos eso en absoluto, así que creo que No estoy entusiasmado con la perspectiva de ser automatizado).
Pero incluso si usted está más entusiasmado que yo con la automatización, “reemplazaremos todo el trabajo de oficina con IA” (que se entiende ampliamente como el modelo de negocios de OpenAI) es un plan absurdo para convertirlo en un programa de empleo. Pero entonces, una inversión de 500 mil millones de dólares para eliminar innumerables empleos probablemente no obtendría el visto bueno del presidente Donald Trump, como lo ha hecho Stargate.
Es posible que DeepSeek haya descubierto el refuerzo de los comentarios de la IA
La otra gran historia de esta semana fue DeepSeek r1, un nuevo lanzamiento de la startup china de IA DeepSeek, que la compañía anuncia como rival del o1 de OpenAI. Lo que hace que r1 sea tan importante son menos las implicaciones económicas y más las técnicas.
Para enseñar a los sistemas de inteligencia artificial a dar buenas respuestas, calificamos las respuestas que nos dan y los entrenamos para que se concentren en las que calificamos altamente. Esto es “aprendizaje reforzado a partir de la retroalimentación humana” (RLHF), y ha sido el enfoque principal para capacitar a los LLM modernos desde que un equipo de OpenAI lo puso en funcionamiento. (El proceso se describe en este artículo de 2019).
Pero RLHF no es la forma en que obtuvimos el programa de juegos de inteligencia artificial ultrasobrehumano AlphaZero. Fue entrenado usando una estrategia diferente, basada en el juego autónomo: la IA fue capaz de inventar nuevos acertijos por sí misma, resolverlos, aprender de la solución y mejorar a partir de ahí.
Esta estrategia es particularmente útil para enseñar a un modelo cómo hacer rápidamente cualquier cosa que pueda hacer costosa y lentamente. AlphaZero podría considerar lenta y exhaustivamente muchas políticas diferentes, determinar cuál es la mejor y luego aprender de la mejor solución. Es este tipo de juego autónomo el que hizo posible que AlphaZero mejorara enormemente los motores de juegos anteriores.
Entonces, por supuesto, los laboratorios han estado tratando de encontrar algo similar para modelos de lenguaje grandes. La idea básica es simple: se deja que un modelo considere una pregunta durante mucho tiempo, utilizando potencialmente muchos cálculos costosos. Luego lo entrenas con la respuesta que finalmente encontró, intentando producir un modelo que pueda obtener el mismo resultado a un precio más bajo.
Pero hasta ahora, “los grandes laboratorios no parecían tener mucho éxito con este tipo de RL de mejora automática”, escribió el ingeniero de aprendizaje automático Peter Schmidt-Nielsen en una explicación de la importancia técnica de DeepSeek r1. Lo que ha impresionado tanto (y alarmado) a los ingenieros con r1 es que el equipo parece haber logrado avances significativos utilizando esa técnica.
Esto significaría que a los sistemas de IA se les puede enseñar a hacer de forma rápida y económica cualquier cosa que sepan hacer de forma lenta y costosa, lo que contribuiría a algunas de las rápidas e impactantes mejoras en las capacidades que el mundo presenció con AlphaZero, sólo en áreas de la economía. mucho más importante que jugar.
Otro hecho notable aquí: estos avances provienen de una empresa china de inteligencia artificial. Dado que las empresas estadounidenses de IA no tienen reparos en utilizar la amenaza del dominio chino de la IA para impulsar sus intereses (y dado que realmente existe una carrera geopolítica en torno a esta tecnología), eso dice mucho sobre la rapidez con la que China puede estar poniéndose al día.
Mucha gente que conozco está harta de oír hablar de la IA. Están hartos de la IA en sus canales de noticias y de productos de IA que son peores que los humanos pero muy baratos, y no están exactamente apoyando a OpenAI (o a cualquier otra persona) para convertirse en los primeros trillonarios del mundo al automatizar industrias enteras.
Pero creo que en 2025 la IA realmente será importante, no por si se desarrollarán estos poderosos sistemas, algo que en este momento parece estar en marcha, sino por si la sociedad está lista para levantarse e insistir en que se haga de manera responsable.
Cuando los sistemas de IA comiencen a actuar de forma independiente y a cometer delitos graves (todos los laboratorios principales están trabajando en “agentes” que pueden actuar de forma independiente en este momento), ¿haremos responsables a sus creadores? Si OpenAI hace una oferta ridículamente baja a su entidad sin fines de lucro en su transición al estado totalmente con fines de lucro, ¿intervendrá el gobierno para hacer cumplir la ley sin fines de lucro?
Muchas de estas decisiones se tomarán en 2025 y hay mucho en juego. Si la IA te inquieta, es mucho más motivo para exigir acción que para desconectarte.
Una versión de esta historia apareció originalmente en el boletín Future Perfect. ¡Regístrate aquí!
-
Startups8 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Recursos9 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Recursos9 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Recursos8 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Tutoriales9 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Estudiar IA8 meses ago
Curso de Inteligencia Artificial de UC Berkeley estratégico para negocios
-
Startups6 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Noticias6 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo