Connect with us

Noticias

Return of the king: Open AI’s Christmas Nightmare

Published

on

Prelude

Plastic influencers

Plastic influencer. AI Fanboy. Cardboard expert.

All terms entering the modern lexicon to describe the wave of ‘hype’ surrounding AI. I’ve long been a skeptic of some of the more outlandish and grandiose claims in the GenAI scene.

  • 1/ Programmers will disappear
  • 2/ AGI will arrive in 2024
  • 3/ All jobs will be automated
  • 4/ Robots will become conscious (Skynet)

All this baseless hyperbole without even delving into the more extremist views (there is a Reddit forum called singularity that has 3.4 million members).

I’m particularly bemused by the projection of emotion and fantasy onto computer algorithms capable of doing cool stuff. I believe that many brilliant people who subscribe to this Skynet perception of AI consciousness are at risk of losing their sanity. I’m not one of them.

My recent blogs have been in contradiction to the mainstream and somewhat fantastical AI world view 👇


AI powered voice chat: Lipstick on a pig (June 2024)

All these APIs are doing is converting audio to text, processing it through a language model, and then converting it back to audio. It might seem sophisticated on the surface but underneath it’s just basic text generation in a robot’s voice. Each individual system is comprehensive and reasonably mature, but glue them all together on our proverbial pig and there is no real understanding of the nuances of audio interactions. If it looks like a pig, squeals like a pig and walks like a pig. It’s a pig. Even if it’s wearing lipstick.


Generative AI: Cracking nuts with a sledgehammer (July 2024)

The barrier for excellence has never been so low, because the competition is increasingly with an algorithm and its unengaged and inexpert master. The robot will never reach true expertise, because there will never be a sufficient dataset of genuine experts to crowdsource from. And crowdsourcing takes the average result, not the best one. The robot doesn’t think. It repeats.


The lie of Agentic Frameworks (Dec 2024)

The problem with providing a tool or framework that allows you to abstract functionality is that it comes with a set of assumptions. When I buy a hammer, I assume it will work. When I buy a pressure cleaner, I assume it will work. The problem is that when I use a framework, I assume it will work. But this is quite literally impossible given the maturity of the underlying technology. Far from increasing adoption, Agentic Frameworks are selling an illusion on top of highly controlled demos and finite use cases that will never actually work in the hands of the typical user (and there are millions…).

This preface is to make a point.

Believe me when I say that I don’t say this lightly.

In terms of building practical applications with GenAI, what Google has just done with Gemini 2.0 flash has changed absolutely everything. Everything.

And no one saw it coming.

A Christmas Nativity

How Open AI’s theatre became a pantomine

One of my parents favourite stories is how when I was 5 years old, I was given a part in the local nativity play. Cast as a tree, my role was to silently adorn the set while the older and more capable children performed their interpretation of the birth of Jesus Christ.

I wasn’t particularly happy with this minor role.

Over the next 10-15 minutes, I followed the cast about stage, stealing their lines and thundering out my own entirely different interpretation of the play.

Interjecting at perfect moments, performing at others. It was a masterclass of disruption, and every giggle and teary eye from the watching crowd goaded me into more. It was ruthless destruction.

The performance descended into farce, the audience crying with laughter; the actors bemused and confused.

The laughter encouraged me, it became a crescendo.

The play was converted into pantomime, the job complete. To this day it remains a tale told at dinner parties to new and younger family members.

Of course, the play unfolding in Christmas 2024 is Open AI’s 12 days of Christmas and how Google has not just stolen their thunder, but commandeered the narrative, stolen the limelight and turned a Christmas celebration from OpenAI into a winter nightmare.

I, (like most rational people), tuned into the 12 days of Christmas by OpenAI with a healthy degree of skepticism, and watched as they showed demos of phone calls and astronomically expensive & slow API calls to a marginally improved LLM model, and felt reassured that my cynical world view was validated.

Then something happened.

It happened with perfect timing; theatre at it’s best.

Like an earthquake the repercussions are coming and they will be felt by everyone and seen in every AI product in the near future.

I thought Google had dropped the ball on AI, we all did. They were just irrelevant in all practical usages. Quality was poor, functionality was limited.

It turns out that they didn’t drop the ball and they weren’t asleep on the job. They were simply leaving the competition (now children by comparison) to wrestle with Beta releases, barely functioning APIs and scale issues while quietly building the tooling that is necessary to effectively use GenAI in production.

They timed their entrance to maximum effect.

Until a week ago I didn’t even have a live Google API Key.

This week, I’m in the process of migrating every single one of my services.

This may seem rash, but let me explain.

Scientists vs Builders

The difference between theory and practice

There are two different factions within the world of AI right now; scientists and builders.

The pioneers and scientists are seeking AGI and novel use cases; this includes important work such as new approaches to cancer treatments or looking for academic breakthroughs in Quantum physics. This can be theoretical or even in some cases some green shoots of practical use cases, especially in the domain of robotics for example.

These folk are interested in pursuing AGI and adapting GenAI to a more hybrid form of intelligence that will exponentially increase utility over current LLMs. This may take years, it may take generations (probably!).

I’m firmly and unashamedly in the second faction; we are builders.

GenAI is already capable of incredible stuff. Things that a year or two ago would have been impossible. I want to build stuff that works, right now.

The job at hand is working with available LLMs and APIs and seeing what use cases we can implement.

A builder needs tools and my stack was derived from countless hours spent testing the utility of all the available APIs and models.

  • 1/ Claude 3.5 Sonnet for Coding (Code)
  • 2/ OpenAI APIs for structured data w/ reasoning (Orchestration)
  • 3/ Groq / Fireworks AI APIs for cheap and instant inference (Fast inference)
  • 4/ Llama for local/on device (Edge computing)

I thought this stack would be solid for the next 3-5 years.

To be honest, I wasn’t really interested in any GenAI model that wasn’t listed above, I wasn’t even paying attention to the Gemini Flash v2.0.

I’m paying attention now.

How Agents work

2025, the year of the Agent.

We all know that 2025 is the year of the Agents, social media won’t stop telling us.

I hate hype trains but the underlying truth is that AI systems are now basically capable of ‘semi-reliably’ taking actions on our behalf. Thus, it is fair to say that there will be loads of popular software released in 2025 that will use this paradigm.

A typical agentic flow goes something like this.

We receive an instruction (Book a flight, call my mum, make my breakfast) which is interpreted by a Prompt. A prompt is usually executed via API, hence your OpenAI or Groq or Fireworks AI API). That prompt calls a tool (Skyscanner, Web search) which gets the result and calls some code setup by the developer and does “stuff”.

The result of this “stuff” is then returned to another Prompt and the cycle continues (nJumps) until we have performed the action. Hurrah.

It doesn’t look like the cleanest architecture does it?

If any of these API calls fails or returns an unexpected result, the whole chain is broken. Dozens of Python Frameworks have emerged to abstract this problem, but they can’t solve it. Tooling is improving, we can now see errors in execution, validate structured data and build chains with something approaching reliability, hence the hype for Agent 2025.

But the above architecture remains convoluted, complex and unreliable. Despite this, it is also the only way we had to unlock the potential of GenAI in Agentic flows.

In Dec 2024 Google has just made the above agentic model obsolete before it has even become ubiquitous.

The primary reasons are as follows:

  • 1/ Native search
  • 2/ Integrated orchestration
  • 3/ Multi-modal (which works!)

Google vs OpenAI & Perplexity

Native tooling: Search that works

Have a read of the Gemini API docs, and bear in mind that this isn’t a proposal or a fantasy, but an API that works and can provide results in milliseconds.

Google’s integrated search is reliable and also works quickly. Rivals such as Perplexity have a text based AI search engine, it has its place in the wider landscape but bear in mind that this the value proposition of an AI Unicorn has now been integrated as a ‘feature’ of Gemini Flash v2.0.

Perplexity AI’s purpose and reason for existence has been assumed within an actual AI model that is capable of the same quality and speed of result with massive utility in other areas as well.

The fact that Google owns a proprietary Search engine is critical here. They have a genuinely “Native Tool” in every sense, bundled into the same API serving the inference model that can search the internet available by just adding some text to the API call.

Ah, but OpenAI can do that too I hear you say?

OpenAI can’t compete. Their search is not native (or not mature) and that is important. It really shows. They have a “Realtime API”, but it doesn’t work that well and is noticeably slower and buggier than Google’s Gemini Flash v2.0 implementation. In real time more than any other domain, latency is everything. The results are not even close.

OpenAI interaction Example

A real exchange with OpenAI realtime

,

Google literally runs the search request WHILE the model is responding and has the infrastructure to provide the answer before you have read the response. This small detail covers the critical milliseconds that change the interaction experience from “Lipstick on a Pig” to the “real f**king deal”.

Google’s integrated search works, and it works really really quickly.

Loads of talk in the AI world about how no-one has a moat.

Well Google just filled up a giant moat with Christmas Joy and pulled the drawbridge.

Price, Speed, Quality… Choose two? Hmmmm…

Google is winning on three counts.

Merry Christmas OpenAI.

Google vs Python Frameworks

Simple Agentic flows: RIP Python abstractions.

But it doesn’t stop there. Google has changed the game in terms of Agentic flows. Search the internet for “AI Tools” and you will find mountains of frameworks, code repos and projects that are basically doing the same thing.

  • 1/ Search Internet; Check
  • 2/ Scape website; Check
  • 3/ Convert to markdown; Check
  • 4/ Run code; Check

All these tools are automating search, retrieval and code execution. Have a look at the Langchain Tools for example.

The thing is, Google has just integrated this into their API, a single endpoint to handle all of the above. It is now essentially a solved problem. We no longer need complex agentic flows for many many use cases.

The below diagram from OpenAI shows how function calling works for Agents.

Tools as described by OpenAI

Until now, we have been relying on managing the execution environment outside of the API calls.

Google has just built most of that functionality into a core API that can be used by developers.

For example, if I want to use Llama 3.3 to search the internet, I can do tool calling as follows.

Llama3 tool use

This same flow with Gemini Flash v2.0:

Gemini v2 tool use

Back to the previous point, Speed, Quality, Cost…

Google just chose all 3.

Nearly all agents are variations of search, retrieval (convert to markdown and inject into prompt) and arbitrary code execution with a sprinkling of private data. Except for the data (almost definitely coming soon…), these are now core concerns, which has made a lot of Agentic systems obsolete before they have been launched.

It won’t be long before we also have native plugins to your Google data sources (a logical next step), at which point except for a rare few scaled and highly complex AI systems, basically all the current frameworks and processes are just convoluted implementations of what can be achieved better, faster and cheaper in a single API call.

The relevance of this from an architectural point of view, is that instead of building chained and complex flows, I can refine a single simple model. Everything just became a lot simpler

Even if we can’t do everything we need right now, the line in the sand has been drawn and most common “tools” must become core concerns, integrated into APIs by providers. We don’t need to DIY our own Agents anymore, we have reliable, scaled and fast APIs to work with.

Bye bye Python frameworks. (don’t stay in touch).

Multi-Modal that works

Magical human to machine UX

Like me, you are probably a bit burned by all the multi-modal ‘demo’ examples of Audio/Video usage. I remember being so excited to try audio-streaming (I’ve been developing on WebRTC for years and in a past life founded an eCommerce video streaming tool).

The potential is obvious, but the whole thing just doesn’t feel right. For an example go to the OpenAI playground and try out their realtime API. It shows potential, but is miles away from being an enjoyable user experience. Most users just want an experience that “works”. Those milliseconds and natural intonations are not details, they are the very essence of the product.

Gemini Flash v2.0 is the first model that gave me the “wow” moment that I had when I first started using Claude for coding. It is the same feeling as the first time you sceptically asked ChatGPT a question and the “machine” gave you a human response.

The latency, the pauses, the voice intonation. Google has NAILED it. It is still obviously an AI system, but that was never the problem. The problem was always the pauses, the interruptions, the way that the model interacted with humans.

I don’t mind talking to a machine, assuming the machine is knowledgeable, able to interact and capable of doing the things that I need it to do. This is 100% the first time I’ve actually seen a model capable of providing this experience, and the ramifications are tremendous.

If you were excited by audio or video interactions and a bit sceptical of the models. Go give Gemini Flash v2.0 a try. Google has obviously invested time, effort and resources into solving issues about latency and cost. No other AI model that I have tried even comes close.

Conclusion

There was a dream that was the UX of Generative AI.

I’m as excited as the first time that I asked ChatGPT to write a linkedin post all those years ago. At this stage of my life and involvement with GenAI, that isn’t particularly easy.

I didn’t expect this moment to come so soon.

We now have a reality with a cheap, fast and highly capable model that we can interact with in real time.

This is literally the first time in my life that I can speak to a computer, and feel like it understands me, can respond to me, and take actions on my behalf. It isn’t a complex agent, it is a single API call.

This is a technical achievement that will reverberate through the AI world, even if many haven’t yet realised.

Apart from the natural interface and interactions, the model is capable of natively searching the internet, executing code and giving me the response in the time it takes to form a sentence.

There was a dream that was the UX of Generative AI.

In December 2024 it became a reality.

And it’s cheap…

And it’s scalable…

Now if you will excuse me, I’m off to build stuff.

Follow me:

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Los estafadores usaron OpenAi para inundar la web con SEO SPAM

Published

on

Akirabot es un programa que llena secciones de comentarios del sitio web y bots de chat de servicio al cliente con mensajes de spam generados por IA. Su objetivo es simple: quiere que se registre para un esquema de SEO que cuesta alrededor de $ 30 al mes. A ese precio bajo, jura, puede encantar los algoritmos de Google para llevarlo a la página delantera. Pero es una estafa.

Un nuevo informe de investigadores de la firma de ciberseguridad Sentinelone Documentó cómo los estafadores desplegaron AkirabotEl uso de los mensajes generados por OpenAI, y cómo evitó múltiples sistemas CaptCha y técnicas de detección de redes. Según el informe, el BOT apuntó a 420,000 dominios únicos y spam a 80,000 con éxito.

Quien dirige Akirbot opera su compañía de SEO bajo un montón de nombres diferentes, pero todos tienden a usar las palabras “Akira” o “Servicewrap”. Sentinelone dice que la herramienta encuentra sitios web diseñados por software de terceros como WIX o Squarespace y Spams Sectores de comentarios y chatbots automatizados con la promesa de obtener el sitio en la página principal de varios motores de búsqueda. Si tiene una pequeña empresa que existe en la web o ha ejecutado un sitio web basado en WordPress en los últimos 15 años, es probable que haya visto mensajes como esas manualidades de Akirabot.

“Mi nombre es Megan, del equipo de Akira: acabo de notar su sitio web a través de su lista de sitios web de WholeWeb, y quería ponerse en contacto con usted de inmediato”, se lee en un mensaje típico, que queda en los comentarios de una tienda de empresas de velas. “Tenemos una oferta especial para su sitio web hoy, y esa es la clasificación de la primera página en todos los principales motores de búsqueda (es decir, Google, Yahoo y Bing) + publicidad comercial de redes sociales y videos a partir de solo $ 29.99, lo que estoy absolutamente seguro que beneficiará a su sitio web y negocio, brindándole muchos nuevos clientes, muy rápido”.

El dominio más antiguo asociado con el bot se registró en 2022 y Sentinelone dice que pudo rastrear su progresión a medida que avanzaba de atacar los sitios de Shopify y evolucionar para enfrentarse a los creados con GoDaddy, Wix y Squarespace.

Según los investigadores, Akirabot utilizó una API de chat de Operai para crear mensajes personalizados con GPT-4O-Mini. Le llevó a GPT a darle mensajes después de solicitar que sea un “asistente útil que genera mensajes de marketing”. Todos los mensajes fueron similares, pero lo suficientemente diferentes como para engañar a los filtros de spam tradicionales.

Operai no respondió a la solicitud de comentarios de 404 medios, pero Sentinelone lo agradeció en la conclusión de su informe e imprimió una declaración de la compañía. “Estamos agradecidos con Sentinelone por compartir su investigación”, dijo Openii a Sentinelone. “Distribuir la producción de nuestros servicios para SPAM está en contra de nuestras políticas. La clave API involucrada está deshabilitada, y continuamos investigando y deshabilitaremos cualquier activo asociado. Tomamos un mal uso en serio y continuamente mejoramos nuestros sistemas para detectar el abuso”.

The bot also evaded CAPTCHA, according to the researchers “We identified an archive with files for CAPTCHA-related servers and browser fingerprints, which allow the bot’s web traffic to mimic a legitimate end user. The archives contain a fingerprint server that runs on the same system as the other AkiraBot tools and intercepts the website loading processes using Selenium WebDriver, an automation framework that simulates user browsing Actividad ”, dice el informe.

Sentinelone también detalló cómo el BOT usó hosts proxy para evitar la detección de redes. “En cada archivo de Sentinelone analizado, Akirabot usó el servicio SmartProxy. El sitio web de SmartProxy afirma que sus representantes son de origen ético y que proporcionan proxies centrales, móviles y residenciales de datos”, dijo el informe. “Cada versión del bot usa las mismas credenciales proxy, lo que sugiere que el mismo actor está detrás de cada iteración”.

Una variante reciente del BOT, Useakira, todavía está actualizado y tiene revisiones de clientes sobre Trustpilot. Todos son cinco estrellas o una estrella. “¡Acabo de enviar spam en mi chat de Wix! ¡Gracias por las reseñas aquí por ahorrarme algo de tiempo al confirmar que es spam!” Dijo un usuario.

“No tengo idea de quién es esta compañía hasta hoy, cuando de repente empiezo a recibir correos electrónicos. Han raspado mis datos de mi sitio web y los están utilizando para tratar de venderme publicidad del sitio web”, dijo otro incluido en el informe.

“Recibió 5 correos electrónicos Useakira en un día, aunque nuestros sitios web se comuniquen con nosotros, tratando de impulsar su servicio, Spam Company no se involucrará con ellos”, dijo un tercero.

También hay muchas reseñas de cinco estrellas para el servicio, pero Sentinelabs señaló que siguen un patrón. Los revisores de cinco estrellas tienden a realizar una revisión anterior unos días antes de la revisión Akira o ServiceWrap y los mensajes a menudo suenan igual. “Creemos que el actor puede estar generando algunas críticas falsas, aunque es difícil decir con certeza”, dice el informe.

Aunque Operai cerró la clave API del actor malo, que el bot existe en absoluto y fue decenas exitosas de miles de veces apunta a un futuro sombrío. Ai Slop es un Ataque de la fuerza bruta a los algoritmos Eso está llenando todos nuestros feeds con veneno generado por la ametralladora. Ahora los delincuentes han utilizado un método similar para ejecutar una estafa SEO. Funcionó, por un tiempo.

Quien lo construyó probablemente volverá con algo más. “Esperamos que esta campaña continúe evolucionando a medida que los proveedores de alojamiento en el sitio web adaptan las defensas para disuadir el spam”, dijo Sentinelone en su informe.

El miércoles, el presidente Trump firmado una orden ejecutiva que le dijeron a las agencias respectivas que revocen cualquier autorización de seguridad en poder de Chris Krebs, el director de inteligencia y política pública de Sentinelone, y otros en la empresa. Mientras que él era el jefe de una parte de DHS centrada en la ciberseguridad, Krebs dijo que Biden ganó las elecciones de 2020, yendo en contra de las falsas afirmaciones de Trump que las elecciones fueron robadas.

“Somos una empresa de ciberseguridad: nuestra misión es defender a los clientes, empresas y gobiernos contra las amenazas cibernéticas al aprovechar la inteligencia artificial más avanzada. Vemos a la Casa Blanca como un colaborador crucial en esa misión, y continuaremos apoyando a una América fuerte en un momento de mayores amenazas geopolíticas”, “. Sentinelone dijo en un comunicado. “Cooperaremos activamente en cualquier revisión de las autorizaciones de seguridad en poder de cualquiera de nuestro personal, actualmente menos de 10 empleados en general y solo cuando requeriran los procesos y procedimientos gubernamentales existentes para asegurar los sistemas gubernamentales. En consecuencia, no esperamos que esto afecte materialmente nuestro negocio de manera”.

Continue Reading

Noticias

La coalición insta a la fiscal general de California a detener la reestructuración con fines de lucro de Openai

Published

on

Crédito: dominio público Unsplash/CC0

Una coalición de organizaciones sin fines de lucro, fundaciones y grupos laborales de California está planteando preocupaciones sobre el fabricante de chatgpt Openai, instando al fiscal general del estado a detener los planes de la startup de inteligencia artificial de reestructurarse como una empresa con fines de lucro.

Más de 50 organizaciones, dirigidas por LatinoProsperity y la Fundación San Francisco, firmaron una petición que fue enviada a Atty. La oficina del general Rob Bonta el miércoles, solicitando que investigue la compañía liderada por Sam Altman.

“Operai comenzó su trabajo con el objetivo de desarrollar la IA para beneficiar a la humanidad en su conjunto, pero su intento actual de alterar su estructura corporativa revela su nuevo objetivo: proporcionar los beneficios de la IA, el potencial de ganancias y control incalculables sobre lo que puede convertirse en poderosas tecnologías de alteración mundial, a un puñado de inversores corporativos y empleados de alto nivel”, dijo la petición.

Operai, con sede en San Francisco, comenzó como una organización sin fines de lucro en 2015 y luego lanzó una subsidiaria con fines de lucro para supervisar sus operaciones comerciales. Actualmente, el tablero de la organización sin fines de lucro supervisa esa subsidiaria, que desarrolla productos y servicios, incluidos ChatGPT y la herramienta de texto a video Sora.

Pero a medida que la competencia entre las compañías de IA se calentó, OpenAi dijo que necesitaba cambiar su estructura comercial para recaudar más dinero. En diciembre, Openai dijo que exploraría la transición de su subsidiaria comercial a una corporación de beneficios público, un tipo de negocio con fines de lucro donde la organización sin fines de lucro de OpenAI tendría una participación de la propiedad, pero ya no la controlaría.

Cuando Operai comenzó como un laboratorio de investigación sin fines de lucro, no había planes para un producto, solo planes para publicar trabajos de investigación, dijo Altman a Newsletter Stratechery en marzo.

Con el tiempo, Operai se ha convertido en un líder en el espacio de IA, con 500 millones de personas que usan ChatGPT semanalmente. Si pudiera regresar, Altman dijo que habría establecido la compañía de manera diferente.

“Sabíamos que escalar computadoras iba a ser importantes, pero aún así subestimamos cuánto necesitábamos para escalarlas”, dijo Altman en una conversación con Harvard Business School.

Otras nuevas empresas de IA, incluidas Anthrope y XAI, son corporaciones de beneficios públicos.

El cambio propuesto en la estructura de OpenAI levantó las cejas entre algunos líderes sin fines de lucro. La petición era dudosa de que los activos caritativos de OpenAI estuvieran protegidos, acusados ​​OpenAi de no cumplir con las reglas sin fines de lucro y expresar su preocupación de que otras nuevas empresas usarían una estructura sin fines de lucro “para crear posibilidades aceleradas y amplificadas para beneficios financieros individuales”.

La junta sin fines de lucro de OpenAI pasó por una gran sacudida en 2023. La junta votó para despedir a Altman por presunta falta de franqueza consistente en sus comunicaciones con los miembros de la junta. Más tarde fue reinstalado cinco días después y la junta fue reestructurada, con varios miembros de la junta opositores que se fueron.

Este mes, Openai dijo que completó una ronda de financiación de $ 40 mil millones dirigida por SoftBank, lo que eleva su valoración a $ 300 mil millones. Como parte del acuerdo, SoftBank puede reducir su inversión si OpenAI no cambia su estructura corporativa para fin de año.

A diferencia de las empresas con fines de lucro, las organizaciones sin fines de lucro están limitadas en cómo se utilizan los fondos recaudados.

“No pueden vender acciones u ofrecer devoluciones”, dijo Neil Elan, socio del bufete de abogados Stubbs, Alderton y Markiles LLP. “La equidad es lo que impulsa muchos de estos modelos de alta valoración. También es difícil competir completamente con Meta, Microsoft y Google, que tienen acceso a muchos más recursos … sin fondos comparables”.

Operai ahora se ubica como la segunda compañía privada más valiosa, vinculada con la empresa matriz de Tiktok, según la firma de investigación CB Insights. La firma privada con la mayor valoración es SpaceX de Elon Musk con $ 350 mil millones.

“Este es un tipo de conversión sin precedentes en términos de su tamaño y solo queremos asegurarnos de que el Fiscal General realmente ejerce sus poderes para proteger esos activos de caridad”, dijo Orson Aguilar, CEO y presidente fundador de LatinoProsperity, una organización sin fines de lucro con sede en LA que se enfoca en avanzar en las políticas que construyen la wealth en la comunidad latina.

Algunos líderes sin fines de lucro dijeron que lo que está sucediendo con OpenAI les recuerda la transición que los proveedores de atención médica sin fines de lucro hicieron a las fines de lucro en la década de 1990. Los líderes gubernamentales intervinieron para ayudar a regular ese proceso.

LatinoProsperity, la Fundación San Francisco y otras organizaciones sin fines de lucro plantearon preocupaciones por primera vez al Fiscal General en enero.

Bonta ha buscado más información sobre la reestructuración de Openai, y su fiscal general adjunto se acercó a la startup de IA y solicitó que proporcione más detalles. A principios de este año, la oficina de Bonta le dijo a los medios de comunicación Calmatters que es una investigación en curso y que el departamento “se compromete a proteger los activos caritativos para su propósito previsto y se toma en serio esta responsabilidad”.

Aguilar dice que “no ha habido ninguna acción significativa”.

Algunos de los competidores de Openai se han opuesto a los planes de la compañía. El año pasado, Meta escribió al Fiscal General. Musk, cofundador de OpenAi que ahora dirige al rival Xai, demandó a OpenAi, buscando evitar que Operai cambie su estructura corporativa.

Nathanael Fast, director del Centro Neely para el Liderazgo ético y la toma de decisiones en la USC Marshall School of Business, cree que OpenAi podrá avanzar con sus planes a pesar de la oposición.

“La gran pregunta es, ¿qué sucederá con los valores que tienen una vez que todo el polvo se asienta y se convierten en una corporación que compite con otras corporaciones con fines de lucro?” Dijo Fast. “¿Tendrán valores únicos a los que se mantienen desde sus primeros días como una organización sin fines de lucro? ¿O se verán como cualquier otra compañía orientada a las ganancias?”

2025 Los Angeles Times. Distribuido por Tribune Content Agency, LLC.

Citación: La coalición insta al Fiscal General de California a detener la reestructuración de la beneficio de Openai (2025, 10 de abril) Recuperado el 10 de abril de 2025 de https://techxplore.com/news/2025-04-coalition-urges-california-attorney-general.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Continue Reading

Noticias

La coalición insta a la fiscal general de California a detener la transición con fines de lucro de Openai

Published

on

Una coalición de organizaciones sin fines de lucro, fundaciones y grupos laborales de California está planteando preocupaciones sobre el fabricante de chatgpt Openai, instando al fiscal general del estado a detener los planes de la startup de inteligencia artificial de reestructurarse como una empresa con fines de lucro.

Más de 50 organizaciones, dirigidas por LatinoProsperity y la Fundación San Francisco, firmaron una petición que fue enviada a Atty. La oficina del general Rob Bonta el miércoles, solicitando que investigue la compañía liderada por Sam Altman.

“Operai comenzó su trabajo con el objetivo de desarrollar la IA para beneficiar a la humanidad en su conjunto, pero su intento actual de alterar su estructura corporativa revela su nuevo objetivo: proporcionar los beneficios de la IA, el potencial de ganancias y control incalculables sobre lo que puede convertirse en poderosas tecnologías de alteración mundial, a un puñado de inversores corporativos y empleados de alto nivel”, dijo la petición.

La oficina de Bonta no tuvo un comentario inmediato.

En un comunicado, OpenAi dijo que su junta “ha sido muy claro” que tenemos la intención de fortalecer la organización sin fines de lucro para que pueda cumplir su misión a largo plazo “.

“No lo estamos vendiendo, estamos duplicando su trabajo”, dijo la compañía. “Esperamos los aportes y los consejos de los líderes que tienen experiencia en organizaciones comunitarias sobre cómo podemos ayudarlos a lograr sus misiones, como lo anunció recientemente la creación de nuestra Comisión Asesora”.

Operai, con sede en San Francisco, comenzó como una organización sin fines de lucro en 2015 y luego lanzó una subsidiaria con fines de lucro para supervisar sus operaciones comerciales. Actualmente, el tablero de la organización sin fines de lucro supervisa esa subsidiaria, que desarrolla productos y servicios, incluidos ChatGPT y la herramienta de texto a video Sora.

Pero a medida que la competencia entre las compañías de IA se calentó, OpenAi dijo que necesitaba cambiar su estructura comercial para recaudar más dinero. En diciembre, Openai dijo que exploraría la transición de su subsidiaria comercial a una corporación de beneficios público, un tipo de negocio con fines de lucro en el que la organización sin fines de lucro de OpenAI tendría una participación de la propiedad pero ya no la controlaría.

Cuando Operai comenzó como un laboratorio de investigación sin fines de lucro, no había planes para un producto, solo planea publicar trabajos de investigación, dijo Altman a Newsletter Stratechery en marzo.

Con el tiempo, Operai se ha convertido en un líder en el espacio de IA, con 500 millones de personas que usan ChatGPT semanalmente. Si pudiera regresar, dijo Altman, habría establecido la compañía de manera diferente.

“Sabíamos que escalar computadoras iba a ser importantes, pero aún así subestimamos cuánto necesitábamos para escalarlas”, dijo Altman en una conversación con Harvard Business School.

Otras nuevas empresas de IA, incluidas Antropic y XAI, son corporaciones de beneficios públicos.

El cambio propuesto en la estructura de OpenAI levantó las cejas entre algunos líderes sin fines de lucro. La petición era dudosa de que los activos caritativos de OpenAI estuvieran protegidos, acusados ​​OpenAi de no cumplir con las reglas sin fines de lucro y expresar las preocupaciones de que otras nuevas empresas usarían una estructura sin fines de lucro “para crear posibilidades aceleradas y amplificadas para beneficios financieros individuales”.

La junta sin fines de lucro de Openai pasó por una sacudida en 2023. La junta votó para despedir a Altman por presunta falta de franqueza consistente en sus comunicaciones con los miembros de la junta. Fue reinstalado cinco días después, y la junta fue reestructurada, con varios miembros de la junta opositores que se fueron.

El mes pasado, Openai dijo que completó una ronda de financiación de $ 40 mil millones dirigida por SoftBank, lo que eleva su valoración a $ 300 mil millones. Como parte del acuerdo, SoftBank puede reducir su inversión si OpenAI no cambia su estructura corporativa para fin de año.

A diferencia de las empresas con fines de lucro, las organizaciones sin fines de lucro están limitadas en cómo se utilizan los fondos recaudados.

“No pueden vender acciones u ofrecer devoluciones”, dijo Neil Elan, socio del bufete de abogados Stubbs Alderton & Markiles. “La equidad es lo que impulsa muchos de estos modelos de alta valoración. También es difícil competir completamente con Meta, Microsoft y Google, que tienen acceso a muchos más recursos … sin fondos comparables”.

Operai ahora se ubica como la segunda compañía privada más valiosa, vinculada con la empresa matriz de Tiktok, Bytedance, según la firma de investigación CB Insights. La firma privada con la mayor valoración es SpaceX de Elon Musk con $ 350 mil millones.

“Este es un tipo de conversión sin precedentes en términos de su tamaño y solo queremos asegurarnos de que el Fiscal General realmente ejerce sus poderes para proteger esos activos de caridad”, dijo Orson Aguilar, director ejecutivo y presidente fundador de LatinoProsperity, una organización sin fines de lucro con sede en Los Ángeles que se enfoca en avanzar en las políticas que construyen wething en la comunidad latina.

Algunos líderes sin fines de lucro dijeron que lo que está sucediendo con OpenAI les recuerda la transición que los proveedores de atención médica sin fines de lucro hicieron a las fines de lucro en la década de 1990. Los líderes gubernamentales intervinieron para ayudar a regular ese proceso.

LatinoProsperity, la Fundación San Francisco y otras organizaciones sin fines de lucro plantearon preocupaciones por primera vez al Fiscal General en enero.

Bonta ha buscado más información sobre la reestructuración de Openai, y su fiscal general adjunto se comunicó con la startup y solicitó que proporcione más detalles. A principios de este año, la oficina de Bonta le dijo a los medios de comunicación Calmatters que es una investigación continua y que el departamento “está comprometido a proteger los activos caritativos para su propósito previsto y toma en serio esta responsabilidad”.

Aguilar dice que “no ha habido ninguna acción significativa”.

Algunos de los competidores de Openai se han opuesto a los planes de la compañía. El año pasado, Meta escribió al Fiscal General. Musk, cofundador de OpenAi que ahora dirige al rival Xai, demandó a OpenAi, buscando evitar que Operai cambie su estructura corporativa.

Nathanael Fast, director del Centro Neely para el Liderazgo ético y la toma de decisiones en la USC Marshall School of Business, cree que OpenAi podrá avanzar con sus planes a pesar de la oposición.

“La gran pregunta es, ¿qué sucederá con los valores que tienen una vez que todo el polvo se asienta y se convierten en una corporación que compite con otras corporaciones con fines de lucro?” Dijo Fast. “¿Tendrán valores únicos a los que se mantienen desde sus primeros días como una organización sin fines de lucro? ¿O se verán como cualquier otra compañía orientada a las ganancias?”

Continue Reading

Trending