Connect with us

Noticias

On the OpenAI Economic Blueprint

Published

on

  1. Man With a Plan.

  2. Oh the Pain.

  3. Actual Proposals.

  4. For AI Builders.

  5. Think of the Children.

  6. Content Identification.

  7. Infrastructure Week.

  8. Paying Attention.

The primary Man With a Plan this week for government-guided AI prosperity was UK Prime Minister Keir Starmer, with a plan coming primarily from Matt Clifford. I’ll be covering that soon.

Today I will be covering the other Man With a Plan, Sam Altman, as OpenAI offers its Economic Blueprint.

Cyrps1s (CISO OpenAI): AI is the ultimate race. The winner decides whether the future looks free and democratic, or repressed and authoritarian.

OpenAI, and the Western World, must win – and we have a blueprint to do so.

Do you hear yourselves? The mask on race and jingoism could not be more off, or firmly attached, depending on which way you want to set up your metaphor. If a movie had villains talking like this people would say it was too on the nose.

Somehow the actual documents tell that statement to hold its beer.

The initial exploratory document is highly disingenuous, trotting out stories of the UK requiring people to walk in front of cars waving red flags and talking about ‘AI’s main street,’ while threatening that if we don’t attract $175 billion in awaiting AI funding it will flow to China-backed projects. They even talk about creating jobs… by building data centers.

The same way some documents scream ‘an AI wrote this,’ others scream ‘the authors of this post are not your friends and are pursuing their book with some mixture of politics-talk and corporate-speak in the most cynical way you can imagine.’

I mean, I get it, playas gonna play, play, play, play, play. But can I ask OpenAI to play with at least some style and grace? To pretend to pretend not to be doing this, a little?

As opposed to actively inserting so many Fnords their document causes physical pain.

The full document starts out in the same vein. Chris Lehane, their Vice President of Global Affairs, writes an introduction as condescending as I can remember, and that plus the ‘where we stand’ repeat the same deeply cynical rhetoric from the summary.

In some sense, it is not important that the way the document is written makes me physically angry and ill in a way I endorse – to the extent that if it doesn’t set off your bullshit detectors and reading it doesn’t cause you pain, then I notice that there is at least some level on which I shouldn’t trust you.

But perhaps that is the most important thing about the document? That it tells you about the people writing it. They are telling you who they are. Believe them.

This is related to the ‘truesight’ that Claude sometimes displays.

As I wrote that, I was only on page 7, and hadn’t even gotten to the actual concrete proposals.

The actual concrete proposals are a distinct issue. I was having trouble reading through to find out what they are because this document filled me with rage and made me physically ill.

It’s important to notice that! I read documents all day, often containing things I do not like. It is very rare that my body responds by going into physical rebellion.

No, the document hasn’t yet mentioned even the possibility of any downside risks at all, let alone existential risks. And that’s pretty terrible on its own. But that’s not even what I’m picking up here, at all. This is something else. Something much worse.

Worst of all, it feels intentional. I can see the Fnords. They want me to see them. They want everyone to implicitly know they are being maximally cynical.

All right, so if one pushes through to the second half and the actual ‘solutions’ section, what is being proposed, beyond ‘regulating us would be akin to requiring someone to walk in front of every car waiving a red flag, no literally.’

The top level numbered statements describe what they propose, I attempted to group and separate proposals for better clarity. The nested statements (a, b, etc) are my reactions.

They say the Federal Government should, in a section where they actually say words with meanings rather than filling it with Fnords:

  1. Share national security information and resources.

    1. Okay. Yes. Please do.

  2. Incentivize AI companies to deploy their products widely, including to allied and partner nations and to support US government agencies.

    1. Huh? What? Is there a problem here that I am not noticing? Who is not deploying, other than in response to other countries regulations saying they cannot deploy (e.g. the EU)? Or are you trying to actively say that safety concerns are bad?

  3. Support the development of standards and safeguards, and ensure they are recognized and respected by other nations.

    1. In a different document I would be all for this – if we don’t have universal standards, people will go shopping. However, in this context, I can’t help but read it mostly as pre-emption, as in ‘we want America to prevent other states from imposing any safety requirements or roadblocks.’

  4. Share its unique expertise with AI companies, including mitigating threats including cyber and CBRN.

    1. Yes! Very much so. Jolly good.

  5. Help companies access secure infrastructure to evaluate model security risks and safeguards.

    1. Yes, excellent, great.

  6. Promote transparency consistent with competitiveness, protect trade secrets, promote market competition, ‘carefully choose disclosure requirements.’

    1. I can’t disagree, but how could anyone?

    2. The devil is in the details. If this had good details, and emphasized that the transparency should largely be about safety questions, it would be another big positive.

  7. Create a defined, voluntary pathway for companies that develop LLMs to work with government to define model evaluations, test models and exchange information to support the companies safeguards.

    1. This is about helping you, the company? And you want it to be entirely voluntary? And in exchange, they explicitly want preemption from state-by-state regulations.

    2. Basically this is a proposal for a fully optional safe harbor. I mean, yes, the Federal government should have a support system in place to aid in evaluations. But notice how they want it to work – as a way to defend companies against any other requirements, which they can in turn ignore when inconvenient.

    3. Also, the goal here is to ‘support the companies safeguards,’ not to in any way see if the models are actually a responsible thing to release on any level.

    4. Amazing to request actively less than zero Federal regulations on safety.

  8. Empower the public sector to quickly and securely adopt AI tools.

    1. I mean, sure, that would be nice if we can actually do it as described.

A lot of the components here are things basically everyone should agree upon.

Then there are the parts where, rather than this going hand-in-hand with an attempt to not kill everyone and ensure against catastrophes, attempts to ensure that no one else tries to stop catastrophes or prevent everyone from being killed. Can’t have that.

They also propose that AI ‘builders’ could:

  1. Form a consortium to identify best practices for working with NatSec.

  2. Develop training programs for AI talent.

I mean, sure, those seem good and we should have an antitrust exemption to allow actions like this along with one that allows them to coordinate, slow down or pause in the name of safety if it comes to that, too. Not that this document mentions that.

Sigh, here we go. Their solutions for thinking of the children are:

  1. Encourage policy solutions that prevent the creation and distribution of CSAM. Incorporate CSAM protections into the AI development lifestyle. ‘Take steps to prevent downstream developers from using their models to generate CSAM.’

    1. This is effectively a call to ban open source image models. I’m sorry, but it is. I wish it were not so, but there is no known way to open source image models, and have them not be used for CSAM, and I don’t see any reason to expect this to be solvable, and notice the reference to ‘downstream developers.’

  2. Promote conditions that support robust and lasting partnerships among AI companies and law enforcement.

  1. Apply provenance data to all AI-generated audio-visual content. Use common provenance standards. Have large companies report progress.

    1. Sure. I think we’re all roughly on the same page here. Let’s move on to ‘preferences.’

  2. People should be ‘empowered to personalize their AI tools.’

    1. I agree we should empower people in this way. But what does the government have to do with this? None of their damn business.

  3. People should control how their personal data is used.

    1. Yes, sure, agreed.

  4. ‘Government and industry should work together to scale AI literacy through robust funding for pilot programs, school district technology budgets and professional development trainings that help people understand how to choose their own preferences to personalize their tools.’

    1. No. Stop. Please. These initiatives never, ever work, we need to admit this.

    2. But also shrug, it’s fine, it won’t do that much damage.

And then, I feel like I need to fully quote this one too:

  1. In exchange for having so much freedom, users should be responsible for impacts of how they work and create with AI. Common-sense rules for AI that are aimed at protecting from actual harms can only provide that protection if they apply to those using the technology as well as those building it.

    1. If seeing the phrase ‘In exchange for having so much freedom’ doesn’t send a chill down your spine, We Are Not the Same.

    2. But I applaud the ‘as well as’ here. Yes, those using the technology should be responsible for the harm they themselves cause, so long as this is ‘in addition to’ rather than shoving all responsibility purely onto them.

Finally, we get to ‘infrastructure as destiny,’ an area where we mostly agree on what is to actually be done, even if I despise a lot of the rhetoric they’re using to argue for it.

  1. Ensure that AIs can train on all publicly available data.

    1. This is probably the law now and I’m basically fine with it.

  2. ‘While also protecting creators from unauthorized digital replicas.’

    1. This seems rather tricky if it means something other than ‘stop regurgitation of training data’? I assume that’s what it means, while trying to pretend it’s more than that. If it’s more than that, they need to explain what they have in mind and how one might do it.

  3. Digitize government data currently in analog form.

    1. Probably should do that anyway, although a lot of it shouldn’t go on the web or into LLMs. Kind of a call for government to pay for data curation.

  4. ‘A Compact for AI’ for capital and supply chains and such among US allies.

    1. I don’t actually understand why this is necessary, and worry this amounts to asking for handouts and to allow Altman to build in the UAE.

  5. ‘AI economic zones’ that speed up the permitting process.

    1. Or we could, you know, speed up the permitting process in general.

    2. But actually we can’t and won’t, so even though this is deeply, deeply stupid and second best it’s probably fine. Directionally this is helpful.

  6. Creation of AI research labs and workforces aligned with key local industries.

    1. This seems like pork barrel spending, an attempt to pick our pockets, we shouldn’t need to subsidize this. To the extent there are applications here, the bottleneck won’t be funding, it will be regulations and human objections, let’s work on those instead.

  7. ‘A nationwide AI education strategy’ to ‘help our current workforce and students become AI ready.’

    1. I strongly believe that what this points towards won’t work. What we actually need is to use AI to revolutionize the education system itself. That would work wonders, but you all (in government reading this document) aren’t ready for that conversation and OpenAI knows this.

  8. More money for research infrastructure and science. Basically have the government buy the scientists a bunch of compute, give OpenAI business?

    1. Again this seems like an attempt to direct government spending and get paid. Obviously we should get our scientists AI, but why can’t they just buy it the same way everyone else does? If we want to fund more science, why this path?

  9. Leading the way on the next generation of energy technology.

    1. No arguments here. Yay next generation energy production.

    2. Clearly Altman wants Helion to get money but I’m basically fine with that.

  10. Dramatically increase federal spending on power and data transmission and streamlined approval for new lines.

    1. I’d emphasize approvals and regulatory barriers more than money.

    2. Actual dollars spent don’t seem to me like the bottleneck, but I could be convinced otherwise.

    3. If we have a way to actually spend money and have that result in a better grid, I’m in favor.

  11. Federal backstops for high-value AI public works.

    1. If this is more than ‘build more power plants and transmission lines and batteries and such’ I am confused what is actually being proposed.

    2. In general, I think helping get us power is great, having the government do the other stuff is probably not its job.

When we get down to the actual asks in the document, a majority of them I actually agree with, and most of them are reasonable, once I was able to force myself to read the words intended to have meaning.

There are still two widespread patterns to note within the meaningful content.

  1. The easy theme, as you would expect, is the broad range of ‘spend money on us and other AI things’ proposals that don’t seem like they would accomplish much. There are some proposals that do seem productive, especially around electrical power, but a lot of this seems like the traditional ways the Federal government gets tricked into spending money. As long as this doesn’t scale too big, I’m not that concerned.

  2. Then there is the play to defeat any attempt at safety regulation, via Federal regulations that actively net interfere with that goal in case any states or countries wanted to try and help. There is clear desirability of a common standard for this, but a voluntary safe harbor preemption, in exchange for various nebulous forms of potential cooperation, cannot be the basis of our entire safety plan. That appears to be the proposal on offer here.

The real vision, the thing I will take away most, is in the rhetoric and presentation, combined with the broader goals, rather than the particular details.

OpenAI now actively wants to be seen as pursuing this kind of obviously disingenuous jingoistic and typically openly corrupt rhetoric, to the extent that their statements are physically painful to read – I dealt with much of that around SB 1047, but this document takes that to the next level and beyond.

OpenAI wants no enforced constraints on their behavior, and they want our money.

OpenAI are telling us who they are. I fully believe them.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

La coalición insta a la fiscal general de California a detener la transición con fines de lucro de Openai

Published

on

Una coalición de organizaciones sin fines de lucro, fundaciones y grupos laborales de California está planteando preocupaciones sobre el fabricante de chatgpt Openai, instando al fiscal general del estado a detener los planes de la startup de inteligencia artificial de reestructurarse como una empresa con fines de lucro.

Más de 50 organizaciones, dirigidas por LatinoProsperity y la Fundación San Francisco, firmaron una petición que fue enviada a Atty. La oficina del general Rob Bonta el miércoles, solicitando que investigue la compañía liderada por Sam Altman.

“Operai comenzó su trabajo con el objetivo de desarrollar la IA para beneficiar a la humanidad en su conjunto, pero su intento actual de alterar su estructura corporativa revela su nuevo objetivo: proporcionar los beneficios de la IA, el potencial de ganancias y control incalculables sobre lo que puede convertirse en poderosas tecnologías de alteración mundial, a un puñado de inversores corporativos y empleados de alto nivel”, dijo la petición.

La oficina de Bonta no tuvo un comentario inmediato.

En un comunicado, OpenAi dijo que su junta “ha sido muy claro” que tenemos la intención de fortalecer la organización sin fines de lucro para que pueda cumplir su misión a largo plazo “.

“No lo estamos vendiendo, estamos duplicando su trabajo”, dijo la compañía. “Esperamos los aportes y los consejos de los líderes que tienen experiencia en organizaciones comunitarias sobre cómo podemos ayudarlos a lograr sus misiones, como lo anunció recientemente la creación de nuestra Comisión Asesora”.

Operai, con sede en San Francisco, comenzó como una organización sin fines de lucro en 2015 y luego lanzó una subsidiaria con fines de lucro para supervisar sus operaciones comerciales. Actualmente, el tablero de la organización sin fines de lucro supervisa esa subsidiaria, que desarrolla productos y servicios, incluidos ChatGPT y la herramienta de texto a video Sora.

Pero a medida que la competencia entre las compañías de IA se calentó, OpenAi dijo que necesitaba cambiar su estructura comercial para recaudar más dinero. En diciembre, Openai dijo que exploraría la transición de su subsidiaria comercial a una corporación de beneficios público, un tipo de negocio con fines de lucro en el que la organización sin fines de lucro de OpenAI tendría una participación de la propiedad pero ya no la controlaría.

Cuando Operai comenzó como un laboratorio de investigación sin fines de lucro, no había planes para un producto, solo planea publicar trabajos de investigación, dijo Altman a Newsletter Stratechery en marzo.

Con el tiempo, Operai se ha convertido en un líder en el espacio de IA, con 500 millones de personas que usan ChatGPT semanalmente. Si pudiera regresar, dijo Altman, habría establecido la compañía de manera diferente.

“Sabíamos que escalar computadoras iba a ser importantes, pero aún así subestimamos cuánto necesitábamos para escalarlas”, dijo Altman en una conversación con Harvard Business School.

Otras nuevas empresas de IA, incluidas Antropic y XAI, son corporaciones de beneficios públicos.

El cambio propuesto en la estructura de OpenAI levantó las cejas entre algunos líderes sin fines de lucro. La petición era dudosa de que los activos caritativos de OpenAI estuvieran protegidos, acusados ​​OpenAi de no cumplir con las reglas sin fines de lucro y expresar las preocupaciones de que otras nuevas empresas usarían una estructura sin fines de lucro “para crear posibilidades aceleradas y amplificadas para beneficios financieros individuales”.

La junta sin fines de lucro de Openai pasó por una sacudida en 2023. La junta votó para despedir a Altman por presunta falta de franqueza consistente en sus comunicaciones con los miembros de la junta. Fue reinstalado cinco días después, y la junta fue reestructurada, con varios miembros de la junta opositores que se fueron.

El mes pasado, Openai dijo que completó una ronda de financiación de $ 40 mil millones dirigida por SoftBank, lo que eleva su valoración a $ 300 mil millones. Como parte del acuerdo, SoftBank puede reducir su inversión si OpenAI no cambia su estructura corporativa para fin de año.

A diferencia de las empresas con fines de lucro, las organizaciones sin fines de lucro están limitadas en cómo se utilizan los fondos recaudados.

“No pueden vender acciones u ofrecer devoluciones”, dijo Neil Elan, socio del bufete de abogados Stubbs Alderton & Markiles. “La equidad es lo que impulsa muchos de estos modelos de alta valoración. También es difícil competir completamente con Meta, Microsoft y Google, que tienen acceso a muchos más recursos … sin fondos comparables”.

Operai ahora se ubica como la segunda compañía privada más valiosa, vinculada con la empresa matriz de Tiktok, Bytedance, según la firma de investigación CB Insights. La firma privada con la mayor valoración es SpaceX de Elon Musk con $ 350 mil millones.

“Este es un tipo de conversión sin precedentes en términos de su tamaño y solo queremos asegurarnos de que el Fiscal General realmente ejerce sus poderes para proteger esos activos de caridad”, dijo Orson Aguilar, director ejecutivo y presidente fundador de LatinoProsperity, una organización sin fines de lucro con sede en Los Ángeles que se enfoca en avanzar en las políticas que construyen wething en la comunidad latina.

Algunos líderes sin fines de lucro dijeron que lo que está sucediendo con OpenAI les recuerda la transición que los proveedores de atención médica sin fines de lucro hicieron a las fines de lucro en la década de 1990. Los líderes gubernamentales intervinieron para ayudar a regular ese proceso.

LatinoProsperity, la Fundación San Francisco y otras organizaciones sin fines de lucro plantearon preocupaciones por primera vez al Fiscal General en enero.

Bonta ha buscado más información sobre la reestructuración de Openai, y su fiscal general adjunto se comunicó con la startup y solicitó que proporcione más detalles. A principios de este año, la oficina de Bonta le dijo a los medios de comunicación Calmatters que es una investigación continua y que el departamento “está comprometido a proteger los activos caritativos para su propósito previsto y toma en serio esta responsabilidad”.

Aguilar dice que “no ha habido ninguna acción significativa”.

Algunos de los competidores de Openai se han opuesto a los planes de la compañía. El año pasado, Meta escribió al Fiscal General. Musk, cofundador de OpenAi que ahora dirige al rival Xai, demandó a OpenAi, buscando evitar que Operai cambie su estructura corporativa.

Nathanael Fast, director del Centro Neely para el Liderazgo ético y la toma de decisiones en la USC Marshall School of Business, cree que OpenAi podrá avanzar con sus planes a pesar de la oposición.

“La gran pregunta es, ¿qué sucederá con los valores que tienen una vez que todo el polvo se asienta y se convierten en una corporación que compite con otras corporaciones con fines de lucro?” Dijo Fast. “¿Tendrán valores únicos a los que se mantienen desde sus primeros días como una organización sin fines de lucro? ¿O se verán como cualquier otra compañía orientada a las ganancias?”

Continue Reading

Noticias

Crea tu propia figura de acción de IA con chatgpt

Published

on

El popular modelo AI, ChatGPT, ha introducido una nueva característica que permite a los usuarios crear sus propias figuras de acción. Al usar un mensaje simple, los usuarios pueden generar figuras de acción digital de sí mismos, imitando el estilo de juguetes coleccionables premium. Esta nueva característica ha ganado tracción, especialmente en plataformas de redes sociales como Tiktok, donde los usuarios muestran sus muñecas AI encerradas en el envasado al estilo “Barbie Box”.

Cómo crear su propia figura de acción con chatgpt

  • Visite el sitio web de ChatGPT o abra la aplicación CHATGPT.
  • Sube una foto tuya como referencia.
  • Ingrese el siguiente mensaje:
    “Use esta foto mía para crear una figura de acción de mí mismo en un paquete de ampolla, al estilo de un juguete coleccionable premium. La figura debe estar de pie y tener una sonrisa relajada y amigable. El paquete de ampolla debe tener un encabezado con el texto ”[ACTION FIGURE NAME]’En letras grandes y un subtítulo de'[SUBHEADING]’Debajo de él. Incluya accesorios en compartimentos al lado de la figura: [LIST OF ACCESSORIES]. “
  • Espere unos minutos para que la IA genere su figura de acción.
  • Si usa la versión gratuita de ChatGPT, tenga en cuenta que solo puede hacer tres solicitudes por día.

La tendencia creciente de las figuras de acción de IA

La tendencia de la figura de acción proviene del uso creciente de herramientas generativas de IA, como ChatGPT, para transformar selfies y fotos en avatares estilizados. Esta tendencia se basa en la estética “Barbiecore”, con un enfoque en los diseños y el empaque de Tellike. Evoca la sensación comercial y brillante de los anuncios de figuras de acción de los años noventa y de los años 2000, que a menudo presentaban logotipos de juguetes, lemas y estadísticas de personajes imaginadas.

Figura 1: Un usuario compartido resultado del indicador en X que la convirtió en una muñeca Barbie

La generación de arte de IA se encuentra con envases de juguetes retro

El surgimiento de las cifras de acción generadas por IA está vinculado a la creciente popularidad de los estilos de juguete retro. Con la tendencia “Barbiecore” que se afianza, muchos usuarios se sienten atraídos por la sensación nostálgica de las figuras de acción en caja. Estas interpretaciones digitales combinan temas futuristas con una sensación de estética de juguete vintage. Las herramientas de generación de imágenes de ChatGPT permiten a los usuarios personalizar sus figuras de acción con diferentes atuendos, poses y accesorios, lo que hace que el proceso sea altamente personalizable.

Instrucciones para crear figuras de acción con ChatGPT

  • Abra el chatgpt con generación de imágenes habilitada (disponible en chatgpt plus y planes profesionales).
  • Comience ingresando un mensaje personalizado. Por ejemplo:
    “Genere una imagen de una persona diseñada como una figura de acción futurista en una caja de juguetes de plástico, con colores audaces, accesorios e iluminación dramática. Incluya las frases ‘Edición coleccionable’ y ‘Modo de héroe activado’ en el empaque”.
  • Personalice el aviso describiendo características, estética o temas, como Space Explorer, Fantasy Warrior o Tech Ninja.
  • Cargue una foto o selfie de referencia de alta resolución para una mejor orientación sobre la salida visual.
  • Especifique los detalles en la solicitud, como el color del cabello, el atuendo o la pose para retener en la figura generada.
  • Revisa la imagen. Si es necesario, ajuste el indicador para ajustar el fondo, los accesorios o el diseño de empaque.
  • Solicite texto y efectos en la imagen, como etiquetas de juguetes, estadísticas ficticias o nombres de personajes.
  • Descargue la imagen una vez satisfecha con el resultado.
  • Comparta la imagen de figura de acción generada en sus plataformas de redes sociales preferidas.

Subiendo una foto para obtener los mejores resultados

Una vez que se escribe el mensaje, los usuarios pueden cargar una foto de alta resolución para guiar la IA en la generación de la figura. Esto permite que la IA incorpore características específicas como el color del cabello, el atuendo y la pose. Los usuarios pueden ajustar aún más sus descripciones para garantizar que la salida final cumpla con sus expectativas. La capacidad de ChatGPT para ajustar las imágenes basadas en la retroalimentación es una de sus fortalezas.

Agregar texto y efectos a la imagen

ChatGPT también permite a los usuarios agregar elementos de texto a sus creaciones de figuras de acción. Los usuarios pueden incluir etiquetas ficticias, clasificaciones de potencia y estadísticas de personajes. Un mensaje común para agregar texto podría ser: “Incluya el texto ‘Galáctico Defensor’ y una tabla de calificación de potencia en el costado del cuadro”. Estas adiciones mejoran aún más la sensación de tilo de las figuras digitales.

Las redes sociales zumban en torno a figuras de acción de IA

La tendencia se ha extendido rápidamente en las redes sociales, con los usuarios de Tiktok liderando el cargo. El hashtag #barbieboxChallenge ha atraído una atención significativa, con los usuarios que muestran sus avatares inspirados en la figura de acción. A medida que las herramientas generativas de IA como el chatgpt se vuelven más accesibles, más personas están experimentando convirtiéndose en figuras de acción coleccionables.

Popularidad e impacto de la tendencia

Si bien a ningún creador único se le atribuye el inicio de la tendencia, los usuarios de Tiktok han jugado un papel importante en su aumento. La naturaleza viral de la tendencia ha llamado la atención sobre el potencial del arte generado por IA y su influencia en la cultura digital. Los usuarios disfrutan de la novedad de convertirse en figuras de acción, compartiendo sus creaciones con seguidores y amigos.

Leer más: Brote de enfermedad de Legionnaires: seis casos vinculados a Sydney CBD

El éxito de la tendencia radica en su capacidad para combinar la nostalgia con la tecnología de IA moderna. Al usar herramientas de IA, los usuarios pueden transformar fácilmente sus fotos en figuras de acción estilizadas, que aprovechan el amor generalizado por coleccionables y juguetes retro.

El papel de Chatgpt en la tendencia

La capacidad de ChatGPT para generar figuras de acción lo ha convertido en un jugador clave en el movimiento de generación de arte de IA. La facilidad de uso y las opciones de personalización han contribuido a la popularidad de la función. A medida que más usuarios recurren a la IA generativa para proyectos creativos, el aviso de la figura de acción de ChatGPT proporciona una forma única y divertida de interactuar con el contenido generado por IA.

Un vistazo al futuro del arte y coleccionables de IA

La capacidad de crear figuras de acción personalizadas es solo un ejemplo de cómo las herramientas de IA están remodelando el arte digital y los coleccionables. Con la IA cada vez más avanzada, las posibilidades de personalización y creatividad se están expandiendo. Es probable que la tendencia de la figura de acción continúe creciendo, con más usuarios que adoptan la IA para llevar a sus personajes favoritos, y a ellos mismos, a la vida en forma coleccionable.

Descargo de responsabilidad

Visitado 684 veces, 685 visitas (s) hoy

Continue Reading

Noticias

Operai contrarresta a Elon Musk, afirma que su oferta de adquisición de $ 97.4 mil millones fue una ‘oferta simulada’

Published

on

Openai y su CEO Sam Altman han contrarrestado a su cofundador convertido en competidor Elon Musk, acusando al multimillonario de prácticas comerciales injustas y fraudulentas. Específicamente, los propietarios de ChatGPT afirman que la oferta de $ 97.375 mil millones de Musk para comprarlo en febrero fue una “oferta simulada” destinada deliberadamente a impedir los esfuerzos de OpenAi para recaudar fondos.

“A través de ataques de prensa, las campañas maliciosas se transmiten a los más de 200 millones de seguidores de Musk en la plataforma de redes sociales que controla [X]una demanda pretextual de registros corporativos, acosar reclamos legales y una oferta simulada para los activos de OpenAi, Musk ha probado todas las herramientas disponibles para dañar a OpenAi “, lea la demanda.

Ver también: Elon Musk dice que dejará de intentar comprar OpenAi si sigue siendo una organización sin fines de lucro

El miércoles, archivado a un tribunal de distrito de California, el contrarretista de OpenAI alega que la oferta de Musk de comprar la organización de IA por $ 97.375 mil millones no fue genuina y, de hecho, fue orquestada para obtener una ventaja comercial injusta. Aunque Musk fue uno de los fundadores de Operai, desde entonces se fue y fundó el competidor Xai.

“Musk se ha involucrado en estos esfuerzos para reducir la velocidad del progreso de Operai y perjudicar su capacidad de competir de manera efectiva en un campo cada vez más concurrido, pero también para aprovechar y mantener para Xai un borde no ganado diseñado para afectar la competencia más ampliamente por el único beneficio de Xai de Musk, a expensas del interés público”, dice OpenAi.

En apoyo de sus reclamos, OpenAi argumenta que no había evidencia de fondos disponibles para respaldar el precio de compra propuesto por $ 97.375 mil millones de Musk, y que parecía no haber base para el número en el que había aterrizado “que no sea una referencia cómica a la serie de ciencia ficción favorita de Musk”.

Como tal, Openai alega que las acciones de Musk fueron “intencionalmente … diseñadas para interrumpir [OpenAI’s] Las relaciones económicas y de hecho interrumpieron esas relaciones “, afirmando que sus tratos con los inversores actuales y potenciales se volvieron” más costosos y pesados ​​”debido a la oferta de adquisición pública de Musk. También señaló que la” amenaza “de una adquisición de almizcle había tenido empleados de OpenAI considerando la posibilidad de” Acción Empleo Arbitrary Chaos y Arbitrary, “después de haber visto su manejo de Twitter (ahora X) después de la adquisición en 2022.

“Sin limitación, la oferta complicó el proceso para emprender cualquier reorganización corporativa y, en última instancia, puede aumentar [OpenAI’s] Costo de capital “, afirmó la contratación.

Operai solicita daños, así como una orden judicial permanente que evita que Musk interfiera aún más con sus relaciones comerciales.

“[T]El riesgo de daño futuro e irreparable es agudo, a la luz de [Musk’s] Patrón de conducta abusiva de años, que involucra, entre otras cosas … presentando y retirando reclamos legales con fines de acosar [OpenAI] y orquestar una oferta simulada para adquirir supuestamente [OpenAI’s] Activos, “Lea la presentación”. Cada fase de la campaña de Musk ha sido diseñada para obligar a OpenAi a desviar los recursos, gastar dinero o ambos “.

Elon Musk vs. OpenAi

Musk no ha ocultado su objeción a la transición de OpenAi de una organización sin fines de lucro a una empresa con fines de lucro, o su decisión de no liberar su inteligencia general artificial como código abierto. El multimillonario inicialmente demandó a OpenAi en marzo pasado, alegando que los cambios equivalían a un incumplimiento de contrato e intentaban obligar a la organización a volver a un modelo sin fines de lucro. Según Musk, había habido un “acuerdo de fundación” de que la tecnología de OpenAi sería de código abierto “en beneficio de la humanidad”.

En respuesta, Openai alegó que no existía tal acuerdo fundador, produciendo correos electrónicos que parecían demostrar que Musk era consciente de sus planes para convertirse en una organización con fines de lucro. Según los informes, Musk incluso había intentado tomar posesión del propio Operai, ofreciendo resolver sus problemas de financiación a cambio de un control completo. (Declinaron, y en 2018 Musk dejó la organización). El multimillonario posteriormente eliminó su demanda sin explicación en junio, justo un día antes de que un juez se pusiera a escuchar la solicitud de despido de OpenAi.

Sin embargo, la carne de carne de Musk no había terminado, y en agosto presentó una nueva demanda que su abogado llamó “mucho más contundente”. Esta vez, Musk afirmó que fue “manipulado” para cofundar Operai, aunque sus argumentos fueron bastante similares a los de su traje previamente retirado.

“Las acciones sin escalas de Elon contra nosotros son tácticas de mala fe para frenar a OpenAi y tomar el control de las principales innovaciones de IA para su beneficio personal”, publicó el miércoles la cuenta oficial de X de OpenAI. “Elon nunca ha sido sobre la misión. Siempre ha tenido su propia agenda. Trató de apoderarse del control de OpenAi y fusionarlo con Tesla como una con fines de lucro, sus propios correos electrónicos lo demuestran. Cuando no se salió con la suya, irrumpió”.

Aunque Operai afirmó que Musk es “sin duda uno de los mejores empresarios de nuestro tiempo”, también llamó su comportamiento “solo historia en repetición, Elon se trata de Elon”.

La respuesta de Musk ha sido recurrir a insultos, publicar, “Scam Altman está en eso nuevamente”.

Operai no especificó exactamente qué serie ficticia sospechaba que Musk estaba haciendo referencia con su oferta de adquisición de $ 97.375 mil millones. Sin embargo, no sería la primera vez que Musk parecía tomar decisiones comerciales basadas en números de bromas. El propietario de X cayó en conflicto con la Comisión de Bolsa y Valores de los Estados Unidos (SEC) en 2018 cuando publicó que estaba “considerando llevar a Tesla en privado a $ 420” y tenía “fondos asegurados”. Este número está popularmente asociado con el uso de marihuana, aunque Musk luego afirmó que su publicación no era una broma cuando se le llamaba para testificar al respecto en la corte. Tesla actualmente sigue siendo una empresa que cotiza en bolsa.

Tampoco sería la primera vez que Musk ha hecho una oferta de adquisición de autenticidad cuestionable. En 2022, el multimillonario se ofreció infamemente a comprar Twitter por significativamente más que su valor en ese momento. Luego, Musk intentó retirarse del negocio comercial bastante horrible después de que Twitter aceptó, pero finalmente se vio obligado a hacerlo después de que Twitter demandó. El valor de la compañía posteriormente se desplomó bajo su liderazgo, cayendo en casi un 80 por ciento en solo dos años.

Continue Reading

Trending