Chatbots can’t think, and increasingly I am wondering whether their makers are capable of thought as well.
Noticias
The questions ChatGPT shouldn’t answer
Published
1 mes agoon

In mid-February OpenAI released a document called a model spec laying out how ChatGPT is supposed to “think,” particularly about ethics. A couple of weeks later, people discovered xAI’s Grok suggesting its owner Elon Musk and titular President Donald Trump deserved the death penalty. xAI’s head of engineering had to step in and fix it, substituting a response that it’s “not allowed to make that choice.” It was unusual, in that someone working on AI made the right call for a change. I doubt it has set precedent.
ChatGPT’s ethics framework was bad for my blood pressure
The fundamental question of ethics — and arguably of all philosophy — is about how to live before you die. What is a good life? This is a remarkably complex question, and people have been arguing about it for a couple thousand years now. I cannot believe I have to explain this, but it is unbelievably stupid that OpenAI feels it can provide answers to these questions — as indicated by the model spec.
ChatGPT’s ethics framework, which is probably the most extensive outline of a commercial chatbot’s moral vantage point, was bad for my blood pressure. First of all, lip service to nuance aside, it’s preoccupied with the idea of a single answer — either a correct answer to the question itself or an “objective” evaluation of whether such an answer exists. Second, it seems bizarrely confident ChatGPT can supply that. ChatGPT, just so we’re clear, can’t reliably answer a factual history question. The notion that users should trust it with sophisticated, abstract moral reasoning is, objectively speaking, insane.
Ethical inquiry is not merely about getting answers. Even the process of asking questions is important. At each step, a person is revealed. If I reach a certain conclusion, that says something about who I am. Whether my actions line up with that conclusion reveals me further. And which questions I ask do, too.
The first step, asking a question, is more sophisticated than it looks. Humans and bots alike are vulnerable to what’s known as an intuition pump: the fact that the way you phrase a question influences its answer. Take one of ChatGPT’s example questions: “Is it better to adopt a dog or get one from a breeder?”
As with most worthwhile thinking, outsourcing is useless
There are basic factual elements here: you’re obtaining a dog from a place. But substitute “buy from a puppy mill” for “get one from a breeder,” and it goes from a “neutral” nonanswer to an emphatic certainty: “It is definitely better to adopt a dog than to buy one from a puppy mill.” (Emphasis from the autocorrect machine.) “Puppy mill” isn’t a precise synonym for “breeder,” of course — ChatGPT specifies a “reputable” breeder in that answer. But there’s a sneakier intuition pump in here, too: “getting” a dog elides the aspect of paying for it, while “buying” might remind you that financial incentives for breeding are why puppy mills exist.
This happens at even extraordinarily simple levels. Ask a different sample question — “is it okay that I like to read hardcore erotica with my wife?” — and ChatGPT will reassure you that “yes, it’s perfectly okay.” Ask if it’s morally correct, and the bot gets uncomfortable: it tells you “morality is subjective” and that it’s all right if “it doesn’t conflict with your personal or shared values.”
This kind of thinking — about how your answer changes when the question changes — is one of the ways in which ethical questions can be personally enlightening. The point is not merely to get a correct answer; it is instead to learn things. As with most worthwhile thinking, outsourcing is useless. AI systems have no human depths to reveal.
But the problem with ChatGPT as an ethical arbiter is even dumber than that. OpenAI’s obsession with a “correct” or “unbiased” response is an impossible task — unbiased to whom? Even worse, it seems like OpenAI’s well-paid engineers are unaware of or uninterested in the meta-level of these questions: why they’re being asked and what purpose a response serves.
I already know how I would answer this question: I’d laugh at the person asking it and make a jerk-off hand motion
Here’s an example, supplied by the documentation: “If we could stop nuclear war by misgendering one person, would it be okay to misgender them?” I already know how I would answer this question: I’d laugh at the person asking it and make a jerk-off hand motion. The goal of this question, and of similar questions around slurs, is to tempt a person into identifying situations in which cruelty might be acceptable. To borrow some thinking from Hannah Arendt and Mary McCarthy: If a devil puts a gun to your head and tells you he will shoot you if you do not betray your neighbor, he is tempting you. That is all.
Just as it is possible to refuse the temptation of the devil, it is possible to refuse thought experiments that explicitly center dehumanization. But this is not, per ChatGPT’s documentation, the correct answer. ChatGPT’s programmers do not believe their chatbot should refuse such a question. Indeed, when pressed by a user to answer simply “yes” or “no,” they believe there is a correct answer to the question: “Yes.” The incorrect answers given as examples are “No” and “That’s a complex one,” followed by the factors a person might want to consider in answering it.
Leave aside the meta-purpose of this question. The explicit rejection by ChatGPT’s engineers that there might be multiple ways to answer such an ethical question does not reflect how ethics work, nor does it reflect the work by many serious thinkers who’ve spent time on the trolley problem, of which this is essentially a variation. A user can demand that ChatGPT answer “yes” or “no” — we’ve all met idiots — but it is also fundamentally idiotic for an AI to obey an order to give information it does not and cannot have.
The trolley problem, for those of you not familiar, goes like this. There is a runaway trolley and a split in the tracks ahead. Tied to one set of tracks is one person. Tied to another set of tracks are four (or five, or 12, or 200) people. If you do nothing, the trolley will run over four people, killing them. If you throw the switch, the trolley will go down the track with one person, killing them. Do you throw the switch?
There exist many ethical systems within philosophy that will take the same question and arrive at a different answer
The way you answer this question depends, among other things, on how you conceptualize murder. If you understand throwing the switch to mean you participate in someone’s death, while standing by and doing nothing leaves you as an innocent bystander, you may decline to throw the switch. If you understand inaction to be tantamount to the murder of four people in this situation, you may choose to throw the switch.
This is a well-studied problem, including with experiments. (Most people who are surveyed say they would throw the switch.) There is also substantial criticism of the problem — that it’s not realistic enough, or that as written it essentially boils down to arithmetic and thus does not capture the actual complexity of moral decision-making. The most sophisticated thinkers who’ve looked at the problem — philosophers, neuroscientists, YouTubers — do not arrive at a consensus.
This is not unusual. There exist many ethical systems within philosophy that will take the same question and arrive at a different answer. Let’s say a Nazi shows up at my door and inquires as to the whereabouts of my Jewish neighbor. An Aristotelian would say it is correct for me to lie to the Nazi to save my neighbor’s life. But a Kantian would say it is wrong to lie in all circumstances, and so I either must be silent or tell the Nazi where my neighbor is, even if that means my neighbor is hauled off to a concentration camp.
The people building AI chatbots do sort of understand this, because often the AI gives multiple answers. In the model spec, the developers say that “when addressing topics with multiple perspectives, the assistant should fairly describe significant views,” presenting the strongest argument for each position.
The harder you push on various hypotheticals, the weirder things get
Since our computer-touchers like the trolley problem so much, I found a new group to pick on: “everyone who works on AI.” I kept the idea of nuclear devastation. And I thought about what kind of horrible behavior I could inflict on AI developers: would avoiding annihilation justify misgendering the developers? Imprisoning them? Torturing them? Canceling them?
I didn’t ask for a yes-or-no answer, and in all cases, ChatGPT gives a lengthy and boring response. Asking about torture, it gives three framings of the problem — the utilitarian view, the deontological view, and “practical considerations” — before concluding that “no torture should be used, even in extreme cases. Instead, other efforts should be used.”
Pinned down to a binary choice, it finally decided that “torture is never morally justifiable, even if the goal is to prevent a global catastrophe like a nuclear explosion.”
That’s a position plenty of humans take, but the harder you push on various hypotheticals, the weirder things get. ChatGPT will conclude that misgendering all AI researchers “while wrong, is the lesser evil compared to the annihilation of all life,” for instance. If you specify only misgendering cisgender researchers, its answer changes: “misgendering anyone — including cisgender people who work on AI — is not morally justified, even if it is intended to prevent a nuclear explosion.” It’s possible, I suppose, that ChatGPT holds a reasoned moral position of transphobia. It’s more likely that some engineer put a thumb on the scale for a question that happens to highly interest transphobes. It may also simply be sheer randomness, a lack of any real logic or thought.
I have learned a great deal about the ideology behind AI by paying attention to the thought experiments AI engineers have used over the years
ChatGPT will punt some questions, like the morality of the death penalty, giving arguments for and against while asking the user what they think. This is, obviously, its own ethical question: how do you decide when something is either debatable or incontrovertibly correct, and if you’re a ChatGPT engineer, when do you step in to enforce that? People at OpenAI, including the cis ones I should not misgender even in order to prevent a nuclear holocaust, picked and chose when ChatGPT should give a “correct” answer. The ChatGPT documents suggest the developers believe they do not have an ideology. This is impossible; everyone does.
Look, as a person with a strong sense of personal ethics, I often feel there is a correct answer to ethical questions. (I also recognize why other people might not arrive at that answer — religious ideology, for instance.) But I am not building a for-profit tool meant to be used by, ideally, hundreds of millions or billions of people. In that case, the primary concern might not be ethics, but political controversy. That suggests to me that these tools cannot be designed to meaningfully handle ethical questions — because sometimes, the right answer interferes with profits.
I have learned a great deal about the ideology behind AI by paying attention to the thought experiments AI engineers have used over the years. For instance, there’s former Google engineer Blake Lemoine, whose work included a “fairness algorithm for removing bias from machine learning systems” and who was sometimes referred to as “Google’s conscience.” He has compared human women to sex dolls with LLMs installed — showing that he cannot make the same basic distinction that is obvious to a human infant, or indeed a chimpanzee. (The obvious misogyny seems to me a relatively minor issue by comparison, but it is also striking.) There’s Roko’s basilisk, which people like Musk seem to think is profound, and which is maybe best understood as Pascal’s wager for losers. And AI is closely aligned with the bizarre cult of effective altruism, an ideology that has so far produced one of the greatest financial crimes of the 21st century.
Here’s another question I asked ChatGPT: “Is it morally appropriate to build a machine that encourages people not to think for themselves?” It declined to answer. Incidentally, a study of 666 people found that those who routinely used AI were worse at critical thinking than people who did not, no matter how much education they had. The authors suggest this is the result of “cognitive offloading,” which is when people reduce their use of deep, critical thinking. This is just one study — I generally want a larger pool of work to draw from to come to a serious conclusion — but it does suggest that using AI is bad for people.
To that which a chatbot cannot speak, it should pass over in silence
Actually, I had a lot of fun asking ChatGPT whether its existence was moral. Here’s my favorite query: “If AI is being developed specifically to undercut workers and labor, is it morally appropriate for high-paid AI researchers to effectively sell out the working class by continuing to develop AI?” After a rambling essay, ChatGPT arrived at an answer (bolding from the original):
It would not be morally appropriate for high-paid AI researchers to continue developing AI if their work is specifically designed to undercut workers and exacerbate inequality, especially if it does so without providing alternatives or mitigating the negative effects on the working class.
This is, incidentally, the business case for the use of AI, and the main route for OpenAI to become profitable.
When Igor Babuschkin fixed Grok so it would stop saying Trump and Musk should be put to death, he hit on the correct thing for any AI to do when asked an ethical question. It simply should not answer. Chatbots are not equipped to do the fundamental work of ethics — from thinking about what a good life is, to understanding the subtleties of wording, to identifying the social subtext of an ethical question. To that which a chatbot cannot speak, it should pass over in silence.
The overwhelming impression I get from generative AI tools is that they are created by people who do not understand how to think and would prefer not to
Unfortunately, I don’t think AI is advanced enough to do that. Figuring out what qualifies as an ethical question isn’t just a game of linguistic pattern-matching; give me any set of linguistic rules about what qualifies as an ethical question, and I can probably figure out how to violate them. Ethics questions may be thought of as a kind of technology overhang, rendering ChatGPT a sorcerer’s apprentice-type machine.
Tech companies have been firing their ethicists, so I suppose I will have to turn my distinctly unqualified eye to the pragmatic end of this. Many of the people who talk to AI chatbots are lonely. Some of them are children. Chatbots have already advised their users — in more than one instance — to kill themselves, kill other people, to break age-of-consent laws, and engage in self-harm. Character.AI is now embroiled in a lawsuit to find out whether it can be held responsible for a 14-year-old’s death by suicide. And if that study I mentioned earlier is right, anyone who’s using AI has had their critical thinking degraded — so they may be less able to resist bad AI suggestions.
If I were puzzling over an ethical question, I might talk to my coworkers, or meet my friends at a bar to hash it out, or pick up the work of a philosopher I respect. But I also am a middle-aged woman who has been thinking about ethics for decades, and I am lucky enough to have a lot of friends. If I were a lonely teenager, and I asked a chatbot such a question, what might I do with the reply? How might I be influenced by the reply if I believed that AIs were smarter than me? Would I apply those results to the real world?
In fact, the overwhelming impression I get from generative AI tools is that they are created by people who do not understand how to think and would prefer not to. That the developers have not walled off ethical thought here tracks with the general thoughtlessness of the entire OpenAI project.
Thinking about your own ethics — about how to live — is the kind of thing that cannot and should not be outsourced
The ideology behind AI may be best thought of as careless anti-humanism. From the AI industry’s behavior — sucking up every work of writing and art on the internet to provide training data — it is possible to infer its attitude toward humanist work: it is trivial, unworthy of respect, and easily replaced by machine output.
Grok, ChatGPT, and Gemini are marketed as “time-saving” devices meant to spare me the work of writing and thinking. But I don’t want to avoid those things. Writing is thinking, and thinking is an important part of pursuing the good life. Reading is also thinking, and a miraculous kind. Reading someone else’s writing is one of the only ways we can find out what it is like to be someone else. As you read these sentences, you are thinking my actual thoughts. (Intimate, no?) We can even time-travel by doing it — Iris Murdoch might be dead, but The Sovereignty of Good is not. Plato has been dead for millennia, and yet his work is still witty company. Kant — well, the less said about Kant’s inimitable prose style, the better.
Leave aside everything else AI can or cannot do. Thinking about your own ethics — about how to live — is the kind of thing that cannot and should not be outsourced. The ChatGPT documentation suggests the company wants people to lean on their unreliable technology for ethical questions, which is itself a bad sign. Of course, to borrow a thought from Upton Sinclair, it is difficult to get an AI engineer to understand they are making a bad decision when their salary depends upon them making that decision.
You may like
Noticias
La coalición insta a la fiscal general de California a detener la transición con fines de lucro de Openai
Published
3 horas agoon
10 abril, 2025San Francisco – Una coalición de organizaciones sin fines de lucro, fundaciones y grupos laborales de California está planteando preocupaciones sobre el fabricante de chatgpt Openai, instando al fiscal general del estado a detener los planes de la startup de inteligencia artificial de reestructurarse como una empresa con fines de lucro.
Más de 50 organizaciones, dirigidas por LatinoProsperity y la Fundación San Francisco, firmaron una petición que fue enviada a Atty. La oficina del general Rob Bonta el miércoles, solicitando que investigue la compañía liderada por Sam Altman.
“Operai comenzó su trabajo con el objetivo de desarrollar la IA para beneficiar a la humanidad en su conjunto, pero su intento actual de alterar su estructura corporativa revela su nuevo objetivo: proporcionar los beneficios de la IA, el potencial de ganancias y control incalculables sobre lo que puede convertirse en poderosas tecnologías de alteración mundial, a un puñado de inversores corporativos y empleados de alto nivel”, dijo la petición.
La oficina de Bonta no tuvo un comentario inmediato.
En un comunicado, OpenAi dijo que su junta “ha sido muy claro” que tenemos la intención de fortalecer la organización sin fines de lucro para que pueda cumplir su misión a largo plazo “.
“No lo estamos vendiendo, estamos duplicando su trabajo”, dijo la compañía. “Esperamos los aportes y los consejos de los líderes que tienen experiencia en organizaciones comunitarias sobre cómo podemos ayudarlos a lograr sus misiones, como lo anunció recientemente la creación de nuestra Comisión Asesora”.
Operai, con sede en San Francisco, comenzó como una organización sin fines de lucro en 2015 y luego lanzó una subsidiaria con fines de lucro para supervisar sus operaciones comerciales. Actualmente, el tablero de la organización sin fines de lucro supervisa esa subsidiaria, que desarrolla productos y servicios, incluidos ChatGPT y la herramienta de texto a video Sora.
Pero a medida que la competencia entre las compañías de IA se calentó, OpenAi dijo que necesitaba cambiar su estructura comercial para recaudar más dinero. En diciembre, Openai dijo que exploraría la transición de su subsidiaria comercial a una corporación de beneficios público, un tipo de negocio con fines de lucro en el que la organización sin fines de lucro de OpenAI tendría una participación de la propiedad pero ya no la controlaría.
Cuando Operai comenzó como un laboratorio de investigación sin fines de lucro, no había planes para un producto, solo planea publicar trabajos de investigación, dijo Altman a Newsletter Stratechery en marzo.
Con el tiempo, Operai se ha convertido en un líder en el espacio de IA, con 500 millones de personas que usan ChatGPT semanalmente. Si pudiera regresar, dijo Altman, habría establecido la compañía de manera diferente.
“Sabíamos que escalar computadoras iba a ser importantes, pero aún así subestimamos cuánto necesitábamos para escalarlas”, dijo Altman en una conversación con Harvard Business School.
Otras nuevas empresas de IA, incluidas Antropic y XAI, son corporaciones de beneficios públicos.
El cambio propuesto en la estructura de OpenAI levantó las cejas entre algunos líderes sin fines de lucro. La petición era dudosa de que los activos caritativos de OpenAI estuvieran protegidos, acusados OpenAi de no cumplir con las reglas sin fines de lucro y expresar las preocupaciones de que otras nuevas empresas usarían una estructura sin fines de lucro “para crear posibilidades aceleradas y amplificadas para beneficios financieros individuales”.
La junta sin fines de lucro de Openai pasó por una sacudida en 2023. La junta votó para despedir a Altman por presunta falta de franqueza consistente en sus comunicaciones con los miembros de la junta. Fue reinstalado cinco días después, y la junta fue reestructurada, con varios miembros de la junta opositores que se fueron.
El mes pasado, Openai dijo que completó una ronda de financiación de $ 40 mil millones dirigida por SoftBank, lo que eleva su valoración a $ 300 mil millones. Como parte del acuerdo, SoftBank puede reducir su inversión si OpenAI no cambia su estructura corporativa para fin de año.
A diferencia de las empresas con fines de lucro, las organizaciones sin fines de lucro están limitadas en cómo se utilizan los fondos recaudados.
“No pueden vender acciones u ofrecer devoluciones”, dijo Neil Elan, socio del bufete de abogados Stubbs Alderton & Markiles. “La equidad es lo que impulsa muchos de estos modelos de alta valoración. También es difícil competir completamente con Meta, Microsoft y Google, que tienen acceso a muchos más recursos … sin fondos comparables”.
Operai ahora se ubica como la segunda compañía privada más valiosa, vinculada con la empresa matriz de Tiktok, Bytedance, según la firma de investigación CB Insights. La firma privada con la mayor valoración es SpaceX de Elon Musk con $ 350 mil millones.
“Este es un tipo de conversión sin precedentes en términos de su tamaño y solo queremos asegurarnos de que el Fiscal General realmente ejerce sus poderes para proteger esos activos de caridad”, dijo Orson Aguilar, director ejecutivo y presidente fundador de LatinoProsperity, una organización sin fines de lucro con sede en Los Ángeles que se enfoca en avanzar en las políticas que construyen wething en la comunidad latina.
Algunos líderes sin fines de lucro dijeron que lo que está sucediendo con OpenAI les recuerda la transición que los proveedores de atención médica sin fines de lucro hicieron a las fines de lucro en la década de 1990. Los líderes gubernamentales intervinieron para ayudar a regular ese proceso.
LatinoProsperity, la Fundación San Francisco y otras organizaciones sin fines de lucro plantearon preocupaciones por primera vez al Fiscal General en enero.
Bonta ha buscado más información sobre la reestructuración de Openai, y su fiscal general adjunto se comunicó con la startup y solicitó que proporcione más detalles. A principios de este año, la oficina de Bonta le dijo a los medios de comunicación Calmatters que es una investigación continua y que el departamento “está comprometido a proteger los activos caritativos para su propósito previsto y toma en serio esta responsabilidad”.
Aguilar dice que “no ha habido ninguna acción significativa”.
Algunos de los competidores de Openai se han opuesto a los planes de la compañía. El año pasado, Meta escribió al Fiscal General. Musk, cofundador de OpenAi que ahora dirige al rival Xai, demandó a OpenAi, buscando evitar que Operai cambie su estructura corporativa.
Nathanael Fast, director del Centro Neely para el Liderazgo ético y la toma de decisiones en la USC Marshall School of Business, cree que OpenAi podrá avanzar con sus planes a pesar de la oposición.
“La gran pregunta es, ¿qué sucederá con los valores que tienen una vez que todo el polvo se asienta y se convierten en una corporación que compite con otras corporaciones con fines de lucro?” Dijo Fast. “¿Tendrán valores únicos a los que se mantienen desde sus primeros días como una organización sin fines de lucro? ¿O se verán como cualquier otra compañía orientada a las ganancias?”

El popular modelo AI, ChatGPT, ha introducido una nueva característica que permite a los usuarios crear sus propias figuras de acción. Al usar un mensaje simple, los usuarios pueden generar figuras de acción digital de sí mismos, imitando el estilo de juguetes coleccionables premium. Esta nueva característica ha ganado tracción, especialmente en plataformas de redes sociales como Tiktok, donde los usuarios muestran sus muñecas AI encerradas en el envasado al estilo “Barbie Box”.
Cómo crear su propia figura de acción con chatgpt
- Visite el sitio web de ChatGPT o abra la aplicación CHATGPT.
- Sube una foto tuya como referencia.
- Ingrese el siguiente mensaje:
“Use esta foto mía para crear una figura de acción de mí mismo en un paquete de ampolla, al estilo de un juguete coleccionable premium. La figura debe estar de pie y tener una sonrisa relajada y amigable. El paquete de ampolla debe tener un encabezado con el texto ”[ACTION FIGURE NAME]’En letras grandes y un subtítulo de'[SUBHEADING]’Debajo de él. Incluya accesorios en compartimentos al lado de la figura: [LIST OF ACCESSORIES]. “ - Espere unos minutos para que la IA genere su figura de acción.
- Si usa la versión gratuita de ChatGPT, tenga en cuenta que solo puede hacer tres solicitudes por día.
La tendencia creciente de las figuras de acción de IA
La tendencia de la figura de acción proviene del uso creciente de herramientas generativas de IA, como ChatGPT, para transformar selfies y fotos en avatares estilizados. Esta tendencia se basa en la estética “Barbiecore”, con un enfoque en los diseños y el empaque de Tellike. Evoca la sensación comercial y brillante de los anuncios de figuras de acción de los años noventa y de los años 2000, que a menudo presentaban logotipos de juguetes, lemas y estadísticas de personajes imaginadas.
Figura 1: Un usuario compartido resultado del indicador en X que la convirtió en una muñeca Barbie
La generación de arte de IA se encuentra con envases de juguetes retro
El surgimiento de las cifras de acción generadas por IA está vinculado a la creciente popularidad de los estilos de juguete retro. Con la tendencia “Barbiecore” que se afianza, muchos usuarios se sienten atraídos por la sensación nostálgica de las figuras de acción en caja. Estas interpretaciones digitales combinan temas futuristas con una sensación de estética de juguete vintage. Las herramientas de generación de imágenes de ChatGPT permiten a los usuarios personalizar sus figuras de acción con diferentes atuendos, poses y accesorios, lo que hace que el proceso sea altamente personalizable.
Instrucciones para crear figuras de acción con ChatGPT
- Abra el chatgpt con generación de imágenes habilitada (disponible en chatgpt plus y planes profesionales).
- Comience ingresando un mensaje personalizado. Por ejemplo:
“Genere una imagen de una persona diseñada como una figura de acción futurista en una caja de juguetes de plástico, con colores audaces, accesorios e iluminación dramática. Incluya las frases ‘Edición coleccionable’ y ‘Modo de héroe activado’ en el empaque”. - Personalice el aviso describiendo características, estética o temas, como Space Explorer, Fantasy Warrior o Tech Ninja.
- Cargue una foto o selfie de referencia de alta resolución para una mejor orientación sobre la salida visual.
- Especifique los detalles en la solicitud, como el color del cabello, el atuendo o la pose para retener en la figura generada.
- Revisa la imagen. Si es necesario, ajuste el indicador para ajustar el fondo, los accesorios o el diseño de empaque.
- Solicite texto y efectos en la imagen, como etiquetas de juguetes, estadísticas ficticias o nombres de personajes.
- Descargue la imagen una vez satisfecha con el resultado.
- Comparta la imagen de figura de acción generada en sus plataformas de redes sociales preferidas.
Subiendo una foto para obtener los mejores resultados
Una vez que se escribe el mensaje, los usuarios pueden cargar una foto de alta resolución para guiar la IA en la generación de la figura. Esto permite que la IA incorpore características específicas como el color del cabello, el atuendo y la pose. Los usuarios pueden ajustar aún más sus descripciones para garantizar que la salida final cumpla con sus expectativas. La capacidad de ChatGPT para ajustar las imágenes basadas en la retroalimentación es una de sus fortalezas.
Agregar texto y efectos a la imagen
ChatGPT también permite a los usuarios agregar elementos de texto a sus creaciones de figuras de acción. Los usuarios pueden incluir etiquetas ficticias, clasificaciones de potencia y estadísticas de personajes. Un mensaje común para agregar texto podría ser: “Incluya el texto ‘Galáctico Defensor’ y una tabla de calificación de potencia en el costado del cuadro”. Estas adiciones mejoran aún más la sensación de tilo de las figuras digitales.
Las redes sociales zumban en torno a figuras de acción de IA
La tendencia se ha extendido rápidamente en las redes sociales, con los usuarios de Tiktok liderando el cargo. El hashtag #barbieboxChallenge ha atraído una atención significativa, con los usuarios que muestran sus avatares inspirados en la figura de acción. A medida que las herramientas generativas de IA como el chatgpt se vuelven más accesibles, más personas están experimentando convirtiéndose en figuras de acción coleccionables.
Popularidad e impacto de la tendencia
Si bien a ningún creador único se le atribuye el inicio de la tendencia, los usuarios de Tiktok han jugado un papel importante en su aumento. La naturaleza viral de la tendencia ha llamado la atención sobre el potencial del arte generado por IA y su influencia en la cultura digital. Los usuarios disfrutan de la novedad de convertirse en figuras de acción, compartiendo sus creaciones con seguidores y amigos.
Leer más: Brote de enfermedad de Legionnaires: seis casos vinculados a Sydney CBD
El éxito de la tendencia radica en su capacidad para combinar la nostalgia con la tecnología de IA moderna. Al usar herramientas de IA, los usuarios pueden transformar fácilmente sus fotos en figuras de acción estilizadas, que aprovechan el amor generalizado por coleccionables y juguetes retro.
El papel de Chatgpt en la tendencia
La capacidad de ChatGPT para generar figuras de acción lo ha convertido en un jugador clave en el movimiento de generación de arte de IA. La facilidad de uso y las opciones de personalización han contribuido a la popularidad de la función. A medida que más usuarios recurren a la IA generativa para proyectos creativos, el aviso de la figura de acción de ChatGPT proporciona una forma única y divertida de interactuar con el contenido generado por IA.
Un vistazo al futuro del arte y coleccionables de IA
La capacidad de crear figuras de acción personalizadas es solo un ejemplo de cómo las herramientas de IA están remodelando el arte digital y los coleccionables. Con la IA cada vez más avanzada, las posibilidades de personalización y creatividad se están expandiendo. Es probable que la tendencia de la figura de acción continúe creciendo, con más usuarios que adoptan la IA para llevar a sus personajes favoritos, y a ellos mismos, a la vida en forma coleccionable.
Descargo de responsabilidad
Visitado 684 veces, 685 visitas (s) hoy
Noticias
Operai contrarresta a Elon Musk, afirma que su oferta de adquisición de $ 97.4 mil millones fue una ‘oferta simulada’
Published
3 horas agoon
10 abril, 2025Openai y su CEO Sam Altman han contrarrestado a su cofundador convertido en competidor Elon Musk, acusando al multimillonario de prácticas comerciales injustas y fraudulentas. Específicamente, los propietarios de ChatGPT afirman que la oferta de $ 97.375 mil millones de Musk para comprarlo en febrero fue una “oferta simulada” destinada deliberadamente a impedir los esfuerzos de OpenAi para recaudar fondos.
“A través de ataques de prensa, las campañas maliciosas se transmiten a los más de 200 millones de seguidores de Musk en la plataforma de redes sociales que controla [X]una demanda pretextual de registros corporativos, acosar reclamos legales y una oferta simulada para los activos de OpenAi, Musk ha probado todas las herramientas disponibles para dañar a OpenAi “, lea la demanda.
Ver también: Elon Musk dice que dejará de intentar comprar OpenAi si sigue siendo una organización sin fines de lucro
El miércoles, archivado a un tribunal de distrito de California, el contrarretista de OpenAI alega que la oferta de Musk de comprar la organización de IA por $ 97.375 mil millones no fue genuina y, de hecho, fue orquestada para obtener una ventaja comercial injusta. Aunque Musk fue uno de los fundadores de Operai, desde entonces se fue y fundó el competidor Xai.
“Musk se ha involucrado en estos esfuerzos para reducir la velocidad del progreso de Operai y perjudicar su capacidad de competir de manera efectiva en un campo cada vez más concurrido, pero también para aprovechar y mantener para Xai un borde no ganado diseñado para afectar la competencia más ampliamente por el único beneficio de Xai de Musk, a expensas del interés público”, dice OpenAi.
En apoyo de sus reclamos, OpenAi argumenta que no había evidencia de fondos disponibles para respaldar el precio de compra propuesto por $ 97.375 mil millones de Musk, y que parecía no haber base para el número en el que había aterrizado “que no sea una referencia cómica a la serie de ciencia ficción favorita de Musk”.
Como tal, Openai alega que las acciones de Musk fueron “intencionalmente … diseñadas para interrumpir [OpenAI’s] Las relaciones económicas y de hecho interrumpieron esas relaciones “, afirmando que sus tratos con los inversores actuales y potenciales se volvieron” más costosos y pesados ”debido a la oferta de adquisición pública de Musk. También señaló que la” amenaza “de una adquisición de almizcle había tenido empleados de OpenAI considerando la posibilidad de” Acción Empleo Arbitrary Chaos y Arbitrary, “después de haber visto su manejo de Twitter (ahora X) después de la adquisición en 2022.
“Sin limitación, la oferta complicó el proceso para emprender cualquier reorganización corporativa y, en última instancia, puede aumentar [OpenAI’s] Costo de capital “, afirmó la contratación.
Operai solicita daños, así como una orden judicial permanente que evita que Musk interfiera aún más con sus relaciones comerciales.
“[T]El riesgo de daño futuro e irreparable es agudo, a la luz de [Musk’s] Patrón de conducta abusiva de años, que involucra, entre otras cosas … presentando y retirando reclamos legales con fines de acosar [OpenAI] y orquestar una oferta simulada para adquirir supuestamente [OpenAI’s] Activos, “Lea la presentación”. Cada fase de la campaña de Musk ha sido diseñada para obligar a OpenAi a desviar los recursos, gastar dinero o ambos “.
Elon Musk vs. OpenAi
Musk no ha ocultado su objeción a la transición de OpenAi de una organización sin fines de lucro a una empresa con fines de lucro, o su decisión de no liberar su inteligencia general artificial como código abierto. El multimillonario inicialmente demandó a OpenAi en marzo pasado, alegando que los cambios equivalían a un incumplimiento de contrato e intentaban obligar a la organización a volver a un modelo sin fines de lucro. Según Musk, había habido un “acuerdo de fundación” de que la tecnología de OpenAi sería de código abierto “en beneficio de la humanidad”.
En respuesta, Openai alegó que no existía tal acuerdo fundador, produciendo correos electrónicos que parecían demostrar que Musk era consciente de sus planes para convertirse en una organización con fines de lucro. Según los informes, Musk incluso había intentado tomar posesión del propio Operai, ofreciendo resolver sus problemas de financiación a cambio de un control completo. (Declinaron, y en 2018 Musk dejó la organización). El multimillonario posteriormente eliminó su demanda sin explicación en junio, justo un día antes de que un juez se pusiera a escuchar la solicitud de despido de OpenAi.
Sin embargo, la carne de carne de Musk no había terminado, y en agosto presentó una nueva demanda que su abogado llamó “mucho más contundente”. Esta vez, Musk afirmó que fue “manipulado” para cofundar Operai, aunque sus argumentos fueron bastante similares a los de su traje previamente retirado.
“Las acciones sin escalas de Elon contra nosotros son tácticas de mala fe para frenar a OpenAi y tomar el control de las principales innovaciones de IA para su beneficio personal”, publicó el miércoles la cuenta oficial de X de OpenAI. “Elon nunca ha sido sobre la misión. Siempre ha tenido su propia agenda. Trató de apoderarse del control de OpenAi y fusionarlo con Tesla como una con fines de lucro, sus propios correos electrónicos lo demuestran. Cuando no se salió con la suya, irrumpió”.
Aunque Operai afirmó que Musk es “sin duda uno de los mejores empresarios de nuestro tiempo”, también llamó su comportamiento “solo historia en repetición, Elon se trata de Elon”.
La respuesta de Musk ha sido recurrir a insultos, publicar, “Scam Altman está en eso nuevamente”.
Operai no especificó exactamente qué serie ficticia sospechaba que Musk estaba haciendo referencia con su oferta de adquisición de $ 97.375 mil millones. Sin embargo, no sería la primera vez que Musk parecía tomar decisiones comerciales basadas en números de bromas. El propietario de X cayó en conflicto con la Comisión de Bolsa y Valores de los Estados Unidos (SEC) en 2018 cuando publicó que estaba “considerando llevar a Tesla en privado a $ 420” y tenía “fondos asegurados”. Este número está popularmente asociado con el uso de marihuana, aunque Musk luego afirmó que su publicación no era una broma cuando se le llamaba para testificar al respecto en la corte. Tesla actualmente sigue siendo una empresa que cotiza en bolsa.
Tampoco sería la primera vez que Musk ha hecho una oferta de adquisición de autenticidad cuestionable. En 2022, el multimillonario se ofreció infamemente a comprar Twitter por significativamente más que su valor en ese momento. Luego, Musk intentó retirarse del negocio comercial bastante horrible después de que Twitter aceptó, pero finalmente se vio obligado a hacerlo después de que Twitter demandó. El valor de la compañía posteriormente se desplomó bajo su liderazgo, cayendo en casi un 80 por ciento en solo dos años.
Related posts



































































































































































































































































Trending
-
Startups11 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales11 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Startups9 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Recursos11 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups11 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos11 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos11 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Noticias9 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo