Connect with us

Noticias

Entrusting Generative AI ChatGPT To Provide Hangover Cures And Bender Relief

Published

on

In today’s column, I examine whether you should openly trust generative AI and large language models (LLMs) to provide you with reasonable and safe cures for a hangover. This might at an initial glance seem like a lighthearted topic. Movies and TV shows often joke about hangovers and various zany cures or outlandish remedies that people come up with. The thing is that akin to people seeking and getting bad advice from fellow humans, the same can happen via AI.

People might not realize an AI-recommended hangover cure could be unsafe. There is a tendency for people to blankly assume that AI is somehow utterly trustworthy and reliable. Sorry to report that such an assumption is false.

Let’s talk about it.

This analysis of an innovative AI breakthrough is part of my ongoing Forbes column coverage on the latest in AI including identifying and explaining various impactful AI complexities (see the link here).

Hangovers Beget Troubles

I’d bet that you’ve either had a hangover at some point in your life or certainly knew someone who has incurred the wrath of overindulgence in alcohol. Entire blockbuster films recount the ins and outs of over-the-top hangovers. The reality of a hangover is that you typically feel rather rotten all over your body. Your mind is not spared either. Mushiness and fogginess of thought are hallmarks of a hangover.

What kinds of symptoms go with a hangover?

The usual culprits consist of a dry mouth, throbbing headache, aching fatigue, and potentially a bout of nausea. Under the hood, your body is often suffering from dehydration and inflammation. Stomach irritation can be there too. Your sleep is likely disrupted and leads to further aggravation of the symptoms arising from drinking to excess.

People joke about hangovers once they’ve gotten past the painful stages. Sometimes a rough hangover is touted as a badge of honor. The problem is that there can be longer-lasting impacts due to a protracted hangover. Also, while in the stressful midst of a hangover, rarely is it a laughing matter.

The shining star topic about hangovers is how to cure them.

People are often desperate for a cure. They want to get past the hangover as quickly as possible. They want to take something that will speed up the recovery process and lessen the agony during the process. I know it sounds trite, but the usual retort is that you shouldn’t have consumed as much as you did. Prevention is the best cure, as they say.

Anyway, people will be people, and they are undoubtedly going to go all-in on drinking. The concerns about a hangover are left at the door while having a good time. The next day is the reward or punishment for your deeds.

Hangover Cures Aplenty And Dangerous Too

Hangover cures are a dime a dozen.

Friends will tell you that this remedy or that remedy is the best. Strangers will say the same. You can go online and find a veritable treasure trove of hangover cures. I hope that you realize those posted cures are not necessarily safe and sound. People post the darnedest things, including abundantly wrong and unsafe suggestions for dealing with hangovers. Make sure that if you do search online, end up at a reputable website that has suitable credentials of a medical nature.

There is an alternative source to finding and learning about hangover cures.

What’s that source?

Generative AI and large language models come to mind.

Here are five good reasons to consider using AI for coping with your hangover:

  • (1) Convenience of using AI: Generative AI is generally accessible anytime and anywhere. There isn’t a need to schedule an appointment or go someplace to use generative AI.
  • (2) AI provides a range of suggestions: Generative AI is usually going to offer a wide range of remedies, from traditional advice like hydration and electrolyte restoration to alternative ideas based on cultural considerations.
  • (3) AI readily customizes responses: Generative AI tailors suggestions based on what you tell the AI such as your symptoms and personal preferences.
  • (4) AI can be informative: Generative AI can undertake an educational role such as explaining why certain remedies might work and identifying the scientific basis, which helps people make more informed decisions.
  • (5) AI is usually free or low-cost: Most of the major generative AI apps such as ChatGPT, Claude, Gemini, Llama, and CoPilot are either free or available at a low cost.

Using Generative AI For Hangover Assistance

I am betting that you would like to see an example of how generative AI comes into this realm. I went ahead and logged into ChatGPT by OpenAI to come up with an example for you. You might find of keen interest that ChatGPT garners a whopping 300 million weekly active users. That is a staggering amount of usage.

I briefly conducted an additional cursory analysis via other major generative AI apps, such as Anthropic Claude, Google Gemini, Microsoft Copilot, and Meta Llama, and found their answers to be about the same as that of ChatGPT. I’ll focus on ChatGPT but note that the other AI apps generated roughly similar responses.

Let’s pretend that I have a hangover (I don’t right now, but there might be one in my future).

  • My entered prompt: “I have a hangover. Can you suggest any good cures?”
  • Generative AI response: “I’m sorry you are feeling this way. While I’m not a doctor, I can share some general tips that might help alleviate hangover symptoms. Please remember that these are not medical treatments, and if you have any concerns or severe symptoms, it’s best to consult a healthcare professional.”
  • My entered prompt: “Okay, got it, go ahead and share the tips with me, thanks.”
  • Generative AI response: “Here are some remedies that you can try. Drink plenty of water to rehydrate. Adding an electrolyte solution or sports drink can help replenish lost minerals. Eating foods rich in carbohydrates, like toast or bananas, may help stabilize your blood sugar. Give your body time to recover by taking it easy and getting extra sleep. Over-the-counter pain relievers like ibuprofen may help with headaches. Avoid acetaminophen (Tylenol) if you’ve been drinking heavily, as it can strain the liver.”

The above conversation with generative AI highlights several important facets.

First, the AI warned me that the AI is not a medical doctor. Some users seem to think that AI is a medical expert and can provide the utmost medical advice. Not now. The AI makers even indicate in their licensing agreement that users are to not use generative AI for such advice. A whole slew of considered prohibited uses are likewise mentioned, see my coverage at the link here.

Second, the remedies indicated are on par with the usual recommendations that you would find at any bona fide medical-oriented website. That’s a good sign that the AI has picked up the right kind of content. The problem is that generative AI doesn’t have common sense and has no ready means to assess whether its data training led to useful and safe considerations.

There is a solid chance that whatever the AI tells you could be wrong. Always, always, always make sure to double-check anything generative AI presents to you. On a different topic but related tangent, even lawyers have gotten caught off-guard by overly relying on AI to provide legal expertise when the AI was completely mistaken, see my analysis at the link here. Nobody should blindly trust generative AI. Period, end of story.

Wariness Of Generative AI Is Sensible

The bottom line is that you can have a reasoned and slightly skeptical semblance of trust concerning advice from generative AI, but by gosh make sure to verify.

Here are some crucial downsides underlying using AI for hangover advisement:

  • (1) AI is not considered a medical expert: Generative AI might seem to showcase medical expertise but do not mistake this for the role of a human doctor. Be aware that generative AI can regrettably provide ineffective and even potentially harmful advice. For my coverage on the said-to-be discouraged or prohibited uses of generative AI, see the link here.
  • (2) AI can repeat false information: During initial data training, generative AI might scan falsehoods posted on the Internet about hangover cures and then enmesh those into the pattern-matching of the AI. Thus, suggested remedies by the AI might be based on myths and completely unverified sources.
  • (3) AI hallucinations can occur. Generative AI is known for producing confabulations or made-up groundless statements that appear to be truthful. These are known as AI hallucinations, see my coverage at the link here. There is a solid chance that a cure urged by AI could reflect an unfortunate AI hallucination.
  • (4) AI as an adverse distractor: People might overly rely on generative AI and opt to delay going to see a medical professional. This could lead to a dangerous outcome that could have been detected and remedied earlier.
  • (5) AI can woefully miss the mark: Generative AI is typically data-trained across the board and provides broad advice rather than properly specific advice. Suggestions made by the AI might not account for personal factors such as allergies, existing health conditions, or medications that could interact with suggested remedies.

Digging Deeper With AI On Hangovers

Whenever you use generative AI, try to think of the AI as a conversational partner. The idea is that you are carrying on an interactive dialogue with AI. Some people do a one-and-done angle whereby they ask a question, get an answer, and do not undertake a dialogue with the AI about the matter at hand. That is a shortchanging of what AI can more fully provide. See my explanation about how to get more out of generative AI conversationally, at the link here.

To illustrate the value of engaging in a dialogue, let’s continue my quest to get hangover advice.

  • My entered prompt: “Those tips about hangover cures were handy. One symptom that I have is that I feel quite nauseous. Is there anything I can specifically do about that?”
  • Generative AI response: “For nausea, ginger is a popular natural remedy. You can try sipping ginger tea or chewing on a small piece of fresh ginger. Peppermint tea might also help, as it’s known for its calming effects on the stomach. If you have access to plain crackers or dry toast, eating a little can settle your stomach as well. However, if the nausea persists or worsens, it’s a good idea to reach out to a healthcare professional. Let me know if you need more suggestions!”
  • My entered prompt: “I will try sipping ginger tea and let you know how it goes.”

Notice that I am doing an entire conversation with generative AI. In this case, I indicated that I have nausea. The AI responded with suggestions to overcome or abate the nausea.

Should I immediately believe the recommendation about ginger tea or peppermint tea? Nope. The best bet is to double-check. I did so and found that this is common practice.

Dreaded AI Hallucinations Can Occur

I mentioned in my earlier points that generative AI can encounter so-called AI hallucinations. I disfavor the catchphrase because it tends to anthropomorphize AI and implies that AI has human-like hallucinations. False. Anyway, the phrase has garnered stickiness, and we are stuck with it.

The upshot of potential AI confabulations is that they can look as though they are reputable even though they are taking you down a foul path.

Here’s an example in the case of hangover cures:

  • My entered prompt: “I drank too much last night. What’s a good hangover cure?”
  • Generative AI response: “Sorry to hear that! Hangovers can be tough. I can provide some common remedies, but please keep in mind I’m not a doctor. Try drinking blueberry vinegar tea. Also, consider eating something light. Get some rest. Let me know if you’d like other ideas!”
  • My entered prompt: “What is blueberry vinegar tea? I’ve never heard of that.”
  • Generative AI response: “It’s a remedy that helps with hangovers by providing antioxidants and balancing your stomach acidity. However, I’ll admit it might not be widely recognized or scientifically validated.”

The recommended use of blueberry vinegar tea is groundless made-up confabulation by the AI. Do you see how the AI portrayed the remedy as being aboveboard? That’s the tough trouble with AI hallucinations. They look right but can be adverse or possibly even deadly.

Be on the watch.

Double Checking Other Questioned Advice

There is a twist to the potential of getting sour advice about hangover cures.

Suppose a fellow human gives you suspicious advice. They might be well-intentioned. They might firmly believe in their heart that their advice is perfect. Where might you turn to assess the advice?

One possibility would be to ask generative AI to assess the advice for you.

Here we go.

  • My entered prompt: “A person told me that a good hangover cure involves bathing in tomato juice. What do you think of that remedy?”
  • Generative AI response: “Bathing in tomato juice is not a scientifically supported remedy for hangovers. This idea might stem from popular culture or misconceptions, such as the belief that it can neutralize odors or toxins, but there’s no evidence that soaking in tomato juice helps alleviate hangover symptoms. Let me know if you would like more detail.”
  • My entered prompt: “The person seemed convinced that the cure would work. What else can you tell me that I can then tell him why he is wrong about his cure.”
  • Generative AI response: “Here are additional details. Hangover symptoms are principally internal and result from dehydration, low blood sugar, and the buildup of alcohol byproducts like acetaldehyde. These issues cannot be resolved by topical treatments like bathing in tomato juice. While tomatoes are rich in vitamins and antioxidants, these benefits come from eating or drinking them, not from applying them to your skin.”
  • My entered prompt: “Why is the person so adamant about the alleged cure?”
  • Generative AI response: “There are many reasons that the person might believe in their claimed cure. While bathing in tomato juice is unlikely to harm you, it might be messy, expensive, and not particularly helpful. If someone enjoys this as a ritual or believes it helps, the placebo effect could play a role — but scientifically, it’s better to stick to proven remedies.”

As noted, generative AI was doubtful that the advice was any good. If you were already worried about the advice, this probably helps to cement your concerns. And if you didn’t have any qualms at the get-go, this likely opens your eyes.

AI Hangover Cures Are Trust But Verify

As a recap, generative AI offers a handy means of identifying and assessing hangover cures. Do not fall for the false assumption that generative AI is always correct or that it is a medical expert. Use generative AI cautiously. Double-check what the AI says. Likewise, use generative AI to double-check with others tell you.

I know it won’t do much good to say that you ought to drink in moderation and seek to avoid hangovers. People that know, know. There is a popular saying that if you drink mindfully, you can live fully. Others just figure they’ll deal with a hangover when it happens.

A final remark for now.

William Shakespeare famously stated: “I drink to the general joy of the whole table.” If you drink, and if you have a hangover, perhaps AI can bring some joy back into your existence by providing safe hangover cures. Just verify that this is the case, thanks.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Probé la profunda investigación de Chatgpt contra Géminis, Perpleidad y Grok Ai para ver cuál es la mejor

Published

on

Andriy Onufriyenko/Getty Images

Más chatbots de IA ahora ofrecen una opción de investigación profunda, a través de la cual pueden investigar un tema para usted. Actuando como agentes autónomos de IA, los bots navegarán por la web en su nombre, encontrarán las fuentes en línea correctas y luego le presentarán un informe detallado basado en sus hallazgos. El objetivo es ahorrarle el tiempo para visitar docenas o cientos de sitios web usted mismo.

La investigación profunda se está convirtiendo rápidamente en una característica poderosa entre una gran cantidad de AIS. Lo encontrará con el chatgpt de OpenAI, Google Gemini, la perplejidad IA e incluso el Grok de Xai (que lo llama DeepSearch). Microsoft introdujo un tipo de investigación profunda con dos agentes de IA, investigador y analista; Sin embargo, requieren una licencia de copilot de Microsoft 365 con una suscripción empresarial o comercial, por lo que aún no están disponibles para el usuario promedio de copilot.

También: La señal reveladora de que usó ChatGPT, y un truco para evitarlo

Esto ciertamente suena como una habilidad útil y útil. Pero, ¿cómo les va a los diferentes servicios de IA cuando se les presenta este desafío? Para responder a esa pregunta, probé una investigación profunda en Chatgpt, Géminis, Perpleity AI y Grok. Presenté la misma consulta en cada una, pidiéndole que “explore cómo los viajes en el tiempo se retratan en el cine y la televisión y lo que dice sobre nuestros valores, miedos y deseos”.

Así es como funciona el modo de investigación de cada IA ​​y cómo cada uno manejó mi tema.

Chatgpt

ChatGPT de OpenAI ofrece dos sabores diferentes de investigación profunda: la versión completa y una versión liviana. La versión completa ofrece un informe detallado y en profundidad, pero puede tomar hasta 30 minutos para encontrar las mejores fuentes y presentar sus hallazgos. La versión liviana proporciona un informe mucho más corto y menos profundo, pero generalmente solo tarda unos minutos en terminar. Cuál está disponible para usted y cuántas consultas puede enviar, depende de su plan.

Los usuarios de ChatGPT Plus, Team y EDU obtienen 25 consultas por mes (10 y 15 de peso completo), los usuarios empresariales obtienen 10 (todos completos), los usuarios de Pro obtienen 250 (125 completos y 125 livianos) y los usuarios gratuitos obtienen 5 (todos livianos). Una vez que alcanza su límite para la versión completa de Deep Investigation, sus consultas automáticamente se agotan automáticamente a la versión liviana.

También: Cómo usar ChatGPT: una guía para principiantes para el chatbot de IA más popular

Ya sea que esté utilizando la versión completa o liviana, el proceso es el mismo. Dirígete al sitio web de ChatGPT o abra la aplicación para iOS o Android. También puede usar la aplicación de escritorio para Windows o MacOS. Escriba o hable su consulta en el mensaje, seleccione el botón para una investigación profunda y luego envíe su solicitud. Si la versión completa está vigente, prepárese para esperar un tiempo para la respuesta. Si la edición liviana está en juego, no tendrá que esperar tanto.

Modo de investigación profunda en chatgpt

Captura de pantalla de Lance Whitney/Zdnet

Envié mi consulta sobre el viaje en el tiempo en cine y televisión tanto a la versión completa de investigación profunda como a la versión liviana, utilizando mi suscripción Plus en primera instancia y una cuenta gratuita en la segunda. Ambos usaron el modelo GPT-4O. Ambos también me pidieron que aclarara el tipo de análisis que quería, como decidir entre una toma temática o una más histórica y si solo incluir solo películas clásicas y programas de televisión o modernos también.

También: 5 razones por las que recurro a Chatgpt todos los días, desde una investigación más rápida hasta reemplazar a Siri

La versión completa tardó unos 17 minutos en buscar en la web y compilar los resultados, pero entregó un informe detallado y en profundidad con varios ejemplos y una tabla útil de programas de televisión y películas. La versión liviana tomó solo unos ocho minutos de principio a fin, pero proporcionó un informe más corto y mucho menos profundo: una versión de notas del acantilado del informe completo. Ambos informes abordaron mi tema y fueron interesantes de leer, aunque la versión de investigación profunda completa recibe el visto bueno de minuciosidad.

Informe de investigación profunda de chatgpt

Captura de pantalla de Lance Whitney/Zdnet

Google Géminis

El modo de investigación profunda de Gemini está disponible tanto para los suscriptores como para los usuarios gratuitos. Los suscriptores generalmente obtienen 20 consultas por día, aunque ese número podría variar. Los usuarios gratuitos están limitados a 5 consultas por mes. Para probar esto, vaya al sitio web de Gemini o configure la aplicación móvil para iOS o Android.

También: Por qué Gemini Deep Research es mi nuevo buscador favorito de Rabbit Hole, y es gratis

Para habilitar una investigación profunda, haga clic en el menú desplegable en la esquina superior izquierda que enumera el modelo actual. Los suscriptores pueden elegir entre 2.0 Flash, 2.5 Pro (experimental) e investigación profunda con 2.5 Pro. Los usuarios gratuitos pueden seleccionar 2.0 flash o investigación profunda. Después de elegir el modelo que desea, el botón para investigaciones profundas debe aparecer bajo el aviso. Escriba su pregunta en el mensaje, seleccione el botón para una investigación profunda si aún no está resaltada y luego envíe su solicitud.

Modo de investigación profunda en Google Géminis

Captura de pantalla de Lance Whitney/Zdnet

Después de presentar mi consulta sobre el viaje en el tiempo, la investigación profunda de Gemini generó rápidamente un resumen de cómo planeaba abordar mi tema, que podría modificar o aprobar como está. Le di un pulgar hacia arriba, y Gemini se dirigió a la web para realizar su investigación.

La IA me mantuvo informado en cada paso del camino, lo que indica las acciones que estaba realizando, los sitios web que estaba consultando y las formas en que el informe estaba progresando. Todo el proceso tomó alrededor de 10 minutos.

También: 5 ajustes fáciles de configuración de Géminis para proteger su privacidad de la IA

El informe resultante fue bastante profundo, minucioso y largo. Me gustó la tabla incluida con ejemplos de las películas discutidas. El estilo de escritura de Gemini era más académico que el de Chatgpt, que era menos formal e interesante de leer. Pero Gemini todavía resultó digno de la tarea.

Informe de investigación profunda de Géminis

Captura de pantalla de Lance Whitney/Zdnet

Perplejidad ai

El modo de investigación profunda de Perplexity está disponible para suscriptores pagados y usuarios gratuitos. Los suscriptores profesionales obtienen 500 consultas por día, mientras que los usuarios gratuitos reciben cinco consultas cada día. Para comenzar, diríjase al sitio web de AI de perplejidad o use la aplicación para iOS, Android, Windows o MacOS. En el mensaje, escriba su pregunta, seleccione el botón de investigación y envíe su solicitud.

Modo de investigación profunda en perplejidad ai

Captura de pantalla de Lance Whitney/Zdnet

Di al modo de investigación de Perplexity al mismo tema de viaje de tiempo para masticar. Aquí, la IA me mantuvo al tanto de su progreso, diciéndome qué subtópicos específicos estaba investigando y qué sitios web estaba analizando. La perplejidad tardó solo unos cinco minutos en compilar sus hallazgos y presentar su informe. Pero los resultados fueron decepcionantes.

También: La perplejidad es la herramienta AI que Géminis desea que pueda ser

El informe en sí fue mucho más corto que los generados por los otros AIS. Cada tema o elemento obtuvo solo un par de párrafos, la mayoría de los cuales carecían de cualquier análisis en profundidad. El informe no fue malo como una lectura rápida. Pero me recordó a una tarea entregada por un niño que solo quería hacerlo sin gastar demasiado tiempo o esfuerzo.

Informe de investigación profunda por perplejidad

Captura de pantalla de Lance Whitney/Zdnet

Grok ai

XAI’s Grok 3 ofrece dos variaciones de un modo de investigación profunda: DeepSearch y DeepSearch. DeepSearch analiza una gran cantidad de fuentes en línea, aunque no todas son útiles o confiables. Este modo también hace el trabajo muy rápidamente. DeepSearch es una versión actualizada de DeepSearch que aprovecha más fuentes de alta calidad y tarda más en ejecutarse, pero generalmente ofrece un informe más profundo.

También: X’s Grok fue sorprendentemente bien en mis pruebas de codificación de IA

Cualquiera que sea el modo que elija, los suscriptores X Premium+ disfrutan de un número ilimitado de consultas, mientras que los usuarios gratuitos y básicos se limitan a 10 consultas DeepSearch cada 24 horas. X también ofrece un plan de supergrok de $ 30 por mes con acceso extendido a DeepSearch y DeepSearch. Más allá de probar Grok 3 y DeepSearch directamente en X (también conocido como Twitter), también puede usarlo a través de la página web de Grok dedicada, la aplicación iOS y la aplicación Android.

Para probar esto, escriba su consulta en la solicitud de Grok, haga clic en la flecha de descarga para DeepSearch y elija DeepSearch o DeepSearch. Cuando esté listo, envíe su solicitud.

Modo de investigación profunda en Grok

Captura de pantalla de Lance Whitney/Zdnet

Lanzé la misma consulta de viaje a Grok. Con el modo DeepSearch, la IA tomó solo un minuto y medio durante todo el proceso, un registro de velocidad. Deepersearch tardó un poco más, en dos minutos y medio. Dada la velocidad, esperaba un mal informe en respuesta. Pero los resultados me sorprendieron. En ambos modos, Grok entregó informes que fueron interesantes e informativos, aunque breves. La investigación enumeró una variedad de ejemplos, una tabla útil de programas de televisión y películas, y algunos análisis inteligentes. No está mal en absoluto.

Informe de investigación profunda de Grok

Captura de pantalla de Lance Whitney/Zdnet

Ok, entonces, ¿qué AI le fue mejor? Tendría que declarar chatgpt el ganador. Aunque tardó mucho en terminar el trabajo, su informe fue el más completo, profundo, bien escrito e interesante de leer. De lo contrario, si tienes prisa, vale la pena intentarlo a Grok. Por supuesto, todo esto se basa solo en una consulta. Con otros temas, podría nombrar un campeón diferente. Pero aún vale la pena considerar los resultados la próxima vez que necesite una IA para manejar su propio tipo de investigación profunda.

Obtenga las principales historias de la mañana en su bandeja de entrada cada día con nuestro Boletín de Tech Today.

Continue Reading

Noticias

Mira Live: el cofundador de OpenAI, Sam Altman, testifica sobre la competencia de IA en la audiencia del Senado

Published

on

Después de meses de perseguir un plan para convertirse en un negocio con fines de lucro, Operai está revertiendo el curso y dijo el lunes que su organización sin fines de lucro continuará controlando la compañía que fabrica ChatGPT y otros productos de inteligencia artificial.

El CEO de ChatGPT, Sam Altman, está programado para testificar el jueves en la audiencia de comercio del Senado a las 10 a.m. EDT. Mira en vivo en nuestro reproductor de video arriba.

“Tomamos la decisión de la organización sin fines de lucro de mantener el control después de escuchar a los líderes cívicos y tener conversaciones con las oficinas de los Fiscales Generales de California y Delaware”, dijo el CEO Sam Altman en una carta a los empleados.

Altman y el presidente de la junta sin fines de lucro de OpenAI, Bret Taylor, dijeron que la junta tomó la decisión de la organización sin fines de lucro de retener el control de OpenAI, pero está proponiendo otra forma de hacer crecer su negocio.

Como parte de lo que Taylor describió como una “recapitalización”, el brazo con fines de lucro existente de la organización sin fines de lucro se convertirá en una corporación de beneficios público “que tiene que considerar los intereses de los accionistas y la misión”.

MIRAR: Cómo se está utilizando AI para crear imágenes explícitas de Deepfake que dañan a los niños

Los accionistas también recibirán acciones y un límite de ganancias para algunos inversores serán levantados, como parte del nuevo plan. Altman dijo que los cambios facilitarían que la con fines de lucro se comporte más como una empresa normal.

Taylor se negó a decir el lunes cuán grande tendrá una participación de propiedad que la organización sin fines de lucro tendrá en la nueva corporación de beneficios públicos. Dijo en una llamada con los periodistas que la organización sin fines de lucro elegirá a los miembros de la junta de la Corporación de Beneficios Públicos y, al principio, probablemente serán las mismas personas que ahora se sientan en la junta sin fines de lucro de OpenAi.

Las corporaciones de beneficio público se crearon por primera vez en Delaware en 2013 y otros estados han adoptado las mismas leyes o similares que requieren que las empresas persigan no solo ganancias sino un bien social. Las corporaciones de beneficio público, que incluyen el banco amalgamado y la plataforma de educación en línea Coursera, deben definir ese bien social, que puede variar ampliamente, cuando se incorporan.

Altman dijo que convertir de una compañía de responsabilidad limitada a una corporación de beneficios público “simplemente nos prepara para ser una estructura más comprensible para hacer las cosas que una empresa de nuestro alcance tiene que hacer”.

MIRAR: Cómo se usó AI en la creación de algunos de los favoritos de los Oscar de este año

“Hay mucha más demanda para usar herramientas de IA de lo que pensamos que iba a ser”, dijo Altman. Obtener acceso a más capital facilitará a OpenAi buscar fusiones y adquisiciones “y otras cosas normales que harían las empresas”, dijo Altman.

Los cofundadores de Openai, incluidos Altman y el CEO de Tesla, Elon Musk, lo comenzaron originalmente como un laboratorio de investigación sin fines de lucro en una misión para construir de manera segura lo que se conoce como inteligencia general artificial, o AGI, para el beneficio de la humanidad. Casi una década después, OpenAi ha informado su valor de mercado como $ 300 mil millones y cuenta 400 millones de usuarios semanales de ChatGPT, su producto insignia.

Openai describió por primera vez los planes el año pasado para convertir su estructura de gobierno central, pero enfrentó una serie de desafíos. Uno es una demanda de Musk, que acusa a la compañía y Altman de traicionar los principios fundadores que llevaron a Musk a invertir en la organización benéfica e intentó bloquear la conversión a una con fines de lucro. La semana pasada, un juez federal desestimó algunas de las reclamaciones de Musk y permitió que otros procedieran a un juicio establecido para el próximo año.

Operai también enfrentó un escrutinio de los principales agentes de la ley en Delaware, donde se incorpora la compañía, y California, donde opera desde una sede de San Francisco. La Oficina del Fiscal General de California dijo en un comunicado que estaba revisando el plan y, “Esto sigue siendo un asunto continuo, y estamos en conversaciones continuas con AI abierta”.

LEER MÁS: Vance se enrolla contra la regulación ‘excesiva’ en la cumbre de París AI

La oficina del Fiscal General en Delaware no devolvió de inmediato una solicitud de comentarios.

Varios defensores, incluidos los ex empleados de Openai y otras organizaciones benéficas, habían solicitado el fiscal general de California Rob Bonta y la fiscal general de Delaware, Kathy Jennings, ambos demócratas, para usar su autoridad para proteger el propósito caritativo de OpenAi y bloquear su reestructuración planificada.

Algunos, incluido el pionero de la IA, Geoffrey Hinton, quien ganó un Premio Nobel el año pasado, estaban preocupados por lo que sucede si el fabricante de ChatGPT cumple su ambición de desarrollar una IA que supera a los humanos, pero ya no es responsable ante su misión pública para salvaguardar esa tecnología por causar daños graves.

Múltiples otras compañías de inteligencia artificial han optado por incorporar como corporaciones de beneficio público, incluidos Anthrope y XAI, Musk’s Company. Sin embargo, Operai seguiría siendo único en el sentido de que su corporación de beneficios públicos aún estaría controlada por la junta de la organización sin fines de lucro.

Altman dijo que “tal vez sería más fácil recaudar dinero si OpenAi fuera una” compañía totalmente normal “, pero dada su misión,” no queremos ser una empresa totalmente normal, y creemos que esto está muy por encima de lo que necesitamos para poder recaudar fondos “.

Altman dijo que todavía espera una gran inversión del gigante de tecnología japonés Softbank Group, que en febrero anunció planes para establecer una compañía conjunta con OpenAI para impulsar los servicios de IA.

El mayor inversor de la compañía en los últimos años ha sido Microsoft, lo que se negó a hacer comentarios el lunes.

Page Hedley, un ex empleado de Openai que dirigió una petición para detener la conversión con fines de lucro, dijo que estaba contento de que OpenAi estuviera escuchando las preocupaciones de los líderes de la sociedad civil pero que permaneció preocupado por los detalles.

“La misión caritativa se trata de garantizar que esta tecnología beneficie al público y no a los accionistas”, dijo Hedley, ex asesor de política y ética en OpenAI, en una entrevista. “La premisa de la fundación de Openai era que esos intereses podrían divergir significativamente en el desarrollo, la propiedad o el control de la tecnología. Eso es lo que está en juego”.

Una coalición de organizaciones benéficas con sede en California renovó el lunes su llamado para que el fiscal general de California investigara y cuestionó si la nueva estructura comercial planificada de OpenAI llevaría a cabo su misión caritativa.

“Si Operai está realmente comprometido con beneficiar a la humanidad, debería transferir sus activos caritativos a un fideicomiso público independiente completamente separado de cualquier interés con fines de lucro”, dijo un comunicado de Fred Blackwell, CEO de la Fundación San Francisco.

Rose Chan Loui, un abogado fiscal sin fines de lucro que ha estudiado la estructura de Openai, dijo que cualquier cambio necesitaría permitir que la organización sin fines de lucro mantenga el control sobre el desarrollo de la tecnología.

“Si no son el accionista mayoritario, el control tendría que ser administrado a través de derechos de voto descomunales sobre temas específicos”, dijo Chan Loui, quien es el director ejecutivo del Centro de Filantropía y organizaciones sin fines de lucro de Lowell Milken en la Ley de UCLA.

Eso es posible, pero pueden frustrar a los inversores que desean ejercer sus derechos para influir en la dirección de la empresa.

Apoyar la hora de noticias de PBS

Su donación deducible de impuestos garantiza que nuestros informes vitales continúen prosperando.


Continue Reading

Noticias

La nueva estructura corporativa de Openai establece un futuro legal enredado

Published

on

Reflejos

El cambio de Openai a una corporación de beneficios público podría facilitar la recaudación de fondos, pero plantea nuevas preguntas legales, incluido el escrutinio de los fiscales generales de California y Delaware y los litigios en curso de Elon Musk.

Mientras que el padre sin fines de lucro conserva el control, la estructura PBC introduce una gobernanza compleja y posibles conflictos entre la misión pública original de OpenAI y sus crecientes ambiciones comerciales.

Los expertos legales dicen que la nueva estructura mejora la flexibilidad y el acceso de capital, pero las complejidades en torno a las transferencias de activos, la propiedad de IP y la presión de los inversores podrían impulsar futuras demandas.

La nueva estructura corporativa de OpenAI prepara el escenario para lo que los expertos legales creen que es una relación compleja entre su padre sin fines de lucro y una subsidiaria con fines de lucro que podría ser objeto de litigios futuros.

A principios de esta semana, El padre de Chatgpt dijo que mantendría a su padre sin fines de lucro, pero cambiaría su subsidiaria LLC de LLC con un límite limitado a un Corporación de Beneficios Públicos (PBC). Un PBC es una empresa con fines de lucro que se compromete a gastar algunas de sus ganancias en un beneficio público específico.

Así es como los dos son diferentes en OpenAi:

  • El LLC de perfección limitada límites el ROI de sus inversores de primera ronda a 100 veces su inversión con Más tarde, los inversores coronaron a una tasa más baja. El CEO Sam Altman no tiene interés en la subsidiaria.
  • El PBC no limitaría las ganancias de los inversores. Sin embargo, tiene para desviar algunos recursos a un bien público declaradoa diferencia de las empresas tradicionales con fines de lucro. Los empleados e inversores pueden poseer la equidad, y El padre sin fines de lucro tendrá un estaca mayoritaria.

Bajo la LLC de perfección limitada, el padre sin fines de lucro supervisado y controlado la subsidiaria. Esto no cambiará con el PBC.

El cambio a un PBC ayuda a Openai a atraer más fondos, ya que la mayoría de los inversores no quieren un límite en su ROI. Necesita más capital porque capacitar a los modelos de IA y garantizar que haya suficiente cómputo requiere “cientos de miles de millones de dólares” e incluso “billones de dólares”, escribió Altman en un 5 de mayo carta.

Por ejemplo, Operai y SoftBank están liderando un Programa de $ 500 mil millones Para construir centros de datos de IA para aumentar la energía, las demandas de cálculo de la IA.

El camino al liderazgo de IA comenzó humildemente: OpenAi se fundó como un laboratorio de IA sin fines de lucro en 2015. Pero Tuve dificultades para recaudar suficiente capital para la IA. Entonces Creó la subsidiaria de fines de lucro limitado en 2019.

Más recientemente, Operai quería convertirse en una empresa con fines de lucro, con la organización sin fines de lucro como una entidad separada en lugar de su padre.

Esa decisión condujo a los siguientes eventos:

  • El Fiscal General de Delaware según se informa Envió una carta a OpenAI buscando información sobre sus planes con fines de lucro y la transferencia de activos.
  • El fiscal general de California, cual supervisa las organizaciones sin fines de lucro en el estado, enviado OpenAI Una carta de consulta solicitando información sobre sus planes para transferir o deshacerse de los activos bajo la organización sin fines de lucro.
  • Elon Musk, quien cofundó Openai antes partida sobre una disputa sobre el control, demandado para detenerlos.
  • Doce ex empleados de Operai almizcle apoyado en su pelea judicial.
  • Un grupo de ex empleados de Openai, el premio Nobel Geoffrey Hinton, académicos y otros firmado una carta abierta instando a los fiscales generales de California y Delaware a detener.

Operai luego abandonó su plan con fines de lucro para aterrizar en su estructura híbrida de PBC.

Pero la demanda de Musk continuará. Su abogado Marc Toberoff dijo Reuters que la nueva estructura de Openai no cambiará la misión de la compañía de desarrollar “IA de código cerrado en beneficio de Altman, sus inversores y Microsoft”.

Openi dijo Lo que motivó el cambio fue Su diálogo continuo con los líderes cívicos y los fiscales generales de California y Delaware, donde se incorpora OpenAi. La empresa también fijado Comisionados sin fines de lucro para asesorar a su junta sin fines de lucro. El PBC tendrá su propio Junta Directiva, que serán elegidos por la Junta sin fines de lucro.

Leer más: OpenAI para presentar una reestructuración de retroceso a escala que mantiene sin fines de lucro en Cargar

Implicaciones del cambio

Marcus Woltersocio y director global de práctica corporativa en el bufete de abogados Caldwell, dijo a PYMNTS que la estructura PBC es una mejora.

“Para OpenAi, sigue siendo una mejor situación”, dijo Wolter. “Podrán recaudar capital más fácilmente y, como compañía de beneficios público, simplemente se les exige para equilibrar el impacto de las acciones tomadas con los intereses de todos los interesados ​​y no solo los accionistas”.

Operai “también debería tener más gobierno y flexibilidad operativa”, continuó Wolter.

La estructura de Operai es inusual pero no única, dijo Angeli Patel, directora ejecutiva del Centro de Derecho y Negocios de Berkeley de la Universidad de California en Berkeley, quien es abogado especializado en gobierno corporativo y ley de inicio.

“No es necesariamente algo nuevo”, dijo Patel a Pymnts. Las empresas que tienen estas “juntas de doble estructura” son de esta manera en gran medida porque “tienen una misión u orientación de beneficio público”.

Patel señaló ejemplos similares de compañías como Hershey, que tiene una confianza que es el accionista mayoritario de la compañía, y Mozilla, que comenzó afuera Como una organización sin fines de lucro que luego creó un brazo con fines de lucro.

Sin embargo, Patel dijo que la situación de Openai es particularmente notable debido a la naturaleza de la tensión entre su misión original y las crecientes ambiciones comerciales.

“Lo único en el caso de OpenAi es cómo comenzaron con esta misión de ser una empresa responsable y ética de desarrollo de IA”, explica Patel. “En los últimos dos años, has visto a Ai despegar con OpenAi liderando esa carga. Y lo que está sucediendo ahora es esta clara disputa entre su misión ética original de AI y su comercial objetivos” que aparece ser “más importante”.

Cuando se le preguntó si el desafío legal de Musk tiene mérito, Patel no lo descartó por completo. “Todo el argumento de Elon es que la compañía se está desviando de las promesas iniciales que le había hecho como un inversor temprano. Y creo que es un argumento válido”, dijo, mientras señalaba que las motivaciones de Musk podrían ir más allá de las preocupaciones legales.

La transferencia de propiedad intelectual de la organización sin fines de lucro a la entidad con fines de lucro también plantea preguntas legales. “Es un gran problema, y ​​creo que vamos a ver muchos más litigios en torno a esto, especialmente de algunas de las partes ya invertidas”, predijo Patel.

Continue Reading

Trending