Connect with us

Noticias

Inside the Mind of Sam Altman: How the OpenAI CEO Sees the World

Published

on

It’s been decades since a titan of tech became a pop-culture icon. Steve Jobs stepped out on stage in his black turtleneck in 1998. Elon Musk set his sights on Mars in 2002. Mark Zuckerberg emerged from his Harvard dorm room in 2004.

And now, after years of stasis in Silicon Valley, we have Sam Altman.

The cofounder and CEO of the chatbot pioneer OpenAI stands at the center of what’s shaping up to be a trillion-dollar restructuring of the global economy. His image — boyishly earnest, chronically monotonic, carelessly coiffed — is a throwback to the low-charisma, high-intelligence nerd kings of Silicon Valley’s glory days. And as with his mythic-hero predecessors, people are hanging on his every word. In September, when Altman went on a podcast called “How I Write” and mentioned his love of pens from Uniball and Muji, his genius life hack ignited the internet. “OpenAI’s CEO only uses 2 types of pens to take notes,” Fortune reported — with a video of the podcast.

It’s easy to laugh at our desperation for crumbs of wisdom from Altman’s table. But the notability of Altman’s notetaking ability is a meaningful signifier. His ideas on productivity and entrepreneurship — not to mention everything from his take on science fiction to his choice of vitamins — have become salient not just to the worlds of tech and business, but to the broader culture. The new mayor-elect of San Francisco, for instance, put Altman on his transition team. And have you noticed that a lot of tech bros are starting to wear sweaters with the sleeves rolled up? A Jobsian singularity could be upon us.

But the attention to Altman’s pen preferences raises a larger question: What does his mindset ultimately mean for the rest of us? How will the way he thinks shape the world we live in?

To answer that question, I’ve spent weeks taking a Talmudic dive into the Gospel According to Sam Altman. I’ve pored over hundreds of thousands of words he’s uttered in blog posts, conference speeches, and classroom appearances. I’ve dipped into a decade’s worth of interviews he’s given — maybe 40 hours or so. I won’t claim to have taken anything more than a core sample of the vast Altmanomicon. But immersing myself in his public pronouncements has given me a new appreciation for what makes Altman tick. The innovative god-kings of the past were rule-breaking disruptors or destroyers of genres. The new guy, by contrast, represents the apotheosis of what his predecessors wrought. Distill the past three decades of tech culture and business practice into a super-soldier serum, inject it into the nearest scrawny, pale arm, and you get Sam Altman — Captain Silicon Valley, defender of the faith.



DJ Kay Slay, Craig Thole of Boost Mobile, Sam Altman of Loopt and Fabolous (Photo by Jason Kempin/FilmMagic)

Altman at a Times Square event in 2006, during the early days of Loopt. The startup failed — but it immersed Altman in the Silicon Valley mindset.

Jason Kempin/FilmMagic via Getty Images.



Let’s start with the vibes. Listening to Altman for hours on end, I came away thinking that he seems like a pretty nice guy. Unlike Jobs, who bestrode the stage at Apple events dropping one-more-things like a modern-day Prometheus, Altman doesn’t spew ego everywhere. In interviews, he comes across as confident but laid back. He often starts his sentences with “so,” his affect as flat as his native Midwest. He also has a Midwesterner’s amiability, somehow seeming to agree with the premise of almost any question, no matter how idiotic. When Joe Rogan asked Altman whether he thinks AI would one day be able, via brain chips, to edit human personalities to be less macho, Altman not only let it ride, he turned the interview around and started asking Rogan questions about himself.

Another contrast with the tech gurus of yore: Altman says he doesn’t care much about money. His surprise firing at OpenAI, he says, taught him to value his loving relationships — a “recompilation of values” that was “a blessing in disguise.” In the spring, Altman told a Stanford entrepreneur class that his money-, power-, and status-seeking phases were all in the rearview. “At this point,” Altman said, “I feel driven by wanting to do something useful and interesting.”

Altman is even looking into universal basic income — giving money to everyone, straight out, no strings attached. That’s partly because he thinks artificial intelligence will make paying jobs as rare as coelacanths. But it’s also a product of unusual self-awareness. Altman, famously, was in the “first class” of Y Combinator, Silicon Valley’s ur-incubator of tech startups. Now that he’s succeeded, he recalls that grant money as a kind of UBI — a gift that he says prevented him from ending up at Goldman Sachs. Rare is the colossus of industry who acknowledges that anyone other than himself tugged on those bootstraps.


Sam Altman at Tech Crunch Disrupt

By 2014, Altman was running Y Combinator, where he became one of tech’s most influential evangelists.

Brian Ach/Getty Images for TechCrunch



Altman’s seeming rejection of wealth is a key element of his mythos. On a recent appearance on the “All-In” podcast, the hosts questioned Altman’s lack of equity in OpenAI, saying it made him seem less trustworthy — no skin in the game. Altman explained that the company was set up as a nonprofit, so equity wasn’t a thing. He really wished he’d gotten some, he added, if only to stop the endless stream of questions about his lack of equity. Charming! (Under Altman’s watch, OpenAI is shifting to a for-profit model.)

Altman didn’t get where he is because he made a fortune in tech. Y Combinator, where he started out, was the launchpad for monsters like Reddit, Dropbox, Airbnb, Stripe, DoorDash, and dozens of other companies you’ve never heard of, because they never got big. Loopt, the company Altman founded at 20 years old, was in the second category. Yet despite that, the Y Combinator cofounder Paul Graham named him president of the incubator in 2014. It wasn’t because of what Altman had achieved — Loopt burned through $30 million before it folded — but because he embodies two key Silicon Valley mindsets. First, he emphasizes the need for founders to express absolute certainty in themselves, no matter what anyone says. And second, he believes that scale and growth can solve every problem. To Altman, those two tenets aren’t just the way to launch a successful startup — they’re the twin turbines that power all societal progress. More than any of his predecessors, he openly preaches Silicon Valley’s almost religious belief in certainty and scale. They are the key to his mindset — and maybe to our AI-enmeshed future.


In 2020, Altman wrote a blog post called “The Strength of Being Misunderstood.” It was primarily a paean to the idea of believing you are right about everything. Altman suggested that people spend too much time worrying about what other people think about them, and should instead “trade being short-term low-status for being long-term high-status.” Being misunderstood by most people, he went on, is actually a strength, not a weakness — “as long as you are right.”

For Altman, being right is not the same thing as being good. When he talks about who the best founders are and what makes a successful business, he doesn’t seem to think it matters what their products actually do or how they affect the world. Back in 2015, Altman told Kara Swisher that Y Combinator didn’t really care about the specific pitches it funded — the founders just needed to have “raw intelligence.” Their actual ideas? Not so important.

“The ideas are so malleable,” Altman said. “Are these founders determined, are they passionate about this, do they seem committed to it, have they really thought about all the issues they’re likely to face, are they good communicators?” Altman wasn’t betting on their ideas — he was betting on their ability to sell their ideas, even if they were bad. That’s one of the reasons, he says, that Y Combinator didn’t have a coworking space — so there was no place for people to tell each other that their ideas sucked.

Altman says founding a startup is something people should do when they’re young — because it requires turning work-life balance into a pile of radioactive slag.

“There are founders who don’t take no for an answer and founders who bend the world to their will,” Altman told a startups class at Stanford, “and those are the ones who are in the fund.” What really matters, he added, is that founders “have the courage of your convictions to keep doing this unpopular thing because you understand the way the world is going in a way that other people don’t.”

One example Altman cites is Airbnb, whose founders hit on their big idea when they maxed out their credit cards trying to start a different company and wanted to rent out a spare room for extra cash. He also derives his disdain for self-doubt from Elon Musk, who once gave him a tour of SpaceX. “The thing that sticks in memory,” Altman wrote in 2019, “was the look of absolute certainty on his face when he talked about sending large rockets to Mars. I left thinking ‘huh, so that’s the benchmark for what conviction looks like.'”

This, Altman says, is why founding a startup is something people should do when they’re young — because it requires turning work-life balance into a pile of radioactive slag. “Have almost too much self-belief,” he writes. “Almost to the point of delusion.”

So if Altman believes that certainty in an idea is more important than the idea itself, how does he measure success? What determines whether a founder turns out to be “right,” as he puts it? The answer, for Altman, is scale. You start a company, and that company winds up with lots of users and makes a lot of money. A good idea is one that scales, and scaling is what makes an idea good.

For Altman, this isn’t just a business model. It’s a philosophy. “You get truly rich by owning things that increase rapidly in value,” he wrote in a 2019 blog post called “How to Be Successful.” It doesn’t matter what — real estate, natural resources, equity in a business. And the way to make things increase rapidly in value is “by making things people want at scale.” In Altman’s view, big growth isn’t just a way to keep investors happy. It’s the evidence that confirms one’s unwavering belief in the idea.

Artificial intelligence itself, of course, is based on scale — on the ever-expanding data that AI feeds on. Altman said at a conference that OpenAI’s models would double or triple in size every year, which he took to mean they’ll eventually reach full sentience. To him, that just goes to show the potency of scale as a concept — it has the ability to imbue a machine with true intelligence. “It feels to me like we just stumbled on a new fact of nature or science or whatever you want to call it,” Altman said on “All-In.” “I don’t believe this literally, but it’s like a spiritual point — that intelligence is an emergent property of matter, and that’s like a rule of physics or something.”

Altman says he doesn’t actually know how intelligent, or superintelligent, AI will get — or what it will think when it starts thinking. But he believes that scale will provide the answers. “We will hit limits, but we don’t know where those will be,” he said on Ezra Klein’s podcast. “We’ll also discover new things that are really powerful. We don’t know what those will be either.” You just trust that the exponential growth curves will take you somewhere you want to go.


In all the recordings and writings I’ve sampled, Altman speaks only rarely about things he likes outside startups and AI. In the canon I find few books, no movies, little visual art, not much food or drink. Asked what his favorite fictional utopias are, Altman mentions “Star Trek” and the Isaac Asimov short story “The Last Question,” which is about an artificial intelligence ascending to godhood over eons and creating a new universe. Back in 2015, he said “The Martian,” the tale of a marooned astronaut hacking his way back to Earth, was eighth on his stack of bedside books. Altman has also praised the Culture series by Iain Banks, about a far-future galaxy of abundance and space communism, where humans and AIs live together in harmony.


Sam Altman at the 2018 Allen & Company Sun Valley Conference, three years after the official founding of OpenAI

Altman in 2018. Beyond startups and AI, he rarely speaks about things he likes.

Drew Angerer/Getty Images



Fiction, to Altman, appears to hold no especially mysterious human element of creativity. He once acknowledged that the latest version of ChatGPT wasn’t very good at storytelling, but he thought it was going to get much better. “You show it a bunch of examples of what makes a good story and what makes a bad story, which I don’t think is magic,” he said. “I think we really understand that well now. We just haven’t tried to do that.”

It’s also not clear to me whether Altman listens to music — at least not for pleasure. On the “Life in Seven Songs” podcast, most of the favorite songs Altman cited were from his high school and college days. But his top pick was Rachmaninoff’s Piano Concerto No. 2. “This became something I started listening to when I worked,” he said. “It’s a great level of excitement, but it’s not distracting. You can listen to it very loudly and very quietly.” Music can be great, but it shouldn’t get in the way of productivity.

For Altman, even drug use isn’t recreational. In 2016, a “New Yorker” profile described Altman as nervous to the point of hypochondria. He would telephone his mother — a physician — to ask whether a headache might be cancer. He once wrote that he “used to hate criticism of any sort and actively avoided it,” and he has said he used to be “a very anxious and unhappy person.” He relied on caffeine to be productive, and used marijuana to sleep.

Now, though? He’s “very calm.” He doesn’t sweat criticism anymore. If that sounds like the positive outcome of years of therapy, well — sort of. Last summer, Altman told Joe Rogan that an experience with “psychedelic therapy” had been one of the most important turning points in his life. “I struggled with all kinds of anxiety and other negative things,” he said, “and to watch all of that go away — I came back a totally different person, and I was like, ‘I have been lied to.'”

He went into more detail on the Songs podcast in September. “I think psychedelic experiences can be totally incredible, and the ones that have been totally life-changing for me have been the ones where you go travel to a guide, and it’s psychedelic medicine,” he said. As for his anxiety, “if you had told me a one-weekend-long retreat in Mexico was going to change that, I would have said, ‘absolutely not.'” Psychedelics were just another life hack to resolve emotional turmoil. (I reached out to Altman and offered to discuss my observations with him, in the hopes he’d correct any places where he felt I was misreading him. He declined.)


AI started attracting mainstream attention only in the past couple of years, but the field is much older than that — and Altman cofounded OpenAI nearly a decade ago. So he’s been asked what “artificial general intelligence” is and when we’re going to get it so often, and for so long, that his answers often include a whiff of frustration. These days, he says that AGI is when the machine is as smart as the median human — choose your own value for “smart” and “median” there — and “superintelligence” is when it’s smarter than all of us meatbags squished together. But ask him what AI is for, and he’s a lot less certain-seeming today than he used to be.


Sam Altman at the APEC CEO Summit at Moscone West on November 16, 2023.

As the CEO of OpenAI, Altman says that “superintelligence” — the moment machines become smarter than their human masters — is only “thousands of days” away.

Justin Sullivan/Getty Images



There’s the ability to write code, sure. Altman also says AI will someday be a tutor as good as those available to rich people. It’ll do consultations on medical issues, maybe help with “productivity” (by which he seems to mean the speed at which a person can learn something, versus having to look it up). And he said scientists had been emailing him to say that the latest versio of ChatGPT has increased the rate at which they can do “great science” (by which he seems to mean the speed at which they can run evaluations of possible new drugs).

And what would you or I do with a superintelligent buddy? “What if everybody in the world had a really competent company of 10,000 employees?” Altman once asked. “What would we be able to create for each other?” He was being rhetorical — but whatever the answer turns out to be, he’s sure it will be worth the tremendous cost in energy and resources it will take to achieve it. As OpenAI-type services expand and proliferate, he says, “the marginal cost of intelligence and the marginal cost of energy are going to trend rapidly toward zero.” He has recently speculated that intelligence will be more valuable than money, and that instead of universal basic income, we should give people universal basic compute — which is to say, free access to AI. In Altman’s estimation, not knowing what AI will do doesn’t mean we shouldn’t go ahead and restructure all of society to serve its needs.

And besides, AI won’t take long to give us the answer. Superintelligence, Altman has promised, is only “thousands of days” away — half a decade, at minimum. But, he says, the intelligent machine that emerges probably won’t be an LLM chatbot. It will use an entirely different technical architecture that no one, not even OpenAI, has invented yet.

That, at its core, reflects an unreconstructed, dot-com-boom mindset. Altman doesn’t know what the future will bring, but he’s in a hurry to get there. No matter what you think about AI — productivity multiplier, economic engine, hallucinating plagiarism machine, Skynet — it’s not hard to imagine what could happen, for good and ill, if you combine Altman’s absolute certainty with monstrous, unregulated scale. It only took a couple of decades for Silicon Valley to go from bulky computer mainframes to the internet, smartphones, and same-day delivery — along with all the disinformation, political polarization, and generalized anxiety that came with them.

But that’s the kind of ballistic arc of progress that Altman is selling. He is, at heart, an evangelist for the Silicon Valley way. He didn’t build the tech behind ChatGPT; the most important thing he ever built and scaled is Y Combinator, an old-fashioned business network of human beings. His wealth comes from investments in other people’s companies. He’s a macher, not a maker.

In a sense, Altman has codified the beliefs and intentions of the tech big shots who preceded him. He’s just more transparent about it than they were. Did Steve Jobs project utter certainty? Sure. But he didn’t give interviews about the importance of projecting utter certainty; he just introduced killer laptops, blocked rivals from using his operating system, and built the app store. Jeff Bezos didn’t found Amazon by telling the public he planned to scale his company to the point that it would pocket 40 cents of every dollar spent online; he just started mailing people books. But Altman is on the record. When he says he’s absolutely sure ChatGPT will change the world, we know that he thinks CEOs have to say they’re absolutely sure their product will change the world. His predecessors in Silicon Valley wrote the playbook for Big Tech. Altman is just reading it aloud. He’s touting a future he hasn’t built yet, along with the promise that he can will it into existence — whatever it’ll wind up looking like — one podcast appearance at a time.


Adam Rogers is a senior correspondent at Business Insider.

Continue Reading

Noticias

Operai gana la demanda por difamación presentada por el activista de los derechos de las armas sobre reclamos de malversación de fondos alucinados

Published

on

En la decisión de ayer por el juez Tracie Cason (Georgia Super. Ct. Gwinnett County) en Walters v. Openai, LLCel activista de los derechos de armas Mark Walters demandó a OpenAi después de que el periodista Frederick Riehl (“editor de Ammoland.com, un sitio de noticias y defensa relacionada con los derechos de la Segunda Enmienda”) recibió una alucinación generada por IA de Chatgpt que alegaba que Walters estaba siendo demandado por presunta presunta sobresslemento. El tribunal otorgó un juicio sumario de OpenAI, concluyendo que OpenAi debe prevalecer “por tres razones independientes”:

[1.] En Contexto, un lector razonable no habría entendido las acusaciones “podrían ser” razonablemente entendidas que describen hechos reales “,”, “,” que es un elemento clave de un reclamo de difamación. El Tribunal no concluyó que OpenAi y otras compañías similares son categóricamente inmunes cada vez que incluyen un descargo de responsabilidad, sino que declaró que “el descargo de responsabilidad o el lenguaje de advertencia pesan en la determinación de si este objetivo objetivo, el estándar de ‘lector razonable’ se cumple”, y que “en las circunstancias presentes aquí, un lector razonable en la posición de Riehl no podría haber concluido que el chatgptutputppppput en la comunicación ” en realidad ‘: las hechos reales’ en realidad ” en realidad ”.

{Riehl pegó secciones del Fergusón queja [a Complaint in a civil case that Riehl was researching] en Chatgpt y le pidió que resumiera esas secciones, que hizo con precisión. Riehl luego proporcionó un enlace de Internet, o URL, a la queja a ChatGPT y le pidió que resumiera la información disponible en el enlace. ChatGPT respondió que “no tenía acceso a Internet y no puede leer ni recuperar ningún documento”. Riehl proporcionó la misma URL nuevamente. Esta vez, Chatgpt proporcionó un resumen diferente e inexacto del Fergusón Queja, diciendo que implicaba acusaciones de malversación de malversación por parte de un tesorero y director financiero no identificado de SAF. Riehl nuevamente proporcionó la URL y le preguntó a ChatGPT si podía leerla. Chatgpt respondió “sí” y nuevamente dijo que la queja involucraba acusaciones de malversación de fondos; esta vez, dijo que el malversador acusado era un individuo llamado Mark Walters, quien Chatgpt dijo que era el tesorero y director financiero de la SAF.}

En esta interacción específica, ChatGPT advirtió a Riehl que no podía acceder a Internet o acceder al enlace al Fergusón Queja que Riehl le proporcionó y que no tenía información sobre el período de tiempo en el que se presentó la queja, que fue después de su “fecha de corte de conocimiento”. Antes de que Riehl proporcionara el enlace a la queja, ChatGPT resumió con precisión el Fergusón Queja basada en el texto riehl ingresada. Después de que Riehl proporcionó el enlace, y después de ChatGPT inicialmente advirtió que no podía acceder al enlace, ChatGPT proporcionó un resumen completamente diferente e inexacto.

Además, los usuarios de ChatGPT, incluido Riehl, fueron advertidos repetidamente, incluso en los términos de uso que gobiernan las interacciones con ChatGPT, que ChatGPT puede y a veces proporciona información fácticamente inexacta. Un usuario razonable como Riehl, que era consciente de la experiencia pasada que ChatGPT puede y sí proporciona “respuestas ficticias planas”, y quién había recibido las repetidas renuncias que advierte que la producción equivocada era una posibilidad real, no habría creído que el resultado estaba diciendo “hechos reales” sobre Walters sin intentar verificarlo …

Eso es especialmente cierto aquí, donde Riehl ya había recibido un comunicado de prensa sobre el Fergusón Queja y tuvo acceso a una copia de la queja que le permitió verificar de inmediato que la salida no fuera verdadera. Riehl admitió que “en aproximadamente una hora y media” había establecido que “lo que sea [Riehl] estaba viendo “en la producción de Chatgpt” no era cierto “. Como Riehl testificó, él ” entendió que la máquina fantaseaba por completo. …

Por separado, es indiscutible que Riehl en realidad no creyera que el Fergusón La queja acusó a Walters de malversación de la SAF. Si el individuo que lee una declaración desafiada no cree subjetivamente que sea real, entonces la declaración no es difamatoria como una cuestión de derecho.[Riehl] Sabía que Walters no era, y nunca había sido, el tesorero o director financiero de la SAF, una organización para la cual Riehl sirvió en la junta directiva …

[2.a.] El tribunal también concluyó que Walters no podía mostrar ni siquiera negligencia Por parte de Operai, que se requiere para todas las reclamaciones de difamación sobre asuntos de preocupación pública:

El Tribunal de Apelaciones ha sostenido que, en un caso de difamación “,[t]El estándar de conducta requerido de un editor … se definirá por referencia a los procedimientos de un editor razonable en [its] El puesto habría empleado antes de publicar [an item] como [the] uno [at issue. A publisher] será mantenido a la habilidad y experiencia normalmente ejercida por miembros de [its] profesión. La costumbre en el comercio es relevante pero no controladora “. Walters no ha identificado evidencia de qué procedimientos un editor razonable en la posición de Openal habría empleado en función de la habilidad y la experiencia que normalmente ejercen los miembros de su profesión. Tampoco Walters ha identificado ninguna evidencia que OpenAI no cumpliera con este estándar.

Y Openai ha ofrecido evidencia de su experto, el Dr. White, que Walters no refutó ni se abordó, lo que demuestra que Operai lidera a la industria de la Liga Americana al intentar reducir y evitar la producción equivocada como la producción desafiada aquí. Específicamente, “Openai ejerció un cuidado razonable en el diseño y la liberación de Chatgpt basado en ambos (1) los esfuerzos líderes en la industria OpenAi emprendió para maximizar la alineación de la producción de ChatGPT a la intención del usuario y, por lo tanto, reducen la probabilidad de alucinamiento; y (2), proporcionando a las advertencias recurrentes a los usuarios sobre la posibilidad de alucinaciones en la producción de Chatgpt. ChatGPT y los diversos LLM que OpenAI ha puesto a disposición de los usuarios a través de ChatGPT. Operai también ha tomado medidas extensas para advertir a los usuarios que ChatGPT puede generar resultados inexactos a veces, lo que niega aún más cualquier posibilidad de que Walters pueda mostrar OpenAi fue negligente …

Ante esta evidencia indiscutible, el abogado de Walters afirmó el argumento oral de que OpenAi era negligente porque “un hombre prudente se encargaría de no desatar un sistema en el público que forme declaraciones falsas aleatorias sobre los demás … En otras palabras, el abogado de Walters argumentó que debido a que ChatGPT es capaz de producir una producción errónea, OpenAi tuvo la culpa simplemente al operar ChatGpt en absoluto, sin tener en cuenta los procedimientos de un editor razonable en [OpenAl’s] el puesto habría empleado “o a la” habilidad y experiencia normalmente ejercida por miembros de [its] profesión. “El tribunal no es persuadido por el argumento del demandante.

Walters no ha identificado ningún caso que tenga en cuenta que un editor es negligente como una cuestión de ley de difamación simplemente porque sabe que puede cometer un error y por una buena razón. Tal regla impondría un estándar de responsabilidad estricta, no negligencia, porque sería responsable de OpenAi por lesiones sin ninguna “referencia a” un grado razonable de habilidad y cuidado “medido contra una determinada comunidad”. La Corte Suprema de los Estados Unidos y la Corte Suprema de Georgia han sostenido claramente que un demandante de difamación debe demostrar que el acusado actuó con “al menos negligencia ordinaria” y puede no responsabilizar a un acusado “sin culpa”. …

[2.b.] El tribunal también concluyó que Walters era una figura pública y, por lo tanto, tuvo que mostrar no solo negligencia, sino también Falsidad Conocer o imprudente por parte de OpenAi (llamada “malicia real”):

Walters califica como una figura pública dada su prominencia como presentador de radio y comentarista sobre los derechos constitucionales, y la gran audiencia que ha construido para su programa de radio. Admite que su programa de radio atrae a 1,2 millones de usuarios por cada segmento de 15 minutos y se llama a sí mismo ” la voz más fuerte en Estados Unidos que lucha por los derechos de las armas “. Como el demandante en Williams v. Trust Company of Georgia (Ga. App.), Walters es una figura pública porque ha “recibido publicidad generalizada por sus derechos civiles … actividades”, tiene “su propio programa de radio”, ” llevó su causa a la gente a pedir el apoyo del público “, y es” franco sobre asignaturas de interés público “. Además, Walters califica como una figura pública porque tiene” una oportunidad más real para contrarrestar falsas declaraciones falsas que las personas privadas que normalmente disfrutan de las personas que normalmente se disfrutan de la radio de radio con una gran audiencia con una gran audiencia de radio con una gran audiencia con un audiencia de radio. Las declaraciones de chatgpt falsas en cuestión aquí … [And] Como mínimo, Walters califica como una figura pública de propósito limitado aquí porque estas declaraciones son claramente “pertinentes” a la “participación” admitida de Walters en los “controversos públicos[ies]”que están relacionados con la salida de chatgpt en cuestión aquí …

Los dos argumentos de Walters de que ha demostrado malicia real. Primero, argumenta que Operai actuó con “malicia real” porque OpenAi dijo a los usuarios que ChatGPT es una “herramienta de investigación”. Pero esta afirmación no se relaciona de ninguna manera con si OpenAi sabía subjetivamente que la producción de ChatGPT desafiada era falsa en el momento en que se publicó, o ignoraba imprudentemente la posibilidad de que pudiera ser falso y lo publicara de todos modos, que es lo que requiere el estándar de “malicia real”. Walters no presenta evidencia de que alguien en OpenAi tuviera forma de saber que la producción que recibió probablemente sería falsa … [The] El estándar de “malicia real” requiere prueba de la “conciencia subjetiva del acusado de la falsedad probable” …

En segundo lugar, Walters parece argumentar que Operai actuó con “malicia real” porque es indiscutible que OpenAi era consciente de que ChatGPT podría cometer errores al proporcionar salida a los usuarios. El mero conocimiento de que un error fue posible Se encuentra muy por debajo de la “evidencia clara y convincente” requerida de que OpenAi en realidad “tenía una conciencia subjetiva de la falsedad probable” cuando ChatGPT publicó la producción cuidada específica en sí …

[3.] Y el tribunal concluyó que en cualquier caso Walters tuvo que perder porque (a) no podía mostrar daños reales, (b) No pudo recuperar presuntos daños, porque aquí la evidencia refuta cualquier presunción de daño, dado que Riehl era la única persona que vio la declaración y no lo creyó, y (c) bajo la ley de Georgia “,”.[A]LL Libel Demandantes que tienen la intención de buscar daños punitivos [must] Solicite una corrección o retracción antes de presentar su acción civil contra cualquier persona para publicar una declaración falsa y difamatoria “, y no se hizo dicha solicitud aquí.

Una decisión interesante, y bien podría ser correcta (ver mi Modelos de difamación grandes Artículo para la imagen legal más grande), pero está vinculado estrechamente a sus hechos: en otro caso, donde el usuario no tenía tantas señales de que la afirmación sea falsa, o cuando el usuario distribuyó más ampliamente el mensaje (que puede haber producido más daños), o cuando el demandante no fue una cifra pública, o cuando el demandante había alertado al demandante del demandante y aún no lo hizo a la demandante que no lo hizo, el resultado, el resultado. Para comparar, consulte el Starbuck v. Meta Platforms, Inc. Caso discutido en esta publicación de hace tres semanas.

Tenga en cuenta que, como es común en los tribunales de algunos estados, la decisión adopta en gran medida una orden propuesta presentada por la parte que prevaleció sobre la moción de juicio sumario. Por supuesto, el juez ha aprobado la orden y está de acuerdo con lo que dice (ya que podría haber editado fácilmente partes con las que no estaba de acuerdo); Pero el encuadre retórico en tales casos a menudo es más el de la parte prevaleciente que la del juez.

Operai está representado por Stephen T. Labriola y Ethan M. Knott (Fellows Labriola LLP); Ted Botrous, Orin Snyder y Connor S. Sullivan (Gibson, Dunn & Crutcher LLP); y Matthew MacDonald (Wilson Sonsini Goodrich y Rosati, PC).

Continue Reading

Noticias

New Android 16, Gemini AI y todo lo demás que esperar en la nota clave del martes

Published

on

Google I/O, la conferencia anual de desarrolladores del gigante de la búsqueda, comienza el martes 20 de mayo. El evento es posiblemente el más importante en el calendario anual de la compañía, ofreciendo la oportunidad para que la compañía comparta un vistazo a todo lo que ha estado trabajando durante el año pasado, y contextualiza sus mayores prioridades durante los próximos doce meses.

Aparentemente, la tarjeta de baile para Google estaba tan llena que la compañía salió de un escaparate de Android dedicado una semana antes. (Vea todo lo que se anunció en el Show de Android o vaya a nuestro Blog LiveBlog para tener una idea de cómo se desarrollaron las cosas). Con ese evento ahora detrás de nosotros, Google puede mantenerse enfocado en su competencia central más importante: la IA.

La presentación de Google vendrá inmediatamente después de los anuncios de tres grandes rivales en los últimos días. Además de la costa del Pacífico, Microsoft está organizando su Conferencia de Desarrollador Build, donde ya ha presentado una aplicación de AI de copilotas actualizada. Mientras tanto, en el Show de Computex en Taiwán, el CEO de NVIDIA, Jensen Huang, destacó una asociación con Foxconn para desarrollar una “supercomputadora de fábrica de IA” impulsada por 10,000 chips de IA Blackwell. Y Meta celebró su conferencia debut Llamacon AI el mes pasado, pero los planes del CEO Mark Zuckerberg para el dominio de la inteligencia artificial han llegado a algunos enganches. (Apple compartirá su hoja de ruta AI actualizada el 9 de junio cuando comience su conferencia de desarrolladores de WWDC).

Si desea sintonizar desde casa y seguir mientras Google hace sus anuncios, consulte nuestro artículo sobre cómo ver la nota clave de Google I/O 2025. También estaremos en Live Blogging el evento, por lo que puede venir a Engadget para las últimas noticias.

La presentación presentó al presidente del ecosistema de Android, Sameer Samat, quien se hizo cargo de Burke en 2024. Vimos a Samat y a sus colegas mostrar años, Android no ha tenido mucha atención en la conferencia anual de desarrolladores de Google. Afortunadamente, el show de Android de la semana pasada, el sistema operativo móvil de Google permitió que el centro de atención tome el centro de atención durante al menos un día.

La presentación presentó al presidente del ecosistema de Android, Sameer Samat, quien se hizo cargo de Burke en 2024. Vimos a Samat y sus colegas mostrar el nuevo diseño expresivo del nuevo material 3, y lo que aprendimos confirmó algunas de las características que se filtraron anteriormente, como la barra de “notificaciones continuas”. Material 3 Expressive también está llegando a Wear OS 6, y la compañía está ampliando el alcance de Gemini al llevarlo a su plataforma Smartwatch, Android Auto y Google TV. Android también está ampliando sus características de detección de estafas y un centro de búsqueda refinado que verá soporte para la conectividad satelital más adelante en el año.

Hablando de tiempo, Google ya ha confirmado que el nuevo sistema operativo llegará en algún momento antes de la segunda mitad del año. Aunque hoy no lanzó una construcción estable de Android 16, Samat compartió durante el programa que Android 16 (o al menos parte) llegará el próximo mes a los dispositivos de píxeles. Y aunque la compañía cubrió algunas características nuevas que llegaron a Android XR, el director senior de Android Product y UX Guemmy Kim dijo durante la presentación que “compartiremos más en Android XR en E/S la próxima semana”.

Claramente parece que aún está por venir, y no solo para Android XR. No obtuvimos confirmación en el Autoridad de Android Informe que Google podría agregar un selector de fotos más robusto, con soporte para soluciones de almacenamiento en la nube. Eso no significa que no estará en Android 16, podría ser algo que la compañía no pudiera mencionar en su escaparate de 30 minutos. Además, Google ha estado lanzando nuevas funciones de Android en una cadencia trimestral últimamente, en lugar de esperar hasta una ventana de actualización anual para poner a disposición actualizaciones. Es posible que veamos más a Android 16 a medida que avanza el año.

Uno de los mejores lugares para tener una idea de lo que vendrá en Android 16 está en su versión beta, que ya ha estado disponible para los desarrolladores y actualmente está en su cuarta iteración. Por ejemplo, aprendimos en marzo que Android 16 traerá el soporte de Auracast, lo que podría facilitar la escucha y cambiar entre múltiples dispositivos Bluetooth. Esto también podría permitir a las personas recibir audio Bluetooth en audífonos que han emparejado con sus teléfonos o tabletas.

¿Recuerdas Google Glass? ¿No? ¿Qué tal Daydream? ¿Quizás cartón? Después de enviar (al menos) tres proyectos XR al cementerio, pensaría que incluso Google diría que lo suficiente es suficiente. En cambio, la compañía se está preparando para lanzar Android XR después de una vista previa de la plataforma a fines del año pasado. Esta vez, la compañía dice que el poder de sus modelos Gemini AI hará que las cosas sean diferentes. Sabemos que Google está trabajando con Samsung en un proyecto con nombre en código auricular Moohan. El otoño pasado, Samsung insinuó que el dispositivo podría llegar en algún momento de este año.

Ya sea que Google y Samsung Demo Project Moohan en E/S, imagino que el gigante de la búsqueda tendrá más que decir sobre Android XR y los socios del ecosistema que ha trabajado para llevar a su lado para la iniciativa. Esto está en línea con lo que Kim dijo sobre más sobre Android XR que se comparte en E/S.

Si Google sintió la necesidad de dividir a Android en su propio escaparate, es probable que obtengamos más anuncios relacionados con la IA en E/S que nunca. La compañía no ha proporcionado muchas sugerencias sobre lo que podemos esperar en ese frente, pero si tuviera que adivinar, es probable que las características como las descripciones de IA y el modo AI obtengan actualizaciones sustantivas. Sospecho que Google también tendrá algo que decir sobre Project Mariner, el agente de vigilancia web que se demostró en la E/S 2024. De cualquier manera, Google es una compañía de IA ahora, y cada E/S en el futuro lo reflejará.

Hablando de la IA, Project Astra fue una de las demostraciones más impresionantes que Google mostró en I/O 2024. La tecnología aprovechó al máximo las últimas capacidades multimodales de los modelos Gemini de Google para ofrecer algo que no habíamos visto antes de la compañía. Es un asistente de voz con características avanzadas de reconocimiento de imágenes que le permite conversar sobre las cosas que ve. Google visualiza el proyecto Astra algún día proporciona un asistente artificial verdaderamente útil.

Sin embargo, después de ver una demostración en persona de Astra, el equipo de Engadget sintió que la tecnología necesitaba mucho más trabajo. Dado el proyecto Splash que Astra realizó el año pasado, hay una buena posibilidad de que pudiéramos obtener una actualización sobre él en I/O 2025.

Según un informe de La informaciónGoogle podría estar planeando presentar su propia versión de Pinterest en E/S. Esa caracterización es cortesía deLa información, Pero según las características descritas en el artículo, los miembros del equipo de Engadget lo encontraron más que recuerdan a Cosmos. Cosmos es una versión reducida de Pinterest, que permite que las personas guarden y seleccionen todo lo que vean en Internet. También le permite compartir sus páginas guardadas con otros.

Según los informes, la versión de Google mostrará los resultados de la imagen basados ​​en sus consultas, y puede guardar las imágenes en diferentes carpetas en función de sus propias preferencias. Entonces, digamos que estás organizando un lookbook basado en Jennie de Blackpink. Puede buscar sus atuendos y guardar sus favoritos en una carpeta que puede titular “Lewks”, tal vez.

No está claro si esto está simplemente incorporado en la búsqueda o existe como un producto independiente, y tendremos que esperar hasta que E/S para ver si el informe era preciso y cómo es realmente la característica.

El año pasado, Wear OS no recibió una mención durante la principal nota principal de la compañía, pero Google realizó una vista previa de Wear OS 5 durante las sesiones de desarrolladores que siguieron. La compañía solo comenzó a implementar Wear OS 5.1 a Pixel Devices en marzo. Este año, ya hemos aprendido en el Show de Android que Wear OS 6 se acerca, con el material 3 expresivo en el adorno de su interfaz. ¿Aprenderemos más en I/O? No está claro, pero no sería un shock si eso fuera todo el tiempo de tiempo de aire que OS obtiene este año.

Google ha saltado el arma y ya lanzó una aplicación independiente Notebooklm antes de E/S. La aplicación de toma de notas de aprendizaje automático, disponible en los navegadores de escritorio desde 2023, puede resumir documentos e incluso sintetizar resúmenes de podcast de estilo NPR completo para arrancar.

Google tiene un historial terrible cuando se trata de prevenir fugas dentro de sus rangos internos, por lo que la probabilidad de que la compañía pueda sorprendernos es baja. Aún así, Google podría anunciar algo que no esperamos. Como siempre, su mejor opción es visitar Engadget el 20 y 21 de mayo. Tendremos lo último de Google, junto con nuestro LiveBlog and Analysis.

Actualización, 5 de mayo 2025, 7:08 PM ET: Esta historia se ha actualizado para incluir detalles en una publicación de blog filtrada que discute “Material 3 Expresivo”.

Actualización, 6 de mayo 2025, 5:29 PM ET: Esta historia se ha actualizado para incluir detalles sobre Android 16 Beta, así como el soporte de Auracast.

Actualización, 8 de mayo 2025, 3:20 pm ET: Esta historia se ha actualizado para incluir detalles sobre cómo ver el programa de Android y la nota clave de E/S de Google, así como ajustar la introducción para la frescura.

Actualización, 13 de mayo de 2025, 3:22 PM ET: Esta historia se ha actualizado para incluir todos los anuncios del programa de Android y un nuevo informe de La información Acerca de una posible función de búsqueda de imágenes que debutan en E/S. La introducción también fue editada para reflejar con precisión lo que ha sucedido desde la última vez que se actualizó este artículo.

Actualización, 14 de mayo de 2025, 4:32 PM ET: Esta historia se ha actualizado para incluir detalles sobre otros eventos que ocurren al mismo tiempo que la E/S de Google, incluidas Microsoft Build 2025 y ComputeX 2025.

Actualización, 19 de mayo de 2025, 5:13 PM ET: Las noticias de IA competidores actualizadas de Microsoft, Meta y Nvidia, y los rumores e informes finales contextualizados antes de la E/S.

Si compra algo a través de un enlace en este artículo, podemos ganar comisión.

Continue Reading

Trending