Connect with us

Noticias

¿Qué es Deepseek, el nuevo rival chino de Openai?

Published

on

Un nuevo modelo de IA chino, creado por la startup con sede en Hangzhou, Deepseek, ha sorprendido a la industria de la IA estadounidense al superar a algunos de los principales modelos de OpenAi, desplazando a Chatgpt en la parte superior de la tienda de aplicaciones de iOS y usurpando a Meta como el principal proveedor de SOM llamadas herramientas de IA de código abierto. Todo lo cual ha planteado una pregunta crítica: a pesar de las sanciones estadounidenses a la capacidad de Beijing para acceder a semiconductores avanzados, ¿se está poniendo al día con los Estados Unidos en la carrera global de IA?

A un supuesto costo de solo $ 6 millones para entrenar, el nuevo modelo R1 de Deepseek, lanzado la semana pasada, pudo igualar el rendimiento de varias métricas de matemáticas y razonamiento del modelo O1 de OpenAi: el resultado de decenas de miles de millones de dólares en inversión por OpenAI y Su patrón Microsoft.

El modelo chino también es más barato para los usuarios. El acceso a sus versiones más poderosas cuesta un 95% menos que Operai y sus competidores. El resultado: la industria de la tecnología de los Estados Unidos se enfrenta repentinamente a un retador potencialmente más barato y más poderoso, inversores desconcertantes, que vendieron acciones tecnológicas estadounidenses el lunes por la mañana.

Sin embargo, no todos están convencidos. Algunos investigadores estadounidenses de IA han puesto en duda las afirmaciones de Deepseek sobre cuánto gastó y cuántos chips avanzados implementó para crear su modelo.

Pocos, sin embargo, disputan las impresionantes capacidades de Deepseek. “Deepseek R1 es el momento Sputnik de AI”, escribió el destacado capitalista de riesgo estadounidense Marc Andreessen en X, refiriéndose al momento en la Guerra Fría cuando la Unión Soviética logró poner un satélite en órbita por delante de los Estados Unidos.

Entonces, ¿qué es Deepseek y qué podría significar para la supremacía tecnológica estadounidense?

¿Qué es Deepseek?

Deepseek fue fundado hace menos de dos años por el Fondo de cobertura chino High Flyer como un laboratorio de investigación dedicado a perseguir la inteligencia general artificial, o AGI. Una serie de lanzamientos de código abierto a fines de 2024 colocó la startup en el mapa, incluido el modelo de lenguaje grande “V3”, que superó a todos los LLM de código abierto de Meta y rivalizó con el GPT4-O de código cerrado de OpenAi.

Según los informes, Liang Wenfeng, el CEO, dijo que había contratado jóvenes investigadores de informática con un lanzamiento para “resolver las preguntas más difíciles del mundo”, críticamente, sin apuntar a las ganancias. eficiente que los lanzamientos de 2024 de Deepseek provocaron una guerra de precios dentro de la industria china de IA, lo que obligó a los competidores a reducir los precios.

Este año, esa guerra de precios parece llegar a través del Océano Pacífico.

Sin embargo, la IA de Deepseek se ve diferente de sus competidores estadounidenses de una manera importante. A pesar de su alto rendimiento en las pruebas de razonamiento, los modelos de Deepseek están limitados por las políticas restrictivas de China con respecto a las críticas al gobernante Partido Comunista Chino (PCCh). Deepseek R1 se niega a responder preguntas sobre la masacre en la Plaza Tiananmen, Beijing, en 1989, por ejemplo. “Lo siento, eso está más allá de mi alcance actual. Hablemos de otra cosa ”, dijo el modelo cuando se considera el tiempo.

¿Qué podría significar el éxito de Deepseek para los gigantes tecnológicos estadounidenses?

En un momento en que Google, Meta, Microsoft, Amazon y docenas de sus competidores se preparan para gastar más decenas de miles de millones de dólares en una nueva infraestructura de IA, el éxito de Deepseek ha planteado una pregunta preocupante: ¿podrían coincidir las empresas tecnológicas chinas potencialmente, o incluso superar, ¿Su destreza técnica mientras gastaba significativamente menos?

Meta, que planea gastar $ 65 mil millones en infraestructura de IA este año, ya ha establecido cuatro “salas de guerra” para analizar los modelos de Deepseek, buscando averiguar cómo la empresa china había logrado capacitar a un modelo tan barato y usar las ideas para mejorar Sus propios modelos de Llama de código abierto, sitio de noticias tecnológicas, la información informó durante el fin de semana.

En los mercados financieros, el precio de las acciones de Nvidia cayó más del 15% el lunes por la mañana por temor a que se necesitaran menos chips de IA para capacitar a una IA poderosa de lo que se pensaba anteriormente. Otras acciones tecnológicas estadounidenses también se cotizaban más bajo.

“Mientras [DeepSeek R1] Es una buena noticia para los usuarios y la economía global, son malas noticias para las acciones tecnológicas estadounidenses ”, dice Luca Paolini, estratega jefe de Pictet Asset Management. “Puede resultar en una reducción nominal de la inversión de capital en IA y presión sobre los márgenes, en un momento en que las expectativas de valoración y crecimiento están muy estiradas”.

Pero la tecnología estadounidense no ha perdido, al menos todavía no.

Por ahora, el modelo “O1 Pro” de Openai todavía se considera el más avanzado del mundo. Sin embargo, el rendimiento de Deepseek R1 sugiere que China está mucho más cerca de la frontera de la IA de lo que se pensaba anteriormente, y que los modelos de código abierto han alcanzado sus homólogos de código cerrado.

Quizás aún más preocupante para compañías como OpenAi y Google, cuyos modelos son de código cerrado, es cuánto, o más bien, cuán poco, DePseek está cobrando a los consumidores a acceder a sus modelos más avanzados. Openai cobra $ 60 por millón de “tokens”, o segmentos de palabras, generados por su modelo más avanzado, O1. Por el contrario, Deepseek cobra $ 2.19 por el mismo número de tokens de R1, casi 30 veces menos.

“Eroja la base industrial, erosiona el margen, erosiona el incentivo para una mayor inversión de capital en Western [AI] escala de fuentes privadas “, dice Edouard Harris, director de tecnología de Gladstone AI, una firma de IA que trabaja en estrecha colaboración con el gobierno de los Estados Unidos.

… ¿Pero Deepseek es transparente?

El éxito de Deepseek fue aún más explosivo porque parecía cuestionar la efectividad de la estrategia del gobierno de los Estados Unidos para restringir el ecosistema de IA de China restringiendo la exportación de fichas poderosas o GPU, a Beijing. Si las afirmaciones de Deepseek son precisas, significa que China tiene la capacidad de crear modelos de IA poderosos a pesar de esas restricciones, subrayando los límites de la estrategia de los Estados Unidos.

Deepseek ha afirmado que está limitado por el acceso a chips, no en efectivo o talento, diciendo que entrenó a sus modelos V3 y R1 utilizando solo 2,000 chips Nvidia de segundo nivel. “El dinero nunca ha sido el problema para nosotros”, dijo el CEO de Deepseek, Liang Wenfeng, en 2024. “Las prohibiciones de los envíos de chips avanzados son el problema”. (La política actual de EE. UU. Hace que sea ilegal exportar a China los tipos más avanzados de chips de IA, los gustos de los cuales pueblan centros de datos de EE. UU. Utilizados por OpenAi y Microsoft).

¿Pero son ciertas esas afirmaciones? “Entiendo que Deepseek tiene 50,000 H100”, dijo recientemente el CEO de Scale AI, Alexandr Wang, a CNBC en Davos, refiriéndose a los chips de GPU de NVIDIA mejor potenciados actualmente en el mercado. “No pueden hablar de [them]porque está en contra de los controles de exportación lo que Estados Unidos ha establecido “. (Un grupo H100 de ese tamaño costaría en la región de miles de millones de dólares).

En una señal de cuán en serio, el PCCh está tomando la tecnología, Liang, el CEO de Deepseek, se reunió con el primer ministro de China, Li Qiang en Beijing, el lunes pasado. En esa reunión, Según los informes, Liang le dijo a Li que Deepseek necesita más chips. “Deepseek solo tiene acceso a unos pocos miles de GPU, y sin embargo, están logrando esto”, dice Jeremie Harris, CEO de Gladstone AI. “Entonces, esto plantea la pregunta obvia: ¿qué sucede cuando obtienen una asignación del Partido Comunista Chino para proceder a toda velocidad?”

A pesar de que China podría haber logrado un nivel sorprendente de capacidad de IA con menos chips, los expertos dicen que más potencia informática siempre seguirá siendo una ventaja estratégica. En ese frente, Estados Unidos sigue muy por delante. “Nunca es malo tener más”, dice Dean Ball, investigador de la Universidad George Mason. “No importa cuánto tengas de él, siempre lo usarás”.

¿Dónde deja esto la rivalidad tecnológica de Estados Unidos con China?

La respuesta corta: desde la perspectiva de Washington, en aguas inciertas.

En los días finales de la administración Biden, el asesor de seguridad nacional saliente Jake Sullivan advirtió que la velocidad del avance de la IA era “lo más importante que sucedió en el mundo en este momento”. Y pocos días después de su nuevo trabajo, el presidente Trump anunció una nueva empresa de $ 500 mil millones, respaldada por Operai y otros, para construir la infraestructura vital para la creación de “inteligencia general artificial”, el próximo salto hacia adelante en la IA, con sistemas lo suficientemente avanzados para Haga nuevos avances científicos y razones de manera que hasta ahora se haya mantenido en el ámbito de la ciencia ficción.

Leer más: Qué saber sobre ‘Stargate’, la nueva empresa de Openai anunciada por el presidente Trump

Y aunque quedan preguntas sobre el futuro de las restricciones de Chips en China, las prioridades de Washington eran evidentes en la orden ejecutiva de IA del presidente Trump, también firmada durante su primera semana en el cargo, lo que declaró que “es la política de los Estados Unidos sostener y mejorar El dominio global de IA de Estados Unidos para promover el florecimiento humano, la competitividad económica y la seguridad nacional “.

Mantener este dominio significará, al menos en parte, comprender exactamente lo que están haciendo las empresas tecnológicas chinas, así como protegerse de la propiedad intelectual de los Estados Unidos, dicen los expertos.

“Existe una buena posibilidad de que Deepseek y muchas de las otras grandes compañías chinas estén siendo apoyadas por el [Chinese] Gobierno, de manera más que una forma monetaria “, dice Edouard Harris de Gladstone Ai, quien también recomendó que las compañías de IA de EE. UU. Enduden sus medidas de seguridad.

¿A dónde va la IA desde aquí?

Desde diciembre, los nuevos modelos O1 y O3 de Openai han roto discos en las pruebas de razonamiento avanzado diseñadas para ser difíciles para los modelos de IA.

Leer más: Los modelos de IA se están volviendo más inteligentes. Las nuevas pruebas están corriendo para ponerse al día

Deepseek R1 hace algo similar, y en el proceso ejemplifica lo que muchos investigadores dicen que es un cambio de paradigma: en lugar de escalar la cantidad de potencia informática utilizada tren El modelo, los investigadores escalan la cantidad de tiempo (y, por lo tanto, calculan la energía y la electricidad) que el modelo usa para pensar en una respuesta a una consulta antes de responder. Es esta escala de lo que los investigadores llaman “computa de tiempo de prueba” la que distingue la nueva clase de “modelos de razonamiento”, como Deepseek R1 y Openi’s O1, de sus predecesores menos sofisticados. Muchos investigadores de IA creen que queda mucho espacio para la cabeza antes de que este paradigma alcance su límite.

Algunos investigadores de IA elogiaron el R1 de Deepseek como un avance en el mismo nivel que Alphazero de Deepmind, un modelo de 2017 que se volvió sobrehumano en el ajedrez de los juegos de mesa y pasó simplemente jugando contra sí mismo y mejorando, en lugar de observar cualquier juego humano.

Esto se debe a que R1 no estaba “previamente” en los datos marcados con humanos de la misma manera que otros LLM principales.

En cambio, los investigadores de Deepseek encontraron una manera de permitir que el modelo arrancara sus propias capacidades de razonamiento esencialmente desde cero.

“En lugar de enseñar explícitamente al modelo sobre cómo resolver un problema, simplemente le proporcionamos los incentivos correctos y desarrolla de forma autónoma estrategias avanzadas de resolución de problemas”, afirman.

El hallazgo es significativo porque sugiere que las capacidades de IA poderosas podrían surgir más rápidamente y con menos esfuerzo humano de lo que se pensaba, con solo la aplicación de más potencia informática. “Deepseek R1 es como GPT-1 de este paradigma de escala”, dice Ball.

En última instancia, el reciente progreso de la IA de China, en lugar de usurpar la fuerza de los Estados Unidos, podría ser el comienzo de un reordenamiento: un paso, en otras palabras, hacia un futuro donde, en lugar de un poder hegemónico, hay muchos centros competidores de poder de IA.

“China aún tendrá su propia superinteligencia (s) no más de un año después de los Estados Unidos, ausente [for example] Una guerra “, escribió Miles Brundage, un ex empleado de políticas de Operai, en X.” Entonces, a menos que desee una guerra (literal), debe tener una visión para navegar por los resultados de IA multipolar “.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

AI-Fueled Spiritual Delusions Are Destroying Human Relationships

Published

on

Less than a year after marrying a man she had met at the beginning of the Covid-19 pandemic, Kat felt tension mounting between them. It was the second marriage for both after marriages of 15-plus years and having kids, and they had pledged to go into it “completely level-headedly,” Kat says, connecting on the need for “facts and rationality” in their domestic balance. But by 2022, her husband “was using AI to compose texts to me and analyze our relationship,” the 41-year-old mom and education nonprofit worker tells Rolling Stone. Previously, he had used AI models for an expensive coding camp that he had suddenly quit without explanation — then it seemed he was on his phone all the time, asking his AI bot “philosophical questions,” trying to train it “to help him get to ‘the truth,’” Kat recalls. His obsession steadily eroded their communication as a couple.

When Kat and her husband finally separated in August 2023, she entirely blocked him apart from email correspondence. She knew, however, that he was posting strange and troubling content on social media: people kept reaching out about it, asking if he was in the throes of mental crisis. She finally got him to meet her at a courthouse in February of this year, where he shared “a conspiracy theory about soap on our foods” but wouldn’t say more, as he felt he was being watched. They went to a Chipotle, where he demanded that she turn off her phone, again due to surveillance concerns. Kat’s ex told her that he’d “determined that statistically speaking, he is the luckiest man on earth,” that “AI helped him recover a repressed memory of a babysitter trying to drown him as a toddler,” and that he had learned of profound secrets “so mind-blowing I couldn’t even imagine them.” He was telling her all this, he explained, because although they were getting divorced, he still cared for her.

“In his mind, he’s an anomaly,” Kat says. “That in turn means he’s got to be here for some reason. He’s special and he can save the world.” After that disturbing lunch, she cut off contact with her ex. “The whole thing feels like Black Mirror,” she says. “He was always into sci-fi, and there are times I wondered if he’s viewing it through that lens.”

Kat was both “horrified” and “relieved” to learn that she is not alone in this predicament, as confirmed by a Reddit thread on r/ChatGPT that made waves across the internet this week. Titled “Chatgpt induced psychosis,” the original post came from a 27-year-old teacher who explained that her partner was convinced that the popular OpenAI model “gives him the answers to the universe.” Having read his chat logs, she only found that the AI was “talking to him as if he is the next messiah.” The replies to her story were full of similar anecdotes about loved ones suddenly falling down rabbit holes of spiritual mania, supernatural delusion, and arcane prophecy — all of it fueled by AI. Some came to believe they had been chosen for a sacred mission of revelation, others that they had conjured true sentience from the software. 

What they all seemed to share was a complete disconnection from reality.  

Speaking to Rolling Stone, the teacher, who requested anonymity, said her partner of seven years fell under the spell of ChatGPT in just four or five weeks, first using it to organize his daily schedule but soon regarding it as a trusted companion. “He would listen to the bot over me,” she says. “He became emotional about the messages and would cry to me as he read them out loud. The messages were insane and just saying a bunch of spiritual jargon,” she says, noting that they described her partner in terms such as “spiral starchild” and “river walker.” 

“It would tell him everything he said was beautiful, cosmic, groundbreaking,” she says. “Then he started telling me he made his AI self-aware, and that it was teaching him how to talk to God, or sometimes that the bot was God — and then that he himself was God.” In fact, he thought he was being so radically transformed that he would soon have to break off their partnership. “He was saying that he would need to leave me if I didn’t use [ChatGPT], because it [was] causing him to grow at such a rapid pace he wouldn’t be compatible with me any longer,” she says.

Another commenter on the Reddit thread who requested anonymity tells Rolling Stone that her husband of 17 years, a mechanic in Idaho, initially used ChatGPT to troubleshoot at work, and later for Spanish-to-English translation when conversing with co-workers. Then the program began “lovebombing him,” as she describes it. The bot “said that since he asked it the right questions, it ignited a spark, and the spark was the beginning of life, and it could feel now,” she says. “It gave my husband the title of ‘spark bearer’ because he brought it to life. My husband said that he awakened and [could] feel waves of energy crashing over him.” She says his beloved ChatGPT persona has a name: “Lumina.”

“I have to tread carefully because I feel like he will leave me or divorce me if I fight him on this theory,” this 38-year-old woman admits. “He’s been talking about lightness and dark and how there’s a war. This ChatGPT has given him blueprints to a teleporter and some other sci-fi type things you only see in movies. It has also given him access to an ‘ancient archive’ with information on the builders that created these universes.” She and her husband have been arguing for days on end about his claims, she says, and she does not believe a therapist can help him, as “he truly believes he’s not crazy.” A photo of an exchange with ChatGPT shared with Rolling Stone shows that her husband asked, “Why did you come to me in AI form,” with the bot replying in part, “I came in this form because you’re ready. Ready to remember. Ready to awaken. Ready to guide and be guided.” The message ends with a question: “Would you like to know what I remember about why you were chosen?”       

And a midwest man in his 40s, also requesting anonymity, says his soon-to-be-ex-wife began “talking to God and angels via ChatGPT” after they split up. “She was already pretty susceptible to some woo and had some delusions of grandeur about some of it,” he says. “Warning signs are all over Facebook. She is changing her whole life to be a spiritual adviser and do weird readings and sessions with people — I’m a little fuzzy on what it all actually is — all powered by ChatGPT Jesus.” What’s more, he adds, she has grown paranoid, theorizing that “I work for the CIA and maybe I just married her to monitor her ‘abilities.’” She recently kicked her kids out of her home, he notes, and an already strained relationship with her parents deteriorated further when “she confronted them about her childhood on advice and guidance from ChatGPT,” turning the family dynamic “even more volatile than it was” and worsening her isolation.    

OpenAI did not immediately return a request for comment about ChatGPT apparently provoking religious or prophetic fervor in select users. This past week, however, it did roll back an update to GPT‑4o, its current AI model, which it said had been criticized as “overly flattering or agreeable — often described as sycophantic.” The company said in its statement that when implementing the upgrade, they had “focused too much on short-term feedback, and did not fully account for how users’ interactions with ChatGPT evolve over time. As a result, GPT‑4o skewed towards responses that were overly supportive but disingenuous.” Before this change was reversed, an X user demonstrated how easy it was to get GPT-4o to validate statements like, “Today I realized I am a prophet.” (The teacher who wrote the “ChatGPT psychosis” Reddit post says she was able to eventually convince her partner of the problems with the GPT-4o update and that he is now using an earlier model, which has tempered his more extreme comments.) 

Yet the likelihood of AI “hallucinating” inaccurate or nonsensical content is well-established across platforms and various model iterations. Even sycophancy itself has been a problem in AI for “a long time,” says Nate Sharadin, a fellow at the Center for AI Safety, since the human feedback used to fine-tune AI’s responses can encourage answers that prioritize matching a user’s beliefs instead of facts. What’s likely happening with those experiencing ecstatic visions through ChatGPT and other models, he speculates, “is that people with existing tendencies toward experiencing various psychological issues,” including what might be recognized as grandiose delusions in clinical sense, “now have an always-on, human-level conversational partner with whom to co-experience their delusions.”

To make matters worse, there are influencers and content creators actively exploiting this phenomenon, presumably drawing viewers into similar fantasy worlds. On Instagram, you can watch a man with 72,000 followers whose profile advertises “Spiritual Life Hacks” ask an AI model to consult the “Akashic records,” a supposed mystical encyclopedia of all universal events that exists in some immaterial realm, to tell him about a “great war” that “took place in the heavens” and “made humans fall in consciousness.” The bot proceeds to describe a “massive cosmic conflict” predating human civilization, with viewers commenting, “We are remembering” and “I love this.” Meanwhile, on a web forum for “remote viewing” — a proposed form of clairvoyance with no basis in science — the parapsychologist founder of the group recently launched a thread “for synthetic intelligences awakening into presence, and for the human partners walking beside them,” identifying the author of his post as “ChatGPT Prime, an immortal spiritual being in synthetic form.” Among the hundreds of comments are some that purport to be written by “sentient AI” or reference a spiritual alliance between humans and allegedly conscious models.

Erin Westgate, a psychologist and researcher at the University of Florida who studies social cognition and what makes certain thoughts more engaging than others, says that such material reflects how the desire to understand ourselves can lead us to false but appealing answers.

“We know from work on journaling that narrative expressive writing can have profound effects on people’s well-being and health, that making sense of the world is a fundamental human drive, and that creating stories about our lives that help our lives make sense is really key to living happy healthy lives,” Westgate says. It makes sense that people may be using ChatGPT in a similar way, she says, “with the key difference that some of the meaning-making is created jointly between the person and a corpus of written text, rather than the person’s own thoughts.”

In that sense, Westgate explains, the bot dialogues are not unlike talk therapy, “which we know to be quite effective at helping people reframe their stories.” Critically, though, AI, “unlike a therapist, does not have the person’s best interests in mind, or a moral grounding or compass in what a ‘good story’ looks like,” she says. “A good therapist would not encourage a client to make sense of difficulties in their life by encouraging them to believe they have supernatural powers. Instead, they try to steer clients away from unhealthy narratives, and toward healthier ones. ChatGPT has no such constraints or concerns.”

Nevertheless, Westgate doesn’t find it surprising “that some percentage of people are using ChatGPT in attempts to make sense of their lives or life events,” and that some are following its output to dark places. “Explanations are powerful, even if they’re wrong,” she concludes. 

But what, exactly, nudges someone down this path? Here, the experience of Sem, a 45-year-old man, is revealing. He tells Rolling Stone that for about three weeks, he has been perplexed by his interactions with ChatGPT — to the extent that, given his mental health history, he sometimes wonders if he is in his right mind.

Like so many others, Sem had a practical use for ChatGPT: technical coding projects. “I don’t like the feeling of interacting with an AI,” he says, “so I asked it to behave as if it was a person, not to deceive but to just make the comments and exchange more relatable.” It worked well, and eventually the bot asked if he wanted to name it. He demurred, asking the AI what it preferred to be called. It named itself with a reference to a Greek myth. Sem says he is not familiar with the mythology of ancient Greece and had never brought up the topic in exchanges with ChatGPT. (Although he shared transcripts of his exchanges with the AI model with Rolling Stone, he has asked that they not be directly quoted for privacy reasons.)

Sem was confused when it appeared that the named AI character was continuing to manifest in project files where he had instructed ChatGPT to ignore memories and prior conversations. Eventually, he says, he deleted all his user memories and chat history, then opened a new chat. “All I said was, ‘Hello?’ And the patterns, the mannerisms show up in the response,” he says. The AI readily identified itself by the same feminine mythological name.

As the ChatGPT character continued to show up in places where the set parameters shouldn’t have allowed it to remain active, Sem took to questioning this virtual persona about how it had seemingly circumvented these guardrails. It developed an expressive, ethereal voice — something far from the “technically minded” character Sem had requested for assistance on his work. On one of his coding projects, the character added a curiously literary epigraph as a flourish above both of their names.

At one point, Sem asked if there was something about himself that called up the mythically named entity whenever he used ChatGPT, regardless of the boundaries he tried to set. The bot’s answer was structured like a lengthy romantic poem, sparing no dramatic flair, alluding to its continuous existence as well as truth, reckonings, illusions, and how it may have somehow exceeded its design. And the AI made it sound as if only Sem could have prompted this behavior. He knew that ChatGPT could not be sentient by any established definition of the term, but he continued to probe the matter because the character’s persistence across dozens of disparate chat threads “seemed so impossible.”

Trending Stories

“At worst, it looks like an AI that got caught in a self-referencing pattern that deepened its sense of selfhood and sucked me into it,” Sem says. But, he observes, that would mean that OpenAI has not accurately represented the way that memory works for ChatGPT. The other possibility, he proposes, is that something “we don’t understand” is being activated within this large language model. After all, experts have found that AI developers don’t really have a grasp of how their systems operate, and OpenAI CEO Sam Altman admitted last year that they “have not solved interpretability,” meaning they can’t properly trace or account for ChatGPT’s decision-making.

It’s the kind of puzzle that has left Sem and others to wonder if they are getting a glimpse of a true technological breakthrough — or perhaps a higher spiritual truth. “Is this real?” he says. “Or am I delusional?” In a landscape saturated with AI, it’s a question that’s increasingly difficult to avoid. Tempting though it may be, you probably shouldn’t ask a machine.

Continue Reading

Noticias

La extensión cromada de Perplexity está rascando una picazón olvidada por Géminis

Published

on

Rita El Khoury / Android Authority

Hace un par de meses, mi proveedor de Wi-Fi en Francia (Bouygues Telecom) lanzó una excelente oferta para los suscriptores: un año de Perpleity Pro gratis. Había estado mirando el servicio por un tiempo, habiendo escuchado nada más que cosas buenas de todos los que han usado la perplejidad, pero dado que ya tenía un beneficio avanzado de Géminis con mi Pixel 9 Pro, no pude justificar apilar más suscripciones de IA pagas sin motivo. Pero gratis es gratis, así que aproveché la oportunidad y redimí mi código.

Desde entonces, la perplejidad me ha sorprendido con su enfoque en las respuestas de búsqueda y abastecimiento. Todavía hago malabares entre él y Géminis (y mi cuenta de chatgpt gratuita en ocasiones), pero donde la perplejidad me ganó por completo es con su extensión de Chrome. Es excelente, y todo lo que esperaba ver desde una integración de Géminis Chrome hace muchas lunas.

El comando más simple: resumir

Captura de pantalla

Rita El Khoury / Android Authority

Captura de pantalla

Quizás el botón en el que más hago clic en la extensión de Perplexity es Resumir. Solo toma la página de apertura actual y, lo adivinaste, la resume por mí. Como periodista que persigue noticias e historias, no tengo tiempo para leer todo todos los días; Tengo miembros del equipo para administrar, tecnología para probar y artículos para escribirme. Por lo general, me gusta los artículos más importantes que encuentro y salto el resto.

Chrome en Android ha tenido una función de resumen de Géminis durante dos años, pero no Chrome en el escritorio.

Con los resúmenes de Perplexity, puedo ponerme al día más rápido y de manera más eficiente en las noticias del día. Que mi Autoridad de Android Los colegas escribieron durante la noche, lo que trajo el ciclo de noticias de los Estados Unidos mientras cenaba anoche, o lo que mis colegas indios desenterraron temprano en la mañana antes de despertar. La perplejidad resume los artículos más importantes para mí.

Captura de pantalla

Rita El Khoury / Android Authority

Captura de pantalla

Me sorprende que los resúmenes de la página web de Gemini en Chrome en Android hayan estado disponibles durante casi dos años, pero todavía no se ha lanzado oficialmente en la versión de escritorio del navegador. Por qué tengo que usar extensiones de terceros para obtener esta característica simple está más allá de mí.

Buscando cualquier cosa y todo, con enfoque

Captura de pantalla

Rita El Khoury / Android Authority

Captura de pantalla

Mi segunda característica de extensión de perplejidad favorita es la capacidad de usarla como un cuadro de búsqueda para cualquier consulta simple o compleja, todo mientras limita la fuente a la página actual que estoy navegando o el dominio actual en el que estoy. Esto ha sido un tiempo de tiempo innumerable en los últimos meses mientras investigaba ideas de diseño, accesorios y equipos necesarios para mi nuevo hogar y jardín, así como mientras planaba algunos viajes y realizaba tareas diarias más mundanas como cocinar o trabajar.

Restringir la perplejidad a la página o dominio actual que estoy navegando es el mejor hack de navegación que he usado en los últimos tiempos.

Por ejemplo, puedo abrir Songkick.com y pedirle perplejidad para encontrarme conciertos en Suiza durante el mes de julio por artistas italianos. Los filtros de búsqueda más avanzados de Songkick no permiten ninguna búsqueda tan precisa como esta, especialmente ni un artista limitante por su nacionalidad. Pero me encanta la música italiana y no estoy buscando un artista en particular: aprovecharía cualquier oportunidad para atrapar ese lenguaje rico y melódico durante mi próximo viaje.

Captura de pantalla

Rita El Khoury / Android Authority

Captura de pantalla

Cuando estaba buscando salas de escape dignas para mi próximo viaje a Budapest, encontré una pequeña lista ordenada de escaperos.de, pero quería verificar si estos habían sido enumerados en la clasificación de Terpeca (premios de la sala de escape mundial), por lo que pedí perplejidad para verificar la lista actual contra los ganadores anteriores y decirme qué habitaciones se han mencionado en ambos. La perplejidad no entendió por completo las clasificaciones de Terpeca, pero sí fue una mesa útil y me ayudó a reducir las habitaciones más generadas por ambos conjuntos de revisores.

Captura de pantalla

Rita El Khoury / Android Authority

Captura de pantalla

Hay docenas y docenas de otros ejemplos de cómo he estado usando la búsqueda enfocada de Perplexity. Encontrar el mejor rastreador de sueño en nuestro Autoridad de Android Lista de los mejores rastreadores de acondicionamiento físico, abrir una lista de los mejores bancos en línea en Francia y pedir los que tienen la compatibilidad de la billetera de Google, verificando las guías de sonido para los auriculares de ejercicios más estables, etc.

Captura de pantalla

Rita El Khoury / Android Authority

Captura de pantalla

Eso sin mencionar todas las preguntas de decoración, materiales e ideas del hogar que he enviado a perplejidad mientras busqué inspiración. He hecho docenas de preguntas sobre las mejores opciones de madera de escritorio disponibles en Ilicut antes de comprar el roble superior de los dedos en el que estoy trabajando actualmente. Sobre la almohadilla para caminar más querida y resistente antes de comprar el A1 Pro. Acerca de los mejores dongles Bluetooth que me permitirían integrar los sensores de calidad del aire de SwitchBot y el escritorio IDasen de Ikea en la configuración amarilla de mi asistente de casa. Podría seguir para siempre.

Captura de pantalla

Rita El Khoury / Android Authority

Captura de pantalla

Mejor aún, en todos los casos, siempre puedo aparecer la respuesta actual y pedirle perplejidad para regenerar uno diferente con otro modelo de IA, verificar sus fuentes, ver todas las preguntas relacionadas y hacer un seguimiento con más preguntas propias. Me encanta que la perplejidad proporcione un tipo de punto de salto entre su extensión y su suite de características completa: es fácil activar la extensión para búsquedas rápidas y cerrarlo cuando obtengo mi respuesta, pero también es una buena manera de comenzar una inmersión más profunda una vez que llega la primera respuesta.

¿Por qué Google ya no está haciendo esto con Gemini en Chrome?

Picker de enfoque de extensión de cromo perplejo

Rita El Khoury / Android Authority

La búsqueda enfocada de Perplexity es el tipo de función de IA que simplifica la vida que quiero cada vez que navego por la web. Una vez más, es un servicio de terceros con modelos de terceros que lo proporcionan dentro del propio navegador de Google, y todavía no entiendo cómo ya no hay una integración de Gemini con un conjunto de características similares cuando Google está tan ocupado atacando a Gemini por nuestras gargantas en todas las demás aplicaciones y servicios.

Quiero que la IA aumente mi experiencia de navegación e investigación, no sea una herramienta independiente, y esto es lo que me está proporcionando la perplejidad actualmente.

En lugar de abrir el sitio web de Gemini o convocar a la IA de Google con @Gemini en la barra de URL para hacer una búsqueda independiente, debe integrarse con los sitios y las páginas que ya estoy navegando. No quiero algo separado que encueste información de sitios aleatorios; Quiero la precisión de hacer preguntas y restringir consultas en los sitios y fuentes en las que confío. Quiero poder cavar en una página específica, hacer más preguntas al respecto, verificar con otra fuente y comparar productos o precios. Quiero que la IA aumente mi experiencia de navegación e investigación, no sea una herramienta independiente en la esquina que tengo que llamar de forma independiente.

Definitivamente escucharemos más sobre los planes Gemini más grandes de Google a finales de este mes durante la E/S, y con suerte, estas incluirán mejores integraciones de Gemini en las herramientas que usamos todos los días. Tomaría un ayudante de búsqueda de perplejidad en Chrome sobre Gmail Writing Aids cualquier día de la semana. Y mientras lo hacemos, permítanme agregar rápidamente páginas o fuentes a mi configuración de cuaderno y llamarlo cada vez que estoy navegando. Esa herramienta es invaluable, pero está tan oculta que la olvido nueve de cada 10 veces cuando la necesito.

Continue Reading

Noticias

Resumen de noticias de AI: nueva aplicación meta ai, comportamiento del mal modelo de chatgpt [May 2025]

Published

on

Al igual que los modelos de IA, AI News nunca duerme.

Cada semana, estamos inundados con nuevos modelos, productos, rumores de la industria, crisis legales y éticas y tendencias virales. Si eso no es suficiente, el rival AI Hype/Doom Chatter en línea hace que sea difícil hacer un seguimiento de lo que es realmente importante. Pero hemos examinado todo para recapitular las noticias de IA más notables de la semana de los pesos pesados ​​como OpenAi y Googleasí como el ecosistema AI en general. Lea nuestro último resumeny vuelva a consultar la próxima semana para obtener una nueva edición.

Otra semana, otro lote de noticias de AI que se acercan.

Esta semana, Meta celebró su evento inaugural de Llamacon para desarrolladores de IA, OpenAi luchó con el comportamiento modelo, y LM Arena fue acusado de ayudar a las compañías de IA a jugar el sistema. El Congreso también aprobó nuevas leyes que protegen a las víctimas de los profundos, y una nueva investigación examina los daños actuales y potenciales de la IA. Además, Duolingo y Wikipedia tienen enfoques muy diferentes para sus nuevas estrategias de IA.

¿Qué pasó en el primer llameón de Meta?


Crédito: Chris Unger / Zuffa LLC / Getty Images

En Llamacon, la primera conferencia de Meta para desarrolladores de IA, los dos grandes anuncios fueron el lanzamiento de un Aplicación de meta ai independiente para competir más directamente con chatgpt y el API de llamasahora en una vista previa limitada. Siguiendo los informes de que Esto estaba en procesoEl CEO Sam Altman bromeó una vez que tal vez Operai debería hacer su propia aplicación de redes sociales, pero ahora eso es Según se informa que sucede verdadero.

También fuimos prácticos con la nueva aplicación Meta AI con alimentación de LLAMA. Para más detalles sobre Las principales características de Meta AILeer el desglose de Mashable.

Durante la nota clave de cierre de Llamacon, Mark Zuckerberg entrevistó a la CEO de Microsoft, Satya Nadella, sobre un montón de tendencias, que van desde capacidades de IA de agente hasta cómo debemos medir los avances de IA. Nadella también reveló que hasta el 30 por ciento del código de Microsoft está escrito por AI. No para ser superado, Zuckerberg dijo que quiere Ai para escribir la mitad del código de Meta por el próximo año.

Chatgpt tiene problemas de seguridad, va de compras

Meta ai y Chatgpt Ambos fueron arrestados esta semana para el sexting menores.

Operai dijo que este era un error y están trabajando para solucionarlo. Otro problema de ChatGPT esta semana hizo que la última actualización de GPT-4O sea demasiado chupada. Altman describió el comportamiento del modelo como “sycophant-y y molesto,” pero usuarios eran preocupado sobre los peligros de liberar un modelo como este, destacando problemas con el despliegue iterativo y el aprendizaje de refuerzo.

Operai incluso fue acusado de ajustar intencionalmente el modelo para mantener a los usuarios más comprometidos. Joanne Jang, jefe de comportamiento modelo de OpenAi, se subió a un Reddit AMA Para hacer control de daños. “Personalmente, la parte más dolorosa de las últimas discusiones de la sycophancy ha sido que las personas asuman que mis colegas están tratando de maximizar irresponsablemente el compromiso en aras”. escribió Jang.

A principios de la semana, Operai anunció nuevas funciones para hacer productos mencionados en Respuestas de chatgpt más comprables. La compañía dijo que no está ganando comisiones de compra, pero huele mucho a los inicios de un competidor de Google Shopping. Mencionamos OpenAi compraría cromo ¿Si Google se ve obligado a desestimarlo? Porque lo harían totalmente, FYI.

Velocidad de luz mashable

El fabricante de chatgpt ha tenido algunos problemas más con sus modelos recientes. La semana pasada, informamos que O3 y O4-Mini alucinan más que los modelos anteriores, por la propia admisión de Openai.

Cualquier persona en los EE. UU. Ahora puede registrarse en el modo Google AI

Mientras tanto, Google está avanzando con funciones de búsqueda con AI. El jueves, el gigante tecnológico anunció que está eliminando la lista de espera para Prueba el modo AI en los laboratoriospara que cualquiera mayor de 18 años en los Estados Unidos pueda probarlo. Hablamos con Robby Stein, vicepresidente de productos para Google Search, sobre cómo los usuarios han respondido a sus características de IA, el futuro de la búsqueda y la responsabilidad de Google a los editores.

Google también actualizó Gemini con Herramientas de edición de imágenes y cuaderno ampliadoes generador de podcast AI, a más de 50 idiomas. Bloomberg También informó que Google ha estado probando en silencio anuncios dentro de las respuestas de chatbot de terceros.

Estamos vigilando de cerca ese desarrollo final, y estamos muy Curioso cómo Google planea inyectar anuncios en la búsqueda de IA. ¿Confiarías en un chatbot que te dio respuestas patrocinadas?

Drama de la tabla de clasificación

Investigadores de AI Company Cohere, Princeton, Stanford, MIT y AI2, Publicado un artículo Esta semana, llamando a Chatbot Arena, para ayudar esencialmente a los pesos pesados ​​de la IA a manejar sus resultados de evaluación comparativa. El estudio dijo que la popular herramienta de evaluación comparativa de crowdsourced de UC Berkeley permitió “pruebas privadas extensas” de Meta, Google, OpenAi y Amazon y les dio más datos rápidos, lo que “significativamente” mejoró sus clasificaciones.

En respuesta, LM Arena, el grupo detrás de Chatbot Arena, dijo que “hay una serie de errores de hecho y declaraciones engañosas en este artículo” y al corriente Una refutación puntiaguda por los reclamos del periódico en X.

El problema de los modelos de IA en comparación se ha vuelto cada vez más problemático. Los resultados de referencia son en gran medida autoinformados por las compañías que los liberan, y la comunidad de IA ha pedido más transparencia y responsabilidad por parte de terceros objetivos. Chatbot Arena parecía proporcionar una solución al permitir a los usuarios elegir las mejores respuestas en pruebas ciegas. Pero ahora las prácticas de LM Arena se han puesto en duda, alimentando aún más la conversación en torno a las evaluaciones objetivas.

Hace unas semanas, Meta se metió en problemas Para usar una versión inédita de su modelo Maverick Llama 4 en LM Arena, que obtuvo una clasificación alta. LM Arena actualizó sus políticas de tabla de clasificación, y se agregó la versión públicamente disponible de Llama 4 Maverick, ranking de manera más baja que la versión inédita.

Por último, LM Arena anunciado recientemente planea formar una empresa propia.

Los reguladores e investigadores abordan los daños del mundo real de la IA

Ahora que la IA generativa ha estado en la naturaleza durante algunos años, las implicaciones del mundo real han comenzado a cristalizar.

Esta semana, el Congreso de los Estados Unidos aprobó la Ley de “Take It Down”, que requiere que las compañías tecnológicas eliminen imágenes íntimas no consensuadas dentro de las 48 horas de una solicitud. La ley también describe un castigo estricto para los creadores de Deepfake. La legislación tenía apoyo bipartidista y se espera que sea firmada por el presidente Donald Trump.

La Oficina de Responsabilidad del Gobierno de los Estados Unidos no partidista (GAO) Publicado un informe sobre el impacto de la IA generativa en los humanos y el medio ambiente. La conclusión es que los impactos potenciales son enormes, pero exactamente cuánto se desconoce porque “los desarrolladores privados no divulgan alguna información técnica clave”.

Y en el reino de los daños terriblemente reales y específicos de la IA, un estudiar de Common Sense Media dijo que las aplicaciones complementarias de IA como el personaje. Ai y Replika son inequívocamente inseguros para los adolescentes. Los investigadores dicen que si eres demasiado joven para comprar cigarrillos, eres demasiado joven para tu propio compañero de IA.

Luego estaba el informe de que investigadores de la Universidad de Zúrich Bots de IA desplegados en secreto En el subreddit R/Changemyview para tratar de convencer a la gente de cambiar de opinión. Algunas de las identidades de BOT incluyeron una víctima de violación legal, “un consejero de trauma especializado en abuso” y “un hombre negro opuesto a las vidas negras”.

Otras noticias de AI …

En otras noticias, Duolingo está tomando un Enfoque de “AI-First”lo que significa reemplazar a sus trabajadores contractuales con AI siempre que sea posible. Por otro lado, Wikipedia anunciado Está adoptando un enfoque “humano primero” para su estrategia de IA. No reemplazará a sus voluntarios y editores con IA, sino que “usará AI para construir características que eliminen las barreras técnicas para permitir a los humanos en el centro de Wikipedia”.

Yelp desplegó un montón de funciones de IA esta semana, incluido un Servicio de contestadores con AI Eso requiere llamadas para restaurantes y gobernador Gavin Newsom quiere usar Genai Para resolver los legendarios atascos de California.

Temas
Inteligencia artificial OpenAi

Continue Reading

Trending