Connect with us

Noticias

OpenAI’s turbulent early years – Sync #494

Published

on

Hello and welcome to Sync #494!

As part of the court case between Elon Musk and Sam Altman, several emails from the early years of OpenAI have been made public. We will take a look into those emails, and what they reveal about the early days of OpenAI and the growing distrust among its founders.

In other news, Anthropic and xAI raised billions of dollars while a Chinese lab released its reasoning model to challenge OpenAI o1, and Gemini gets memory. Elsewhere in AI, DeepMind releases an AI model to correct errors in quantum computing, a Swiss church installs AI Jesus and how can a small AI control much more capable AI and make sure it does not misbehave.

Over in robotics, we have a fluffy robot from Japan aimed at replacing living pets, how easy it is to jailbreak LLM-powered robots and a South Korean robot dog completes a full marathon.

We’ll wrap up this week’s issue of Sync with a behind-the-scenes tour of the workshop where Wing designs and builds its delivery drones.

Enjoy!

The last two years were quite eventful for OpenAI. Thanks to the massive success of ChatGPT, OpenAI went from a relatively small company to one of the biggest startups in the world, attracting worldwide attention and billions of dollars in funding, propelling its valuation to $157 billion and triggering the AI revolution we are in today.

However, such massive growth never comes easily. Every organisation experiencing significant growth must evolve and transform itself into a new organisation that can deal with new challenges. In the case of OpenAI, some of those growing pains were made publically visible.

Probably the best known of these growing pains occurred a year ago when a group of OpenAI board members briefly removed Sam Altman from his role as CEO. Altman eventually returned to OpenAI, and from then on, we have seen a steady stream of key people leaving the company. Most notable of them were Ilya Sutskever, one of the founders of OpenAI and its long-time chief scientist, and Mira Murati, who served as CTO and briefly as CEO.

As part of the court case between Elon Musk and Sam Altman, several emails from the early years of OpenAI have been made public, revealing the tension within OpenAI has been there since the very beginning of the company. These emails cover the period from 2015, when the idea of an “open” AI lab was first proposed, to 2019, when OpenAI transitioned from a non-profit to a for-profit company. They also complement an earlier batch of communications between Elon Musk, Sam Altman, Greg Brockman, and Ilya Sutskever, released earlier this year by OpenAI.

The emails can be found on the Musk v. Altman court case page. There is also a compilation of all emails on LessWrong which is much easier to read. While reading those emails, it is worth keeping in mind that Musk’s legal team released them so they will be skewed towards portraying him as the one who was betrayed by OpenAI when the company abandoned its original vision of being a non-profit AI research lab.

Before we dive into the emails and what they tell us about OpenAI, let’s remind ourselves what the world looked like when OpenAI was founded.

It is 2015—the height of the deep learning revolution. A year earlier, Google had acquired DeepMind, a London-based AI research company making breakthrough after breakthrough in AI and advancing steadily in deep learning and reinforcement learning research. With the acquisition of DeepMind, Google was poised to lead the charge in AI research. It had the best talent working in its labs, backed by Google’s vast resources—be it computing power, data, or finances. If anyone were to create AGI, there was a big chance it would happen at Google.

That vision of the future, in which AGI has been created and owned by Google, was something Sam Altman did not want to happen. As he wrote in an email to Elon Musk in May 2015:

If it’s going to happen anyway, it seems like it would be good for someone other than Google to do it first.

With the information we have so far, that email is the first time an idea for a non-profit AI lab bringing the best minds in the industry to create advanced AI to benefit all of humanity was proposed. Initially, that company was to be attached to YCombinator and was provisionally named YC AI before eventually being renamed to OpenAI.

Later emails describe how the new company was planning to attract top talent in AI. That’s where Altman mentions that, apparently, DeepMind was trying to “kill” OpenAI by offering massive counteroffers to those who joined the new company.

One thing that comes out from reading those emails is the tension between the founders of OpenAI—Elon Musk, Sam Altman, Ilya Sutskever and Greg Brockman. The best example of those tensions is an email titled “Honest Thoughts,” written by Ilya Sutskever and sent to both Elon Musk and Sam Altman in September 2017. Sutskever’s thoughts were indeed honest. In the email, he openly questioned the motives of both Musk and Altman and their intentions for OpenAI.

Addressing Musk, Sutskever expressed concerns about the possibility of Musk taking control of OpenAI and transforming the AI lab into one of his companies. Sutskever noted that such a scenario would go against the very principles upon which OpenAI was founded.

The goal of OpenAI is to make the future good and to avoid an AGI dictatorship. You are concerned that Demis could create an AGI dictatorship. So do we. So it is a bad idea to create a structure where you could become a dictator if you chose to, especially given that we can create some other structure that avoids this possibility.

Elon did not take that email very well, saying “This is the final straw,” and threatening to leave the company and withdraw his funding, which he officially did six months later.

In the same message, Sutskever also raises concerns about Altman and openly asks what he wants from OpenAI:

We haven’t been able to fully trust your judgements throughout this process, because we don’t understand your cost function.

Following this, Sutskever questions further:

We don’t understand why the CEO title is so important to you. Your stated reasons have changed, and it’s hard to really understand what’s driving it.

Is AGI truly your primary motivation? How does it connect to your political goals? How has your thought process changed over time?

We can see in these questions the seeds of mistrust that will grow over time and eventually culminate in Sutskever leading a group of OpenAI board members to remove Sam Altman from the company in November 2023 over Altman not being “consistently candid.”

Another example of rifts forming between OpenAI founders can be found during the discussions about the future of the company as a non-profit, where Sam Altman is reported to have “lost a lot of trust with Greg and Ilya through this process.”

Another of the topics raised in those emails was the question of funding. Running a cutting-edge AI research lab and hiring top AI talent is expensive. The situation was made worse by the fact that OpenAI was going against Google which could easily outspent OpenAI. In 2017, OpenAI spent $7.9 million—equivalent to a quarter of its functional expenses—on cloud computing alone. By contrast, DeepMind’s total expenses in the same year were $442 million.

The emails reveal discussions about ways to raise additional funds to sustain OpenAI. One idea proposed was an ICO, which emerged in 2018 during one of crypto’s many bubbles. However, the idea was quickly abandoned.

The biggest problem in securing more funding was the non-profit nature of OpenAI. The option that OpenAI eventually took was to become in 2019 a “capped” for-profit, with the profit being capped at 100 times any investment. But there was another option on the table—to bring OpenAI under Tesla.

This option was suggested by Andrej Karpathy in an email titled “Top AI Institutions Today,” dated January 2018. At the time, Karpathy was no longer working at OpenAI and was serving as Tesla’s Director of Artificial Intelligence, reporting directly to Elon Musk. In the email, Karpathy provided an analysis of the AI industry in 2018 and correctly highlighted the massive cost of developing world-class AI. He criticised a for-profit approach, arguing that it would require creating a product, which would divert the focus from AI research. In Karpathy’s view, the only viable path for OpenAI to succeed was to become part of Tesla, with Tesla serving as OpenAI’s “cash cow.”

Elon then forwarded Karpathy’s analysis to Ilya Sutskever and Greg Brockman, adding that:

in my and Andrej’s opinion, Tesla is the only path that could even hope to hold a candle to Google. Even then, the probability of being a counterweight to Google is small. It just isn’t zero

However, Altman, Sutskever and Brockman did not want to become Tesla’s equivalent of DeepMind. Sutskever pointed out in that “Honest Thoughts” email that OpenAI being part of Tesla would conflict with the company’s founding principles. If that were to happen, OpenAI would be answerable to Tesla’s shareholders and obligated to maximize their investments.

A similar distrust of Tesla’s involvement in OpenAI is evident when OpenAI considered the idea of acquiring Cerebras, a startup designing AI chips. In the same “Honest Thoughts” email, Sutskever asserted that the acquisition would most likely be carried out through Tesla and questioned Tesla’s potential involvement, portraying it as another example of Elon Musk attempting to exert greater control over OpenAI.

The released emails end in March 2019, on the same day OpenAI announced the transition from a non-profit to a capped for-profit company. The final communication is between Elon Musk and Sam Altman, with Musk requesting that it be made clear he has no financial interest in OpenAI’s for-profit arm.

A few months later, OpenAI partnered with Microsoft, which invested $1 billion into the AI lab and the long-term partnership between these companies began. In the years that followed, OpenAI shifted its focus to researching transformer models and developing the GPT family of large language models. This journey ultimately culminated in the launch of a small project called ChatGPT—and the rest is history.

OpenAI was founded with the mission of building AGI to benefit all of humanity. However, behind this grand mission lies a story of egos, personalities and different visions of what this mission is really about. After reading those emails, a picture of broken foundations emerges, and the story of clashing visions within the company is still unfolding.

If you enjoy this post, please click the ❤️ button or share it.

Share

Do you like my work? Consider becoming a paying subscriber to support it

Become a paid subscriber

For those who prefer to make a one-off donation, you can ‘buy me a coffee’ via Ko-fi. Every coffee bought is a generous support towards the work put into this newsletter.

Your support, in any form, is deeply appreciated and goes a long way in keeping this newsletter alive and thriving.

A $12,000 Surgery to Change Eye Color Is Surging in Popularity
Keratopigmentation (corneal tattooing) is a cosmetic surgery that permanently changes eye colour by embedding dye into the cornea using a laser. The procedure, which can cost $12,000, has surged in popularity, with one US surgeon reporting growth from 15 to 400 patients annually since 2019. Those who have undergone the procedure say they look better and feel more confident. However, the American Academy of Ophthalmology warns of serious risks, including vision loss, and advises against the procedure for cosmetic purposes.

Neuralink gets approval to start human trials in Canada
Neuralink has received Health Canada’s approval to conduct its first human clinical trials outside the United States. The trials, to be held at Toronto Western Hospital, will test the company’s brain implant technology, which allows people with quadriplegia to control devices using their thoughts. The trials will assess the implant’s safety and functionality, building on earlier patient experiences and addressing issues such as thread retraction. Neuralink is currently recruiting participants with limited hand mobility due to spinal cord injuries or ALS.

Six startups connecting brains with machines

US government commission pushes Manhattan Project-style AI initiative
The US-China Economic and Security Review Commission (USCC) proposed a Manhattan Project-style initiative to develop AGI. The commission emphasized the critical importance of being first in AGI development to maintain a global power balance, particularly in the context of competition with China, with energy infrastructure and streamlined permitting for data centres being cited as key bottlenecks for accelerating AI development. The initiative would involve public-private partnerships, though no specific investment strategies were detailed. OpenAI also called for increased government funding for AI, aligning with the USCC’s focus on public-private collaboration to accelerate AI advancements.

Amazon doubles down on AI startup Anthropic with $4bn investment
Anthropic has announced that Amazon, its long-time backer, is investing another $4 billion into the company, bringing Amazon’s total investments to $8 billion. Amazon will maintain its position as a minority investor and Amazon Web Service (AWS) will become Anthropic’s official cloud provider. Anthropic also said it was working with AWS’s Annapurna Labs on the development of future generations of Amazon’s Trainium chips and plans to train its foundational models on the hardware.

A Chinese lab has released a ‘reasoning’ AI model to rival OpenAI’s o1

Chinese AI lab DeepSeek has released a preview of DeepSeek-R1, designed to rival OpenAI’s o1. Like o1, the model can “think” for tens of seconds to reason through complex questions and tasks. And like o1, it also struggles with certain logic problems, such as tic-tac-toe. Additionally, it can be easily jailbroken, allowing users to bypass its safeguards. DeepSeek claims that DeepSeek-R1 is competitive with OpenAI’s o1-preview on AI benchmarks like AIME (model evaluation) and MATH (word problems).

Elon Musk’s xAI Startup Is Valued at $50 Billion in New Funding Round
xAI has informed investors that it raised $5 billion in a funding round, valuing the company at $50 billion—more than twice its valuation several months ago. In total, xAI has raised $11 billion this year. The company plans to use the new funds in part to finance the purchase of 100,000 additional Nvidia chips to train AI models at its Memphis data centre—the most powerful AI cluster in the world, which Elon Musk has said has plans to double in size.

Google’s Gemini chatbot now has memory
A new “memory” feature has begun rolling out to certain Gemini users. With it, Gemini can now remember facts about the user, their work or their preferences. A similar feature was previously added to ChatGPT which adds more context to the conversation. Gemini memories aren’t used for model training. “Your saved information is never shared or used to train the model,” a Google spokesperson told TechCrunch.

▶️ An Honest Review of Apple Intelligence… So Far (17:48)

In this video, Marques Brownlee reviews every single Apple Intelligence feature that’s out so far—Writing Tools, notification summaries and priority notifications, Genmoji, Image Playground, photo cleanup tool in the Photo app, recording summaries, Visual Intelligence and ChatGPT integration. The results are mixed at most.

Microsoft Signs AI-Learning Deal With News Corp.’s HarperCollins
Bloomberg reports that Microsoft has signed a deal with News Corp.’s HarperCollins to use its nonfiction books to train new AI models. This agreement is another example of AI companies signing content partnerships with publishers. OpenAI has similar licensing deals with News Corp., Axel Springer SE, The Atlantic, Vox Media Inc., Dotdash Meredith Inc., Hearst Communications Inc., and Time magazine. Meanwhile, Microsoft has worked on AI initiatives with Reuters, Hearst, and Axel Springer.

Nvidia earnings: AI chip leader shows no signs of stopping mammoth growth
It seems Nvidia just can’t stop growing. The chip maker reported Q3 revenue of $35.08 billion, exceeding expectations of $33.15 billion. Revenue surged 94% year-over-year, with profits more than doubling. The stock is up nearly 200% in 2023 and over 1,100% in the last two years, hitting record highs and propelling Nvidia to become the world’s most valuable company. Nvidia projected a 70% revenue increase for the next quarter, driven by strong demand for Nvidia’s latest Blackwell GPU chips.

AlphaQubit tackles one of quantum computing’s biggest challenges
AlphaQubit is a new model from Google DeepMind trained to identify errors and improve the reliability of quantum computations. According to the blog post, AlphaQubit achieved greater precision than existing error correction systems. However, AlphaQubit is too slow to correct errors in real-time for superconducting quantum processors, which operate at extremely high speeds. Future improvements will focus on speed, scalability, and data-efficient training for systems with millions of qubits.

Ben Affleck Says Movies ‘Will Be One of the Last Things Replaced by AI,’ and Even That’s Unlikely to Happen: ‘AI Is a Craftsman at Best’
Ben Affleck is confident that “movies will be one of the last things, if everything gets replaced, to be replaced by AI.” Affleck explained in an interview that AI is adept at imitation but lacks originality and the ability to create something truly new, akin to how a craftsman works by replicating techniques rather than innovating. However, he sees the benefits of using AI in filmmaking, suggesting AI could lower costs, reduce barriers to entry, and enable more voices to participate in filmmaking by handling logistical and less creative aspects.

▶️ Using Dangerous AI, But Safely? (30:37)

Robert Miles, one of the top voices in AI safety, explains a paper asking how can we make sure that a powerful AI model is not trying to be malicious. In this case, the researchers proposed and evaluated various safety protocols within a controlled scenario where an untrusted model (GPT-4) generates code, a trusted but less capable model (GPT-3.5) monitors it, and limited high-quality human labour audits suspicious outputs. The goal is to prevent “backdoors” while maintaining the usefulness of the model’s outputs. It is an interesting video to watch as Miles explains different back-and-forth techniques, resulting in a safety protocol that offers a practical path forward. However, as always, more research is needed to tackle real-world tasks, improve oversight, and address the growing gap between trusted and untrusted models.

Deus in machina: Swiss church installs AI-powered Jesus
Peter’s Chapel in Lucerne, Switzerland, launched Deus in Machina, an AI-powered Jesus avatar capable of dialoguing in 100 languages. The AI was first trained on theological texts and designed to respond to questions in real-time and then installed in the confessional booth for people to interact with it. The project aimed to provide a space for religious conversations and gauge public interest in AI-based spiritual tools. During the two-month trial, over 1,000 people, including tourists and non-Christians, interacted with the avatar. Feedback from 230 users showed two-thirds found the experience spiritual and positive, though others criticized it as superficial or repetitive. The project gathered negative feedback from some church members who criticized the use of the confessional booth and the use of AI in a religious context, raising concerns about the risk of the AI providing inappropriate, illegal, or theologically conflicting responses.

AI-Driven Drug Shows Promising Phase IIa Results in Treating Fatal Lung Disease
ISM001-055, a drug for treating idiopathic pulmonary fibrosis, which was developed with the help of generative AI, is showing promising results in a Phase IIa trial. Created by Insilico Medicine, the drug demonstrated improvements in lung function and quality of life over 12 weeks, offering hope for slowing or potentially reversing disease progression. Insilico Medicine plans to advance to a Phase III trial to further validate the drug’s efficacy and safety. Full trial data will be presented at medical conferences and submitted for peer-reviewed publication.

If you’re enjoying the insights and perspectives shared in the Humanity Redefined newsletter, why not spread the word?

Refer a friend

Can a fluffy robot really replace a cat or dog? My weird, emotional week with an AI pet

I first mentioned Moflin, Casio’s pet robot, in Issue #490. It is an interesting project aiming to create a robot companion that can form an emotional bond with its owner. This article recounts the author’s experience with Moflin, beginning with curiosity and slight self-consciousness, which evolved into subtle attachment as they found its sounds, movements, and interactions comforting. Moments of bonding, such as stroking Moflin or having it rest on their chest, highlighted its ability to provide companionship, although it couldn’t fully replicate the connection of a living pet. Moflin reflects Japan’s growing interest in robotic companions, particularly as solutions for an ageing population, and represents a modern take on the global trend of robotic pets like Sony’s Aibo and Paro the robot seal.

It’s Surprisingly Easy to Jailbreak LLM-Driven Robots
A group of scientists found an automated way to hack into LLM-driven robots with 100% success. By bypassing security measures put into those robots, researchers were able to manipulate self-driving systems into colliding with pedestrians and robot dogs into hunting for harmful places to detonate bombs. Their findings raise concerns about the risks posed by LLM-operated robots in real-world settings and highlight the lack of contextual and consequential awareness in LLMs, emphasizing the need for human oversight in sensitive or safety-critical environments.

Robot runs marathon in South Korea, apparently the first time this has happened
South Korean robot Raibo2 has become the first four-legged robot to complete a full marathon. Built by the Korea Advanced Institute of Science and Technology, the robot completed the 42 km (26.2 miles) run in 4 hours, 19 minutes, and 52 seconds on a single battery charge. For comparison, the human winner finished the marathon in 2 hours, 36 minutes, and 32 seconds.

Scientists identify tomato genes to tweak for sweeter fruit
Researchers in China identified two genes that act as “sugar brakes,” limiting sugar production in domesticated tomatoes during ripening. The resulting tomatoes had up to 30% higher sugar content without sacrificing fruit size or yield, balancing the needs of consumers (who prefer sweet tomatoes) with those of producers and farmers (who want high yield and bigger fruits). The gene-edited tomatoes could be available in supermarkets within 3–5 years. Similar gene-edited tomatoes are already on the market in Japan.

▶️ Adam Savage Explores Wing’s Drone Engineering Workshop (26:22)

In this video, Adam Savage visits the workshop and laboratory where Wing, Alphabet’s drone delivery company, designs, builds and tests its delivery drones. Adam learns how these drones were developed, from early prototypes to the machines now delivering packages to real customers. It is fascinating to learn what kind of engineering and problem-solving went into creating a viable delivery drone. Plus it is always a pleasure to see Adam nerding out about exceptional engineering.

Thanks for reading. If you enjoyed this post, please click the ❤️ button or share it.

Share

Humanity Redefined sheds light on the bleeding edge of technology and how advancements in AI, robotics, and biotech can usher in abundance, expand humanity’s horizons, and redefine what it means to be human.

A big thank you to my paid subscribers, to my Patrons: whmr, Florian, dux, Eric, Preppikoma and Andrew, and to everyone who supports my work on Ko-Fi. Thank you for the support!

My DMs are open to all subscribers. Feel free to drop me a message, share feedback, or just say “hi!”

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

¿Qué es chatgpt? Todo lo que necesitas saber sobre el chatbot de la IA

Published

on

ChatGPT es el chatbot de inteligencia artificial que comenzó toda la revolución generativa de IA. Es una herramienta multimodal que puede realizar una variedad de funciones, desde responder preguntas complejas, y simplificar las respuestas para usted, como si tenga 5 años, hasta codificar el software, crear imágenes y videos e incluso participar en conversaciones casuales.

Lanzado en noviembre de 2022 por OpenAI, la compañía cofundada por Sam Altman, ChatGPT rápidamente se convirtió en la aplicación de IA más popular jamás lanzada, y la que todos intentaron emular y One-Up. Desde entonces, todos los grandes jugadores tecnológicos se han unido a la carrera generativa de IA. Perplexity, Meta AI, Géminis de Google, Copilot de Microsoft y Claude de Anthrope pueden hacer cosas similares. Pero la popularidad de ChatGPT, las capacidades abiertas y el comienzo temprano le dieron una fuerte ventaja.

ChatGPT se convirtió en una de las aplicaciones de más rápido crecimiento en la historia, acumulando cientos de millones de usuarios. ChatGPT a menudo se destaca debido a su versatilidad y facilidad de uso, pero principalmente desde la gran escala de su base de usuarios.

Vamos a profundizar en cómo funciona ChatGPT, cómo usarlo y por qué se ha convertido en la charla de la ciudad en los últimos años, y algunos de sus puntos más controvertidos.

¿Cómo funciona el chatgpt?

ChatGPT se basa en una arquitectura de transformador, específicamente la familia de modelos GPT (transformador generativo previamente provocado), el nombre del nombre chatgpt. Fue capacitado en grandes cantidades de datos de libros e Internet: sitios web, wikipedia, hilos de reddit, sitios de noticias y mucho, mucho más.

(Divulgación: Ziff Davis, la empresa matriz de CNET, en abril presentó una demanda contra OpenAi, alegando que infringió los derechos de autor de Ziff Davis en la capacitación y la operación de sus sistemas de IA).

Al igual que otros chatbots de IA, utiliza algoritmos de aprendizaje profundo para comprender el contexto y predice la siguiente palabra más probable en una oración basada en patrones que se ha visto antes. Esa es una razón por la cual a veces “alucina” o genera información segura pero incorrecta.

ChatGPT se basa en modelos de idiomas grandes (LLM), lo que permite comprender sus preguntas y proporcionar respuestas similares a los humanos. A veces lo hace de manera tan convincente y natural, podrías olvidar que es no realmente pensando. Y este límite se está empujando más todo el tiempo. Su último modelo, GPT-4.5, actualmente disponible para niveles más y superiores en una vista previa de investigación, muestra una mayor inteligencia emocional y supuestamente alucina menos.

Chatgpt / captura de pantalla por cnet

A partes iguales impresionantes e inquietantes, varios LLM han pasado recientemente la prueba de Turing, donde un evaluador humano habla con una máquina y un humano, y si el evaluador no puede distinguir entre ellos, la máquina pasa. GPT-4.5 fue considerado como el humano el 73% del tiempo.

Sin embargo, Afraz Jaffri, analista director senior de Gartner, argumenta que estos resultados no importan tanto.

“Puedes crear sistemas que puedan engañar a las personas para que piensen que esto con lo que estás hablando es humano”, le dice Jaffri a CNET. “Entiende lo que están diciendo, pero en realidad no entiende lo que está diciendo. Por lo tanto, es realmente una prueba de credulidad humana en lugar de una prueba de inteligencia”.

Cuando le pregunté a Jaffri qué cree que es el mayor defecto de Chatgpt, dijo: “Simplemente no son confiables. Entonces, incluso si pregunto algo y obtengo una respuesta, todavía quiero verificar que eso es realmente cierto, lo que derrota el punto de que lo obtengamos en primer lugar”.

Sin embargo, OpenAI se ha apresurado a actuar sobre los comentarios de los usuarios. Hace solo unos días, anunció en X una nueva característica que mejora las citas al resaltar el texto relevante y mostrar a qué parte se refiere cada cita.

Chatgpt / captura de pantalla por cnet

También volvió a GPT-4O a su versión anterior después de que los usuarios de X se quejaron de que su elogio “Sycophantic” se sintió inquietante y angustiante. Sycophancy es la falsa adulación de alguien en el poder, a menudo se usa para obtener algo de ellos. Operai dice que está trabajando en un enfoque más equilibrado en el futuro.

Accesibilidad e integraciones

Puede acceder fácilmente a ChatGPT a través de un navegador web o a través de sus aplicaciones en los dispositivos Android e iOS.

También se ha integrado en aplicaciones educativas, bots de servicio al cliente e incluso productos de Apple a través de Apple Intelligence y Siri.

Además, OpenAI introdujo la capacidad de interactuar a través de llamadas telefónicas a través del servicio 1-800-CHATGPT, simplificando el uso para aquellos que prefieren la interacción de voz sobre la escritura.

¿Qué puedes hacer con chatgpt?

Hay muchos casos de uso para ChatGPT: por nombrar algunos, puede planificar sus vacaciones, practicar preguntas de entrevista de trabajo con usted, ayudarlo con su presupuesto, escribir su currículum, hacer su planificación de comidas, recordar correos electrónicos, resumir documentos largos, crear estrategias comerciales, o simplemente conversar con usted. Aprenderá de sus consultas y solicitudes, y se adaptará a lo que cree que le gusta.

Si no desea que le recuerde, también puede usar un chat temporal seleccionándolo en la esquina superior derecha. No aparecerá en la historia, actualizará su memoria ni se utilizará para entrenar modelos, aunque se puede mantener hasta 30 días para la seguridad.

El lienzo ChatGPT puede ayudarlo a escribir y codificar, y con la función de tareas, puede configurar recordatorios y programar tareas. Puede redactar copias de marketing e incluso ayudarlo con el autodiagnóstico, aunque siempre debe tener cuidado con los resultados y consultar a su médico.

También es uno de los chatbots más personalizables. Puede crear su propio GPT adaptado a tareas o personalidades específicas, o seleccionar entre los miles de los creados por los usuarios. Se organizan en categorías como educación, productividad, tendencias y programación, etc.

Captura de pantalla por CNET

Más allá del texto, ChatGPT puede generar imágenes y videos originales a través de sus herramientas integradas. El generador de imágenes de GPT-4O ahora es el valor predeterminado en ChatGPT para todos los usuarios, que le ofrece la capacidad de generar imágenes altamente realistas a partir de indicaciones de texto simples. Si prefiere seguir usando Dall-E 3 (su primer generador de imágenes), aún puede acceder a él a través del Dall-E GPT.

Creé esto directamente en Chatgpt con el mensaje: “Haga una imagen de una anciana con arrugas, sentada junto a la ventana, comiendo una manzana y mirando hacia afuera. Sea hiperrealista, use colores de otoño en la imagen”.

Chatgpt / captura de pantalla por cnet

Todos los usuarios de ChatGPT en la web e iOS/Android ahora tienen una biblioteca donde las imágenes se guardan automáticamente, lo que le permite volver a visitarlos, reutilizarlas o editarlas sin cavar en chats antiguos. Puede acceder a él desde la barra lateral izquierda.

Chatgpt / captura de pantalla por cnet

Además, Openai ha introducido Sora, su modelo de texto de texto a video, a planes PLUS y Pro, expandiendo las capacidades multimedia de ChatGPT.

Diferentes modelos para diferentes funciones

Originalmente basado en la arquitectura GPT-3 de Openai, ChatGPT ha evolucionado. Existen diferentes variaciones y limitaciones del modelo basadas en su suscripción y su propósito para usar CHATGPT.

GPT-4O es la versión más avanzada accesible para todos, manejando texto, imágenes y audio como entrada y salida. GPT-4O Mini, el modelo más rápido, está optimizado para las tareas cotidianas y está disponible para todos los usuarios (los usuarios de nivel libre se cambian automáticamente a él al alcanzar los límites de uso en GPT-4O).

Los modelos O3 y O4-Mini son modelos de razonamiento, donde O3 es especialmente fuerte en las tareas de codificación, matemáticas y visuales, mientras que O4-Mini es una versión más ligera y rentable. O4-Mini-High es lo mejor para la codificación y la percepción visual.

Los modelos O1 y O1-Mini están diseñados para “pensar” más tiempo antes de responder y son ideales para resolver problemas complejos. Por último, como se mencionó anteriormente, GPT-4.5 es el modelo más grande y mejor para el chat y está disponible en la vista previa de la investigación para todos los planes de EDU pagados y chatgpt para estudiantes.

Si está en cualquier plan pagado, puede cambiar el modelo antes o durante un chat haciendo clic en el selector de modelos en la esquina superior izquierda de la pantalla.

Chatgpt / captura de pantalla por cnet

Precio de chatgpt

Operai proporciona chatgpt en un modelo freemium. La versión gratuita ofrece acceso básico a GPT-4O Mini y acceso limitado a GPT-4O, O4-Mini e Investigación profunda. La actualización a un plan pagado desbloquea características adicionales.

ChatGPT Plus cuesta $ 20 al mes y proporciona acceso a SORA, investigaciones profundas y modelos de razonamiento múltiples (O3, O4-Mini y O4-Mini-High), tiempos de respuesta más rápidos, acceso limitado a GPT-4.5 y características adicionales como la interacción de voz.

Para los equipos, hay un equipo de ChatGPT que comienza en $ 25 por usuario por mes. Para los usuarios pesados, ChatGPT Pro está disponible por $ 200 al mes con los límites y capacidades más altos. Las empresas también pueden elegir ChatGPT Enterprise con precios personalizados para funciones de nivel empresarial.

Los estudiantes y las organizaciones sin fines de lucro ocasionalmente reciben ofertas especiales. Por ejemplo, ChatGPT Plus Access a menudo es gratuito para estudiantes en los EE. UU. Y Canadá durante los períodos de examen.

Preocupaciones de privacidad, batallas legales y otras controversias

ChatGPT enfrenta desafíos legales continuos relacionados con las preocupaciones de la industria con respecto a la ética y la legalidad del abastecimiento de datos para la capacitación de IA. Las demandas de alto perfil incluyen las principales editoriales como The New York Times, Dow Jones y la empresa matriz de CNET Ziff Davis (ver divulgación anterior), que alegan el uso no autorizado de su contenido para capacitar a ChatGPT, al igual que muchos autores individuales.

No olvidemos cuándo la modelo de voz “Sky” de OpenAi imitó a Scarlett Johansson sin permiso, lo que llevó a su equipo a amenazar las acciones legales sobre el uso no autorizado de su voz. Operai eliminó la voz, dijo que provenía de una actriz diferente y prometió revelaciones de AI más claras.

La privacidad es otra preocupación. Los expertos y los defensores de la privacidad han planteado preguntas continuas sobre la protección de los datos, cómo se almacena y usa la información personal, y qué los usuarios deben o no compartir. Incluso Openai aconseja que no ingresen información confidencial como números de tarjetas de crédito, historial médico o números de Seguro Social.

Jaffri enfatizó que el despliegue malicioso o descuidado, no los modelos en sí, es la raíz de la mayoría de los riesgos.

“Ahora cualquiera puede crear estas cosas y puede difundirlas mucho más fáciles y mucho más rápidas, así que ese es el tipo de preocupación”, dijo a CNET. “Se trata más de cómo se usa en lugar de ser algo de qué preocuparse”.

Operai ha intentado abordar estos problemas con medidas de protección de datos mejoradas. Sus indicaciones (en planes gratuitos, Plus y Pro) pueden usarse para capacitar al modelo a menos que opte por no participar en la configuración. Los planes de Equipo y Enterprise están diseñados para no recopilar datos del usuario de forma predeterminada. Openai no respondió a una solicitud de comentarios sobre posibles preocupaciones de copyright y plagio sobre los datos de capacitación o sobre la privacidad del usuario y la protección de datos.

Desarrollos recientes y nuevas características

Desde su comienzo, ChatGPT ha crecido en características y capacidades. OpenAI amplió la función de memoria de ChatGPT, lo que permite que el chatbot recupere las interacciones anteriores (que puede administrar o eliminar), creando una experiencia de usuario más personalizada.

Recientemente, Operai hizo las capacidades de generación de imágenes de Chatgpt gratis para todos los usuarios, aunque con un número limitado de usos mensuales. Además, en respuesta a la competencia de rivales como la compañía china de IA Deepseek R1, Operai lanzó pruebas para su nuevo modelo liviano e investigación profunda, accesible incluso para usuarios de nivel libre (con acceso limitado).

ChatGPT se está convirtiendo en una interfaz predeterminada de cómo las personas interactúan con la IA e incluso cómo obtienen información de Internet. A través de su función de búsqueda ChatGPT, compite más directamente con Google Search (incluso eliminando los requisitos de inicio de sesión obligatorios para que sea mucho más fácil para los usuarios casuales).

ChatGPT sigue siendo un jugador influyente en la IA. A medida que las herramientas generativas de IA se integran más en la vida diaria, las mejoras continuas en la usabilidad, la protección de la privacidad y las capacidades de generación de contenido determinarán el éxito a largo plazo de ChatGPT.

“Todo el tipo de tecnología en sí misma será transformador para muchas áreas diferentes, lo que tendrá un impacto directo en nuestras vidas”, dice Jaffri. “Con suerte para mejor”.

Continue Reading

Noticias

Cómo simplificar la extracción de datos web con chatgpt

Published

on

Seré honesto: he pasado más horas de las que me gustaría admitir copiar y pegar datos de los sitios web en hojas de cálculo. Si trabaja en ventas, operaciones o casi cualquier función comercial que se basa en los datos web, probablemente conozca la sensación: su mano del mouse comienza a calmar, sus ojos se acristan y se pregunta si hay una mejor manera. Spoiler: hay. Y gracias al surgimiento de la IA, nunca ha sido más fácil para las personas no técnicas automatizar la extracción de datos web y recuperar su tiempo.

Las estadísticas recientes muestran que el empleado promedio de oficinas gasta aproximadamente el 10% de su semana laboral en la entrada de datos manuales, con algunos equipos acumulando más de un millón de acciones de copia al año. Eso no es solo tedioso, es costoso, y se enfoca en el trabajo que realmente mueve la aguja. Entonces, en esta publicación, me estoy sumergiendo en tres métodos prácticos con extracción de datos web: utilizando un raspador web de IA como TruenoDatos de disputas con las habilidades de copia de chatgpt y dejar que Chatgpt escriba scripts de Python para usted. Desglosaré los pros, los contras y los mejores casos de uso para cada uno, por lo que finalmente puede dejar de ahogarse en tareas repetitivas y comenzar a hacer que sus datos funcionen para usted.

¿Qué es la extracción de datos web y por qué usar IA?

Vamos a mantenerlo simple: extracción de datos web (o el raspado web) es solo el proceso de obtener información de los sitios web y convertirla en un formato estructurado: piense en filas en una hoja de cálculo o en una base de datos agradable y ordenada. En lugar de leer una página web y anotar precios, nombres de productos o información de contacto a mano, utiliza una herramienta (o un poco de código) para automatizar el proceso. Es como tener un asistente digital que nunca se aburra o se distraiga.

Pero aquí está la captura: las herramientas de raspado web tradicionales a menudo requieren que te metas con HTML, configure reglas complicadas o incluso de código de escritura. Esa es una gran barrera si no eres un desarrollador. Ingresar Raspadores web ai y chatbots como chatgpt. Estas herramientas utilizan el procesamiento del lenguaje natural y el aprendizaje automático para “leer” las páginas web como lo harían un humano. Puede decirles lo que quiere: “Tome todos los nombres y precios del producto”, y la IA descubre el resto. Sin codificación, sin dolores de cabeza selectores, solo extracción de datos rápida y flexible que se adapte incluso cuando los sitios web cambian sus diseños (lea más sobre los conceptos básicos aquí).

Tres formas de simplificar la extracción de datos web con AI

Después de años de lucha libre con hojas de cálculo y pestañas de navegador, he reducido los tres enfoques principales que realmente funcionan para usuarios comerciales reales:

  1. Herramientas de raspador web de IA
  2. Copiar pete con chatgpt
  3. Scripts de Python generados por chatgpt

Desglosemos cómo funciona cada uno, para quién son los mejores y qué puede esperar.

1. Uso de una herramienta de raspador web de IA

Soy un gran fanático de las herramientas que solo funcionan, y Thunderbit está diseñado para personas que desean resultados sin los dolores de cabeza tecnológicos. Así es como funciona:

  • Instalar el Extensión de cromo.
  • Dirígete al sitio web que quieres raspar.
  • Haga clic en “AI Sugerir Fields”: la IA de Thunderbit lee la página y sugiere las columnas más relevantes (como “nombre”, “precio”, “calificación”).
  • Golpea “Raspe”. El agente de IA toma los datos, incluso siguiendo enlaces a subpáginas o manejo de la paginación si es necesario.
  • Exporte sus resultados directamente a Excel, Google Sheets, AirTable, noción o CSV, sin pasos adicionales, sin costo adicional.

Lo que hace que Thunderbit se destaque es cómo maneja las cosas difíciles: raspado de subpágina (piense en los detalles del producto que requieren hacer clic), extraer datos de PDF o imágenes, e incluso resumir o traducir contenido en la mosca. Es como tener un pasante digital que nunca pide un descanso para tomar un café.

¿Para quién es? Los equipos de ventas que construyen listas de leads, gerentes de comercio electrónico que rastrean a los competidores, agentes de bienes raíces que agregan listados y cualquier persona que desee datos estructurados sin escribir una línea de código. También es un salvavidas para los equipos que necesitan raspar los mismos sitios regularmente: Thunderbit puede incluso programar los rasguños para ejecutarse automáticamente.

Para obtener más información sobre cómo trabaja Thunderbit en la práctica, consulte nuestra inmersión profunda: cómo raspar cualquier sitio web usando AI.

2. Copia Paste con chatgpt para extracción de datos web

A veces, solo necesitas una victoria rápida. Ahí es donde entran las potencias de copia de chatgpt. Aquí está el flujo de trabajo:

  • Copie manualmente el contenido que necesita de un sitio web (como una tabla o lista).
  • Pételo en ChatGPT y solicítelo: “Extraiga el nombre, la dirección y el número de teléfono de la empresa para cada entrada y formatearlo como una tabla”.
  • ChatGPT escupe una mesa estructurada, JSON, o cualquier formato que solicite.

Este método es simple, sin configuración, sin codificación, solo usted, su mouse y chatgpt. Es perfecto para tareas únicas o trabajos pequeños donde configurar un raspador completo se siente como exagerado.

Pero hay algunas grandes limitaciones:

  • Todavía estás haciendo el trabajo pesado copiando y pegando, por lo que no escala para grandes trabajos.
  • ChatGPT solo puede manejar tanto texto a la vez: las páginas o conjuntos de datos grandes pueden necesitar romperse en trozos.
  • La IA podría perder o malinterpretar algunos datos, especialmente si el formato es desordenado o el aviso no está claro.
  • Y, por supuesto, ChatGPT no puede obtener páginas web por URL por sí sola (a menos que esté utilizando complementos o herramientas de desarrollador).

En resumen: ideal para extracciones rápidas y ad-hoc, pero no un reemplazo para un raspador web real si necesita procesar muchas páginas o automatizar el proceso.

3. Escribir scripts de Python para extracción de datos web con chatgpt

Si eres un poco más aventurero (o tienes un amigo desarrollador en Speed ​​Dial), puedes usar CHATGPT para generar scripts de Python personalizados para el raspado web. Así es como suele ser:

  • Describa lo que quiera: “Escriba un script de Python para raspar los nombres y precios de los productos de la primera página de este sitio de comercio electrónico utilizando Beautifulsoup”.
  • ChatGPT escribe el código para usted, a menudo usando bibliotecas como solicitudes y Beautifulsoup.
  • Copia el código en su entorno Python, instala las bibliotecas necesarias y lo ejecuta.
  • Si no funciona perfectamente, puede pedirle a CHATGPT que debuge o ajuste el guión.

Este enfoque le brinda la máxima flexibilidad: puede raspar múltiples páginas, manejar inicios de sesión o integrar el script con sus propias bases de datos o flujos de trabajo. Pero requiere una comodidad técnica: necesitará configurar Python, instalar paquetes y manejar cualquier error que aparezca. Y si el sitio web cambia su estructura, deberá actualizar el script (con la ayuda de ChatGPT, por supuesto).

Para usuarios no técnicos, esto puede ser un poco desalentador. Pero para los usuarios avanzados o equipos con soporte de TI, es una forma de construir exactamente lo que necesita, no más, nada menos.

Mi opinión:

  • Trueno es la opción para los usuarios comerciales que desean ahorrar tiempo, evitar dolores de cabeza técnicos y obtener datos estructurados rápidamente.
  • Chatgpt copy-pet es perfecto para extracciones rápidas y únicas cuando no desea configurar nada nuevo.
  • Scripts generados por chatgpt son los mejores para los usuarios expertos en tecnología que necesitan automatización personalizada y no tienen miedo de ensuciarse un poco las manos.

Control de clave: elegir el enfoque correcto de extracción de datos web de IA

Si estás cansado de los maratones de copia, AI es tu nuevo mejor amigo. Esto es lo que he aprendido (a veces de la manera difícil):

  • AI Web Scrapers como Thunderbit Ofrezca la solución más fácil y escalable para usuarios no técnicos: solo punto, clic y exportación. Son ideales para equipos de ventas, marketing, comercio electrónico y operaciones que necesitan datos confiables sin el alboroto.
  • Método de copia de chatgpt es un atajo útil para pequeñas tareas ad-hoc, pero no está construido para trabajos a granel o automatización.
  • Dejar que chatgpt escriba scripts de python Le brinda control total y automatización, pero necesitará algunas chuletas de codificación (o una voluntad de aprender).

No importa qué ruta tome, el objetivo es el mismo: pasar menos tiempo disputando datos y más tiempo usándolo para impulsar su negocio.

Entonces, la próxima vez que te atrapes en un bucle de copia, recuerda: hay una manera más inteligente. Y tus manos (y tu cordura) te lo agradecerán.

Este artículo fue escrito en cooperación con Thunderbit



Continue Reading

Noticias

Las campanas de alarma suenan en nosotros sobre el mundo del proyecto criptoi de OpenAi

Published

on

World Network, el proyecto de identidad digital y cripto de OpenAI de Sam Altman, ha alarmado a los activistas de la privacidad antes de su lanzamiento de los Estados Unidos, con observadores preocupados por sus prácticas de recopilación y protección de datos.

El mundo “es lo contrario de la privacidad. Es una trampa”, dijo Nick Almond, CEO de Factorydao, en X., Si bien el proyecto afirma proteger la privacidad del usuario en la edad de proliferación de IA, se enfrenta a una serie de preocupaciones regulatorias en todo el mundo.

Anteriormente conocido como “WorldCoin”, la tecnología de escane de Iris y su esquema de pago de tokens criptográficos están siendo investigados por las autoridades en India, Corea del Sur, Italia, Colombia, Argentina, Portugal, Kenia e Indonesia. En España, Hong Kong y Brasil, está directamente prohibido.

La última incursión del mundo en los EE. UU. Podría ser el mayor desafío del CEO Sam Altman hasta el momento, donde las preocupaciones de privacidad aumentan por un mosaico de aplicación que difiere del estado por estado.

Las diferentes leyes de privacidad podrían dejar a los usuarios mundiales abiertos a la discriminación

El 30 de abril, Altman anunció que World se establecería en “Hubs de innovación clave” en cinco estados de los Estados Unidos: Atlanta, Austin, Los Ángeles, Miami, Nashville y San Francisco. Los aspirantes a humanos verificados pueden escanear sus iris en estos centros, dando a los marcadores biomédicos únicos del mundo.

Estos marcadores, por mundo, se pueden usar para demostrar la humanidad de uno al interactuar con otros en plataformas digitales.

Pero a medida que World se expande en los Estados Unidos, un paisaje regulatorio incierto podría desanimar a las personas y dificultar que la plataforma genere confianza de los usuarios.

Andrew Rossow, un abogado cibernético y de asuntos públicos de Rossow Law, dijo a CointeleGraph: “No existe una ley federal integral que regule específicamente los datos biométricos (como los escaneos de iris) en los Estados Unidos”.

De hecho, las leyes difieren estado por estado. Dos estados en los que operará el mundo, Texas y California, tienen alguna forma de protecciones legales en los libros para datos biométricos. Los usuarios de los tres estados restantes, Georgia, Tennessee y Florida, deben confiar en la ley federal, lo que requiere que “las empresas sean transparentes y justas, pero no hay reglas estatales especiales para los escaneos de iris”.

Pero incluso la existencia de la ley estatal no es garantía de protección. En Texas, no existe un derecho de acción privado para los datos biométricos, solo el Fiscal General del Estado (AG) puede hacer cumplir la captura o el uso de la ley de identificadores biométricos del estado.

https://www.youtube.com/watch?v=1x8tachbyjg

Altman anunció la incursión del mundo en el mercado estadounidense en un evento de la compañía hace dos semanas. Fuente: Mundo

“La efectividad de las protecciones de datos del usuario, en lo que respecta al mundo, depende casi por completo de las prioridades, los recursos y la voluntad de Texas AG para actuar”, dijo Rossow.

Una AG más agresiva podría significar protecciones más sólidas, mientras que “una administración menos agresiva podría depilar la aplicación, lo que deja a los consumidores abiertos y vulnerables a la explotación”.

El potencial de explotación es uno de los factores clave que impulsan los esfuerzos activistas contra sistemas como el mundo.

Privacy International, un grupo de protección de la privacidad que apoyó acciones legales en Kenia contra el mundo, afirma que en “la ausencia de marcos legales fuertes y salvaguardas estrictas, las tecnologías biométricas representan amenazas graves para la privacidad y la seguridad personal, a medida que su aplicación puede ampliarse para facilitar la discriminación, el perfil y la vigilancia masiva”.

Relacionado: Más de 70 empresas criptográficas unen fuerzas para abordar el monopolio de IA de Big Tech

Ya en 2021, Amnistía Internacional había planteado preocupaciones sobre la discriminación y las aplicaciones de los sistemas biométricos de metodologías dudosas. Dichos, dijeron, pueden “hacer inferencias y predicciones sobre cosas como el género de las personas, las emociones u otros atributos personales, sufren fallas serias y fundamentales en sus fundamentos científicos”.

“Esto significa que las inferencias que hacen sobre nosotros a menudo son inválidas, en algunos casos incluso operacionalizando las teorías eugenicistas de la frenología y la fisonomía”.

No todos están convencidos de las preocupaciones de los guardianes de privacidad. Tomasz Stańczak, director ejecutivo de la Fundación Ethereum, dijo que ha pasado “más de 100 horas” analizando World, que se está basando en la red Ethereum. Agregó que “parecía muy prometedor y mucho más robusto y centrado en la privacidad que mi intuición inicial”.

Paul Dylan-Ennis, un investigador y académico de Ethereum, dijo que cree que la tecnología del mundo “probablemente es fuerte en términos de privacidad”, pero admitió que la estética podría estar desanimando a las personas: “solo un espejo negro intangible para todo”.

WorldCoin Faces Monting Bans en todo el mundo

Operai puede estar duplicando una estrategia estadounidense, pero otras jurisdicciones en todo el mundo están investigando cada vez más, limitando o prohibiendo directamente las actividades de la empresa.

En 2023, los reguladores en India, Corea del Sur, Kenia, Alemania y Brasil comenzaron a investigar las prácticas de recopilación de datos de la empresa. España se convirtió en el primer país en prohibir la recopilación mundial de datos en marzo de 2024.

Relacionado: El espía norcoreano se desliza, revela lazos en la entrevista de trabajo falsa

La Agencia de Protección de Datos española dijo anteriormente a CointeleGraph que su curso de acción se basó en informes de ciudadanos españoles. Afirmó que los operadores de ORB proporcionaron “información insuficiente, datos recopilados de menores e incluso no permitieron el retiro del consentimiento”.

Después de la prohibición, World publicó una publicación de blog que indica que opera “legalmente en todos los lugares en los que está disponible”.

https://www.youtube.com/watch?v=RPU0SOARTV0

World ha hecho recientemente que sus orbes de escaneo de iris sean más compactos y transportables. Fuente: Mundo

Los reguladores globales no estuvieron de acuerdo. Hong Kong siguió a España en mayo de 2024 y ordenó a World que dejara de operar, ya que supuestamente violaba la ordenanza de privacidad de datos personales de la ciudad-estado.

Siguieron otras acusaciones de prácticas de recopilación de datos inadecuadas, y varios países como Alemania y, más recientemente, Kenia, han ordenado al mundo que elimine los datos de miles de usuarios, mientras que Colombia y Argentina han emitido fuertes multas.

En enero de 2025, la Autoridad Nacional de Protección de Datos de Brasil prohibió el mundo directamente, citando preocupación por la naturaleza irreversible de la recopilación de datos y el potencial para que el mundo influya en personas con desventajas económicas con la promesa de criptografía para sus datos.

Oportunidades en Japón y Estados Unidos

A pesar de las protestas en varios países, el sistema de identificación está haciendo incursiones. En Japón, el mundo ahora forma parte de las citas en línea.

Spencer Rascoff, CEO de Match Group, que incluye la aplicación de citas Tinder en su cartera, anunció el 1 de mayo que Tinder probaría el sistema de identificación mundial en Tinder en Japón, “dar a los usuarios una forma de privacidad de demostrar que son verdaderos humanos”.

Los usuarios de Tinder en Japón pueden deslizar bien con los usuarios verificados de ID. Fuente: Mundo

La integración en Japón aún no ha despegado, pero como Tinder es la aplicación de citas más popular en Japón, proporciona un caso de uso importante para la plataforma de identidad mundial. Solo en 2024, tenía unos 1.38 millones de descargas.

Si World pudiera obtener una asociación de Tinder en los Estados Unidos, adquiriría 7.8 millones de miembros activos mensuales durante la noche. Si se expandió a servicios similares como Bumble o Bishing, las próximas dos aplicaciones de citas más populares en el país, el mundo habrá capturado el 67% del mercado de citas en línea de los Estados Unidos, que comprenden las identidades personales y únicas de decenas de millones de usuarios.

Pero los derechos de privacidad en los Estados Unidos están lejos de establecerse. En Texas, uno de los estados donde el mundo planea operar, Google recientemente se estableció por una suma de $ 1.4 mil millones. La Compañía pagó la suma llamativa al estado de Texas después de establecer dos demandas alegando la empresa de seguimiento de datos de búsqueda y ubicación de los usuarios, así como recopilar información de reconocimiento facial.

En otros lugares, en Illinois y Nueva York, las empresas de biometría enfrentan procedimientos judiciales, mientras que los legisladores toman medidas para reducir la recopilación de datos biométricos.

Revista: Chatgpt un ‘misil de búsqueda de esquizofrenia’, AI Científicos Preparación para el 50% de muertes: AI Eye