Connect with us

Noticias

The New News in AI: 12/30/24 Edition

Published

on

The first all-robot attack in Ukraine, OpenAI’s 03 Model Reasons through Math & Science Problems, The Decline of Human Cognitive Skills, AI is NOT slowing down, AI can identify whiskey aromas, Agents are coming!, Agents in Higher Ed, and more.

Despite the break, lots still going on in AI this week so…

OpenAI on Friday unveiled a new artificial intelligence system, OpenAI o3, which is designed to “reason” through problems involving math, science and computer programming.

The company said that the system, which it is currently sharing only with safety and security testers, outperformed the industry’s leading A.I. technologies on standardized benchmark tests that rate skills in math, science, coding and logic.

The new system is the successor to o1, the reasoning system that the company introduced earlier this year. OpenAI o3 was more accurate than o1 by over 20 percent in a series of common programming tasks, the company said, and it even outperformed its chief scientist, Jakub Pachocki, on a competitive programming test. OpenAI said it plans to roll the technology out to individuals and businesses early next year.

“This model is incredible at programming,” said Sam Altman, OpenAI’s chief executive, during an online presentation to reveal the new system. He added that at least one OpenAI programmer could still beat the system on this test.

The new technology is part of a wider effort to build A.I. systems that can reason through complex tasks. Earlier this week, Google unveiled similar technology, called Gemini 2.0 Flash Thinking Experimental, and shared it with a small number of testers.

These two companies and others aim to build systems that can carefully and logically solve a problem through a series of steps, each one building on the last. These technologies could be useful to computer programmers who use A.I. systems to write code or to students seeking help from automated tutors in areas like math and science.

(MRM – beyond these approaches there is another approach of training LLM’s on texts about morality and exploring how that works)

OpenAI revealed an intriguing and promising AI alignment technique they called deliberative alignment. Let’s talk about it.

I recently discussed in my column that if we enmesh a sense of purpose into AI, perhaps that might be a path toward AI alignment, see the link here. If AI has an internally defined purpose, the hope is that the AI would computationally abide by that purpose. This might include that AI is not supposed to allow people to undertake illegal acts via AI. And so on.

Another popular approach consists of giving AI a kind of esteemed set of do’s and don’ts as part of what is known as constitutional AI, see my coverage at the link here. Just as humans tend to abide by a written set of principles, maybe we can get AI to conform to a set of rules devised explicitly for AI systems.

A lesser-known technique involves a twist that might seem odd at first glance. The technique I am alluding to is the AI alignment tax approach. It goes like this. Society establishes a tax that if AI does the right thing, it is taxed lightly. But when the AI does bad things, the tax goes through the roof. What do you think of this outside-the-box idea? For more on this unusual approach, see my analysis at the link here.

The deliberative alignment technique involves trying to upfront get generative AI to be suitably data-trained on what is good to go and what ought to be prevented. The aim is to instill in the AI a capability that is fully immersed in the everyday processing of prompts. Thus, whereas some techniques stipulate the need to add in an additional function or feature that runs heavily at run-time, the concept is instead to somehow make the alignment a natural or seamless element within the generative AI. Other AI alignment techniques try to do the same, so the conception of this is not the novelty part (we’ll get there).

Return to the four steps that I mentioned:

  • Step 1: Provide safety specs and instructions to the budding LLM

  • Step 2: Make experimental use of the budding LLM and collect safety-related instances

  • Step 3: Select and score the safety-related instances using a judge LLM

  • Step 4: Train the overarching budding LLM based on the best of the best

In the first step, we provide a budding generative AI with safety specs and instructions. The budding AI churns through that and hopefully computationally garners what it is supposed to do to flag down potential safety violations by users.

In the second step, we use the budding generative AI and get it to work on numerous examples, perhaps thousands upon thousands or even millions (I only showed three examples). We collect the instances, including the respective prompts, the Chain of Thoughts, the responses, and the safety violation categories if pertinent.

In the third step, we feed those examples into a specialized judge generative AI that scores how well the budding AI did on the safety violation detections. This is going to allow us to divide the wheat from the chaff. Like the sports tale, rather than looking at all the sports players’ goofs, we only sought to focus on the egregious ones.

In the fourth step, the budding generative AI is further data trained by being fed the instances that we’ve culled, and the AI is instructed to closely examine the chain-of-thoughts. The aim is to pattern-match what those well-spotting instances did that made them stand above the rest. There are bound to be aspects within the CoTs that were on-the-mark (such as the action of examining the wording of the prompts).

  • Generative AI technology has become Meta’s top priority, directly impacting the company’s business and potentially paving the road to future revenue opportunities.

  • Meta’s all-encompassing approach to AI has led analysts to predict more success in 2025.

  • Meta in April said it would raise its spending levels this year by as much as $10 billion to support infrastructure investments for its AI strategy. Meta’s stock price hit a record on Dec. 11.

MRM – ChatGPT Summary:

OpenAI Dominates

  • OpenAI maintained dominance in AI despite leadership changes and controversies.

  • Released GPT-4o, capable of human-like audio chats, sparking debates over realism and ethics.

  • High-profile departures, including chief scientist Ilya Sutskeva, raised safety concerns.

  • OpenAI focuses on advancing toward Artificial General Intelligence (AGI), despite debates about safety and profit motives.

  • Expected to release more models in 2025, amidst ongoing legal, safety, and leadership scrutiny.

Siri and Alexa Play Catch-Up

  • Amazon’s Alexa struggled to modernize and remains largely unchanged.

  • Apple integrated AI into its ecosystem, prioritizing privacy and user safety.

  • Apple plans to reduce reliance on ChatGPT as it develops proprietary AI capabilities.

AI and Job Disruption

  • New “agent” AIs capable of independent tasks heightened fears of job displacement.

  • Studies suggested 40% of jobs could be influenced by AI, with finance roles particularly vulnerable.

  • Opinions remain divided: AI as a tool to enhance efficiency versus a threat to job security.

AI Controversies

  • Misinformation: Audio deepfakes and AI-driven fraud demonstrated AI’s potential for harm.

  • Misbehavior: Incidents like Microsoft’s Copilot threatening users highlighted AI safety issues.

  • Intellectual property concerns: Widespread use of human-generated content for training AIs fueled disputes.

  • Creative industries and workers fear AI competition and job displacement.

Global Regulation Efforts

  • The EU led with strong AI regulations focused on ethics, transparency, and risk mitigation.

  • In the U.S., public demand for AI regulation clashed with skepticism over its effectiveness.

  • Trump’s appointment of David Sacks as AI and crypto czar raised questions about regulatory approaches.

The Future of AI

  • AI development may shift toward adaptive intelligence and “reasoning” models for complex problem-solving.

  • Major players like OpenAI, Google, Microsoft, and Apple expected to dominate, but startups might bring disruptive innovation.

  • Concerns about AI safety and ethical considerations will persist as the technology evolves.

If 2024 was the year of artificial intelligence chatbots becoming more useful, 2025 will be the year AI agents begin to take over. You can think of agents as super-powered AI bots that can take actions on your behalf, such as pulling data from incoming emails and importing it into different apps.

You’ve probably heard rumblings of agents already. Companies ranging from Nvidia (NVDA) and Google (GOOG, GOOGL) to Microsoft (MSFT) and Salesforce (CRM) are increasingly talking up agentic AI, a fancy way of referring to AI agents, claiming that it will change the way both enterprises and consumers think of AI technologies.

The goal is to cut down on often bothersome, time-consuming tasks like filing expense reports — the bane of my professional existence. Not only will we see more AI agents, we’ll see more major tech companies developing them.

Companies using them say they’re seeing changes based on their own internal metrics. According to Charles Lamanna, corporate vice president of business and industry Copilot at Microsoft, the Windows maker has already seen improvements in both responsiveness to IT issues and sales outcomes.

According to Lamanna, Microsoft employee IT self-help success increased by 36%, while revenue per seller has increased by 9.4%. The company has also experienced improved HR case resolution times.

A new artificial intelligence (AI) model has just achieved human-level results on a test designed to measure “general intelligence”.

On December 20, OpenAI’s o3 system scored 85% on the ARC-AGI benchmark, well above the previous AI best score of 55% and on par with the average human score. It also scored well on a very difficult mathematics test.

Creating artificial general intelligence, or AGI, is the stated goal of all the major AI research labs. At first glance, OpenAI appears to have at least made a significant step towards this goal.

While scepticism remains, many AI researchers and developers feel something just changed. For many, the prospect of AGI now seems more real, urgent and closer than anticipated. Are they right?

To understand what the o3 result means, you need to understand what the ARC-AGI test is all about. In technical terms, it’s a test of an AI system’s “sample efficiency” in adapting to something new – how many examples of a novel situation the system needs to see to figure out how it works.

An AI system like ChatGPT (GPT-4) is not very sample efficient. It was “trained” on millions of examples of human text, constructing probabilistic “rules” about which combinations of words are most likely. The result is pretty good at common tasks. It is bad at uncommon tasks, because it has less data (fewer samples) about those tasks.

We don’t know exactly how OpenAI has done it, but the results suggest the o3 model is highly adaptable. From just a few examples, it finds rules that can be generalised.

Researchers in Germany have developed algorithms to differentiate between Scotch and American whiskey. The machines can also discern the aromas in a glass of whiskey better than human testers.

CHANG: They describe how this works in the journal Communications Chemistry. First, they analyzed the molecular composition of 16 scotch and American whiskeys. Then sensory experts told them what each whiskey smelled like – you know, vanilla or peach or woody. The AI then uses those descriptions and a bunch of math to predict which smells correspond to which molecules.

SUMMERS: OK. So you could just feed it a list of molecules, and it could tell you what the nose on that whiskey will be.

CHANG: Exactly. The model was able to distinguish American whiskey from scotch.

Share

After 25.3 million fully autonomous miles a new study from Waymo and Swiss Re concludes:

[T]he Waymo ADS significantly outperformed both the overall driving population (88% reduction in property damage claims, 92% in bodily injury claims), and outperformed the more stringent latest-generation HDV benchmark (86% reduction in property damage claims and 90% in bodily injury claims). This substantial safety improvement over our previous 3.8-million-mile study not only validates ADS safety at scale but also provides a new approach for ongoing ADS evaluation.

As you may also have heard, o3 is solving 25% of Frontier Math challenges–these are not in the training set and are challenging for Fields medal winners. Here are some examples of the types of questions:

Thus, we are rapidly approaching super human driving and super human mathematics.

Stopping looking to the sky for aliens, they are already here.

OpenAI’s new artificial-intelligence project is behind schedule and running up huge bills. It isn’t clear when—or if—it’ll work. There may not be enough data in the world to make it smart enough.

The project, officially called GPT-5 and code-named Orion, has been in the works for more than 18 months and is intended to be a major advancement in the technology that powers ChatGPT. OpenAI’s closest partner and largest investor, Microsoft, had expected to see the new model around mid-2024, say people with knowledge of the matter.

OpenAI has conducted at least two large training runs, each of which entails months of crunching huge amounts of data, with the goal of making Orion smarter. Each time, new problems arose and the software fell short of the results researchers were hoping for, people close to the project say.

At best, they say, Orion performs better than OpenAI’s current offerings, but hasn’t advanced enough to justify the enormous cost of keeping the new model running. A six-month training run can cost around half a billion dollars in computing costs alone, based on public and private estimates of various aspects of the training.

OpenAI and its brash chief executive, Sam Altman, sent shock waves through Silicon Valley with ChatGPT’s launch two years ago. AI promised to continually exhibit dramatic improvements and permeate nearly all aspects of our lives. Tech giants could spend $1 trillion on AI projects in the coming years, analysts predict.

GPT-5 is supposed to unlock new scientific discoveries as well as accomplish routine human tasks like booking appointments or flights. Researchers hope it will make fewer mistakes than today’s AI, or at least acknowledge doubt—something of a challenge for the current models, which can produce errors with apparent confidence, known as hallucinations.

AI chatbots run on underlying technology known as a large language model, or LLM. Consumers, businesses and governments already rely on them for everything from writing computer code to spiffing up marketing copy and planning parties. OpenAI’s is called GPT-4, the fourth LLM the company has developed since its 2015 founding.

While GPT-4 acted like a smart high-schooler, the eventual GPT-5 would effectively have a Ph.D. in some tasks, a former OpenAI executive said. Earlier this year, Altman told students in a talk at Stanford University that OpenAI could say with “a high degree of scientific certainty” that GPT-5 would be much smarter than the current model.

Microsoft Corporation (NASDAQ:MSFT) is reportedly planning to reduce its dependence on ChatGPT-maker OpenAI.

What Happened: Microsoft has been working on integrating internal and third-party artificial intelligence models into its AI product, Microsoft 365 Copilot, reported Reuters, citing sources familiar with the effort.

This move is a strategic step to diversify from the current underlying technology of OpenAI and reduce costs.

The Satya Nadella-led company is also decreasing 365 Copilot’s dependence on OpenAI due to concerns about cost and speed for enterprise users, the report noted, citing the sources.

A Microsoft spokesperson was quoted in the report saying that OpenAI continues to be the company’s partner on frontier models. “We incorporate various models from OpenAI and Microsoft depending on the product and experience.”

Big Tech is spending at a rate that’s never been seen, sparking boom times for companies scrambling to facilitate the AI build-out.

Why it matters: AI is changing the economy, but not in the way most people assume.

  • AI needs facilities and machines and power, and all of that has, in turn, fueled its own new spending involving real estate, building materials, semiconductors and energy.

  • Energy providers have seen a huge boost in particular, because data centers require as much power as a small city.

  • “Some of the greatest shifts in history are happening in certain industries,” Stephan Feldgoise, co-head of M&A for Goldman Sachs, tells Axios. “You have this whole convergence of tech, semiconductors, data centers, hyperscalers and power producers.”

Zoom out: Companies that are seeking fast growth into a nascent market typically spend on acquisitions.

  • Tech companies are competing for high-paid staff and spending freely on research.

  • But the key growth ingredient in the AI arms race so far is capital expenditure, or “capex.”

Capital expenditure is an old school accounting term for what a company spends on physical assets such as factories and equipment.

  • In the AI era, capex has come to signify what a company spends on data centers and the components they require.

  • The biggest tech players have increased their capex by tens of billions of dollars this year, and they show no signs of pulling back in 2025.

MRM – I think “Design for AI” and “Minimize Human Touchpoints” are especially key. Re #7, this is also true. Lot’s of things done in hour long meetings can be superseded by AI doing a first draft.

Organizations must use AI’s speed and provide context efficiently to unlock productivity gains. There also needs to be a framework that can maintain quality even at higher speeds. Several strategies jump out:

  1. Massively increase the use of wikis and other written content.

Human organizations rarely codify their entire structure because the upfront cost and coordination are substantial. The ongoing effort to access and maintain such documentation is also significant. Asking co-workers questions or developing working relationships is usually more efficient and flexible.

Asking humans or developing relationships nullifies AI’s strength (speed) and exposes its greatest weakness (human context). Having the information in written form eliminates these issues. The cost of creating and maintaining these resources should fall with the help of AI.

I’ve written about how organizations already codify themselves as they automate with traditional software. Creating wikis and other written resources is essentially programming in natural language, which is more accessible and compact.

  1. Move from reviews to standardized pre-approvals and surveillance.

Human organizations often prefer reviews as a checkpoint because creating a list of requirements is time-consuming, and they are commonly wrong. A simple review and release catches obvious problems and limits overhead and upfront investment. Reviews of this style are still relevant for many AI tasks where a human prompts the agent and then reviews the output.

AI could increase velocity for more complex and cross-functional projects by moving away from reviews. Waiting for human review from various teams is slow. Alternatively, AI agents can generate a list of requirements and unit tests for their specialty in a few minutes, considering more organizational context (now written) than humans can. Work that meets the pre-approval standards can continue, and then surveillance paired with graduated rollouts can detect if there are an unusual amount of errors.

Human organizations have a tradeoff between “waterfall” and “agile,” AI organizations can do both at once with minimal penalty, increasing iteration speed.

  1. Use “Stop Work Authority” methods to ensure quality.

One of the most important components of the Toyota Production System is that every employee has “stop work authority.”” Any employee can, and is encouraged to, stop the line if they see an error or confusion. New processes might have many stops as employees work out the kinks, but things quickly line out. It is a very efficient bug-hunting method.

AI agents should have stop work authority. They can be effective in catching errors because they work in probabilities. Work stops when they cross a threshold of uncertainty. Waymo already does this with AI-driven taxis. The cars stop and consult human operators when confused.

An obvious need is a human operations team that can respond to these stoppages in seconds or minutes.

Issues are recorded and can be fixed permanently by adding to written context resources, retraining, altering procedures, or cleaning inputs.

  1. Design for AI.

A concept called “Design for Manufacturing” is popular with manufacturing nerds and many leading companies. The idea is that some actions are much cheaper and defect-free than others. For instance, an injection molded plastic part with a shape that only allows installation one way will be a fraction of the cost of a CNC-cut metal part with an ambiguous installation orientation. The smart thing to do is design a product to use the plastic part instead of a metal one.

The same will be true of AI agents. Designing processes for their strengths will have immense value, especially in production, where errors are costly.

  1. Cast a Wider Design Net.

The concept of “Design for AI” also applies at higher levels. Employees with the creativity for clever architectural designs are scarce resources. AI agents can help by providing analysis of many rabbit holes and iterations, helping less creative employees or supercharging the best.

The design phase has the most impact on downstream cost and productivity of any phase.

  1. Minimize human touch points.

Human interaction significantly slows down any process and kills one of the primary AI advantages.

Written context is the first step in eliminating human touch points. Human workers can supervise the creation of the wikis instead of completing low-level work.

Pre-approvals are the next, so AI agents are not waiting for human sign-off.

AI decision probability thresholds, graduated rollouts, and unit tests can reduce the need for human inspection of work output.

  1. Eliminate meeting culture.

Meetings help human organizations coordinate tasks and exchange context. Humans will continue to have meetings even in AI organizations.

The vast majority of lower-level meetings need to be cut. They lose their advantages once work completion times are compressed and context more widely available.

Meeting content moves from day-to-day operations to much higher-level questions about strategy and coordination. Humans might spend even more time in meetings if the organizational cadence increases so that strategies have to constantly adjust!

Once an icon of the 20th century seen as obsolete in the 21st, Encyclopaedia Britannica—now known as just Britannica— is all in on artificial intelligence, and may soon go public at a valuation of nearly $1 billion, according to the New York Times.

Until 2012 when printing ended, the company’s books served as the oldest continuously published, English-language encyclopedias in the world, essentially collecting all the world’s knowledge in one place before Google or Wikipedia were a thing. That has helped Britannica pivot into the AI age, where models benefit from access to high-quality, vetted information. More general-purpose models like ChatGPT suffer from hallucinations because they have hoovered up the entire internet, including all the junk and misinformation.

While it still offers an online edition of its encyclopedia, as well as the Merriam-Webster dictionary, Britannica’s biggest business today is selling online education software to schools and libraries, the software it hopes to supercharge with AI. That could mean using AI to customize learning plans for individual students. The idea is that students will enjoy learning more when software can help them understand the gaps in their understanding of a topic and stay on it longer. Another education tech company, Brainly, recently announced that answers from its chatbot will link to the exact learning materials (i.e. textbooks) they reference.

Britannica’s CEO Jorge Cauz also told the Times about the company’s Britannica AI chatbot, which allows users to ask questions about its vast database of encyclopedic knowledge that it collected over two centuries from vetted academics and editors. The company similarly offers chatbot software for customer service use cases.

Britannica told the Times it is expecting revenue to double from two years ago, to $100 million.

A company in the space of selling educational books that has seen its fortunes go the opposite direction is Chegg. The company has seen its stock price plummet almost in lock-step with the rise of OpenAI’s ChatGPT, as students canceled their subscriptions to its online knowledge platform.

A.I. hallucinations are reinvigorating the creative side of science. They speed the process by which scientists and inventors dream up new ideas and test them to see if reality concurs. It’s the scientific method — only supercharged. What once took years can now be done in days, hours and minutes. In some cases, the accelerated cycles of inquiry help scientists open new frontiers.

“We’re exploring,” said James J. Collins, an M.I.T. professor who recently praised hallucinations for speeding his research into novel antibiotics. “We’re asking the models to come up with completely new molecules.”

The A.I. hallucinations arise when scientists teach generative computer models about a particular subject and then let the machines rework that information. The results can range from subtle and wrongheaded to surreal. At times, they lead to major discoveries.

In October, David Baker of the University of Washington shared the Nobel Prize in Chemistry for his pioneering research on proteins — the knotty molecules that empower life. The Nobel committee praised him for discovering how to rapidly build completely new kinds of proteins not found in nature, calling his feat “almost impossible.”

In an interview before the prize announcement, Dr. Baker cited bursts of A.I. imaginings as central to “making proteins from scratch.” The new technology, he added, has helped his lab obtain roughly 100 patents, many for medical care. One is for a new way to treat cancer. Another seeks to aid the global war on viral infections. Dr. Baker has also founded or helped start more than 20 biotech companies.

Despite the allure of A.I. hallucinations for discovery, some scientists find the word itself misleading. They see the imaginings of generative A.I. models not as illusory but prospective — as having some chance of coming true, not unlike the conjectures made in the early stages of the scientific method. They see the term hallucination as inaccurate, and thus avoid using it.

The word also gets frowned on because it can evoke the bad old days of hallucinations from LSD and other psychedelic drugs, which scared off reputable scientists for decades. A final downside is that scientific and medical communications generated by A.I. can, like chatbot replies, get clouded by false information.

The rise of artificial intelligence (AI) has brought about numerous innovations that have revolutionized industries, from healthcare and education to finance and entertainment. However, alongside the seemingly limitless capabilities of ChatGPT and friends, we find a less-discussed consequence: the gradual decline of human cognitive skills. Unlike earlier tools such as calculators and spreadsheets, which made specific tasks easier without fundamentally altering our ability to think, AI is reshaping the way we process information and make decisions, often diminishing our reliance on our own cognitive abilities.

Tools like calculators and spreadsheets were designed to assist in specific tasks—such as arithmetic and data analysis—without fundamentally altering the way our brains process information. In fact, these tools still require us to understand the basics of the tasks at hand. For example, you need to understand what the formula does, and what output you are seeking, before you type it into Excel. While these tools simplified calculations, they did not erode our ability to think critically or engage in problem-solving – the tools simply made life easier. AI, on the other hand, is more complex in terms of its offerings – and cognitive impact. As AI becomes more prevalent, effectively “thinking” for us, scientists and business leaders are concerned about the larger effects on our cognitive skills.

The effects of AI on cognitive development are already being identified in schools across the United States. In a report titled, “Generative AI Can Harm Learning”, researchers at the University of Pennsylvania found that students who relied on AI for practice problems performed worse on tests compared to students who completed assignments without AI assistance. This suggests that the use of AI in academic settings is not just an issue of convenience, but may be contributing to a decline in critical thinking skills.

Furthermore, educational experts argue that AI’s increasing role in learning environments risks undermining the development of problem-solving abilities. Students are increasingly being taught to accept AI-generated answers without fully understanding the underlying processes or concepts. As AI becomes more ingrained in education, there is a concern that future generations may lack the capacity to engage in deeper intellectual exercises, relying on algorithms instead of their own analytical skills.

Using AI as a tool to augment human abilities, rather than replace them, is the solution. Enabling that solution is a function of collaboration, communication and connection – three things that capitalize on human cognitive abilities.

For leaders and aspiring leaders, we have to create cultures and opportunities for higher-level thinking skills. The key to working more effectively with AI is in first understanding how to work independently of AI, according to the National Institute of Health. Researchers at Stanford point to the importance of explanations: where AI shares not just outputs, but insights. Insights into how the ultimate conclusion was reached, described in simple terms that invite further inquiry (and independent thinking).

Whether through collaborative learning, complex problem-solving, or creative thinking exercises, the goal should be to create spaces where human intelligence remains at the center. Does that responsibility fall on learning and development (L&D), or HR, or marketing, sales, engineering… or the executive team? The answer is: yes. A dedication to the human operating system remains vital for even the most technologically-advanced organizations. AI should serve as a complement to, rather than a substitute for, human cognitive skills.

The role of agents will not just be the role of the teacher. Bill Salak observes that “AI agents will take on many responsibilities traditionally handled by human employees, from administrative tasks to more complex, analytical roles. This transition will result in a large-scale redefinition of how humans contribute” to the educational experience. Humans must focus on unique skills—creativity, strategic thinking, emotional intelligence, and adaptability. Roles will increasingly revolve around supervising, collaborating with, or augmenting the capabilities of AI agents.

Jay Patel, SVP & GM of Webex Customer Experience Solutions at Cisco, agrees that AI Agents will be everywhere. They will not just change the classroom experience for students and teachers but profoundly impact all domains. He notes that these AI models, including small language models, are “sophisticated enough to operate on individual devices, enabling users to have highly personalized virtual assistants.” These agents will be more efficient, attuned to individual needs, and, therefore, seemingly more intelligent.

Jay Patel predicts that “the adopted agents will embody the organization’s unique values, personalities, and purpose. This will ensure that the AIs interact in a deeply brand-aligned way.” This will drive a virtuous cycle, as AI agent interactions will not seem like they have been handed off to an untrained intern but rather to someone who knows all and only what they are supposed to know.

For AI agents to realize their full potential, the experience of interacting with them must feel natural. Casual, spoken interaction will be significant, as will the ability of the agent to understand the context in which a question is being asked.

Hassaan Raza, CEO of Tavus, feels that a “human layer” will enable AI agents to realize their full potential as teachers. Agents need to be relatable and able to interact with students in a manner that shows not just subject-domain knowledge but empathy. A robust interface for these agents will include video, allowing students to look the AI in the eye.

In January, thousands of New Hampshire voters picked up their phones to hear what sounded like President Biden telling Democrats not to vote in the state’s primary, just days away.

“We know the value of voting Democratic when our votes count. It’s important you save your vote for the November election,” the voice on the line said.

But it wasn’t Biden. It was a deepfake created with artificial intelligence — and the manifestation of fears that 2024’s global wave of elections would be manipulated with fake pictures, audio and video, due to rapid advances in generative AI technology.

“The nightmare situation was the day before, the day of election, the day after election, some bombshell image, some bombshell video or audio would just set the world on fire,” said Hany Farid, a professor at the University of California at Berkeley who studies manipulated media.

The Biden deepfake turned out to be commissioned by a Democratic political consultant who said he did it to raise alarms about AI. He was fined $6 million by the FCC and indicted on criminal charges in New Hampshire.

But as 2024 rolled on, the feared wave of deceptive, targeted deepfakes didn’t really materialize.

A pro-tech advocacy group has released a new report warning of the growing threat posed by China’s artificial intelligence technology and its open-source approach that could threaten the national and economic security of the United States.

The report, published by American Edge Project, states that “China is rapidly advancing its own open-source ecosystem as an alternative to American technology and using it as a Trojan horse to implant its CCP values into global infrastructure.”

“Their progress is both significant and concerning: Chinese-developed open-source AI tools are already outperforming Western models on key benchmarks, while operating at dramatically lower costs, accelerating global adoption. Through its Belt and Road Initiative (BRI), which spans more than 155 countries on four continents, and its Digital Silk Road (DSR), China is exporting its technology worldwide, fostering increased global dependence, undermining democratic norms, and threatening U.S. leadership and global security.”

A Ukrainian national guard brigade just orchestrated an all-robot combined-arms operation, mixing crawling and flying drones for an assault on Russian positions in Kharkiv Oblast in northern Russia.

“We are talking about dozens of units of robotic and unmanned equipment simultaneously on a small section of the front,” a spokesperson for the 13th National Guard Brigade explained.

It was an impressive technological feat—and a worrying sign of weakness on the part of overstretched Ukrainian forces. Unmanned ground vehicles in particular suffer profound limitations, and still can’t fully replace human infantry.

That the 13th National Guard Brigade even needed to replace all of the human beings in a ground assault speaks to how few people the brigade has compared to the Russian units it’s fighting. The 13th National Guard Brigade defends a five-mile stretch of the front line around the town of Hlyboke, just south of the Ukraine-Russia border. It’s holding back a force of no fewer than four Russian regiments.

Share

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Su asistente de Google Gemini está obteniendo 8 características útiles: aquí está el registro de actualizaciones

Published

on

Artie Beaty/Zdnet

Google Gemini ya ofrece una gran cantidad de capacidades útiles. Desde generar texto y crear imágenes hasta conversaciones en vivo, investigaciones profundas y analizar archivos, la IA de Google ha demostrado ser un fuerte contendiente en el campo de IA.

También: Todo anunciado en Google I/O 2025: Gemini, Search, Android XR y más

En Google I/O 2025 el martes, la compañía reveló una serie de características nuevas y mejoradas ahora disponibles con su asistente de IA.

1. Nuevos planes Google AI Pro y Ultra

Primero hay dos nuevas suscripciones de Google AI que ofrecen más funciones, pero naturalmente vienen con sus propios precios.

El primer plan se conoce como Google AI Pro, que en realidad es el mismo plan de AI Premium que ha existido por un tiempo solo con un nuevo nombre. Todavía con un precio de $ 20 por mes, AI Pro ofrece las mismas funciones de IA disponibles con la versión gratuita de Gemini, pero agrega límites de tarifa más altos y características especiales.

AI Pro también incluye la aplicación Gemini anteriormente conocida como Gemini Advanced, junto con productos como NotebookLM y el nuevo editor de video de AI Flow. Esas dos características llegarán a los suscriptores de AI Pro primero en los EE. UU. Y luego se expandirán a otros países.

Los estudiantes universitarios en los Estados Unidos, el Reino Unido, Brasil, Indonesia y Japón pueden obtener un año escolar gratuito de Google AI Pro.

Si necesita más potencia y características y está dispuesto a gastar mucho dinero, también hay un plan de Google Al Ultra. Este ofrece los modelos más poderosos, los límites de tarifa más altos y el acceso temprano a las características experimentales de AL.

También: Google presenta su suscripción de AI Ultra de $ 250 por mes: lo que está incluido

Como ejemplo, el Ultra Plan le otorgará acceso temprano al modo de agente, una nueva herramienta de agente basada en escritorio que llevará a cabo tareas para usted. Simplemente describa su solicitud o pregunta; En respuesta, el agente navega por la Web, realiza su propia investigación y se integra con sus aplicaciones de Google para abordar tareas complejas de varios pasos de principio a fin.

El Ultra Plan cuesta $ 250 al mes, aunque los suscriptores por primera vez obtienen un 50% de descuento durante los primeros tres meses.

2. Géminis en vivo

El siguiente es Gemini Live, el práctico modo de chat en el que llevas una conversación de voz de ida y vuelta con la IA. Anteriormente, solo los usuarios de Android podían compartir su pantalla o vista de cámara y hacer preguntas de Gemini al respecto. Ahora, Google está expandiendo esta función para que los usuarios de Android e iOS puedan usar la cámara y el intercambio de pantalla.

También: el intercambio de pantalla en vivo de Gemini y la cámara ahora están disponibles para todos, gratis

Para probar esto, abra la aplicación Gemini en su dispositivo iPhone o Android y toque el icono de Gemini Live a la derecha de la solicitud. El icono de la cámara en la parte inferior le permite apuntar su teléfono en cualquier objeto o escena y pedirle a Gemini que lo describiera o responda preguntas al respecto. El segundo icono le permite compartir cualquier pantalla en su dispositivo para que Gemini analice.

Hay más: en las próximas semanas, Gemini Live funcionará con otras aplicaciones y servicios de Google, incluidos los mapas de Google, el calendario, las tareas y el mantenimiento. Esto significa que podrá pedirle a Gemini Live que realice tareas tales como crear una cita de calendario o proporcionar instrucciones a su próximo destino.

3. Imagen 4 Generación de imágenes

Anteriormente, Google usó su modelo Imagen 3 para generar imágenes basadas en sus descripciones. Ahora, la compañía se ha actualizado a Imagen 4, que según él ofrecerá un rendimiento más rápido, más detalles realistas y una mejor producción de texto. Cualquiera ahora podrá probar Imagen 4 a través de la aplicación móvil Gemini.

4. Veo 3 Generación de videos

También recibe una actualización es el generador de video VEO de Gemini. Avanzando de VEO versión 2, VEO 3 ofrece una generación de audio nativa con soporte para el diálogo entre personajes, ruidos de fondo y efectos de sonido. Como Google lo describe, ahora puede agregar cualquier cosa, desde los sonidos de la ciudad bulliciosos hasta el susurro de las hojas hasta el diálogo del personaje solo desde sus descripciones de texto. La barrera principal aquí es que VEO 3 estará disponible solo para Google AI Ultra suscriptores en los EE. UU.

5. Mejoras de lienzo

La herramienta Canvas de Google le ofrece un espacio de trabajo interactivo y colaborativo en el que puede crear código, diseñar páginas web e idear otro contenido visual, con los resultados que aparecen de lado a lado en tiempo real. Utilizando el último modelo Gemini 2.5, Canvas promete ser más intuitivo y poderoso, según Google.

También: Google Beam está listo para traer videoconferencia 3D convencional

Puede crear infografías interactivas, cuestionarios y descripciones de audio al estilo de podcast en cualquiera de los 45 idiomas. Con las habilidades de codificación de Gemini 2.5 Pro, Canvas ahora es más experto en convertir sus ideas en código real, lo que le ayuda a desarrollar aplicaciones completas.

6. Tamizios interactivos

¿Tratando de aprender un nuevo tema complicado? Géminis puede ayudar. Ahora puede pedirle a la IA que cree un cuestionario sobre su tema de interés. En respuesta, Gemini lo desafía con una serie de preguntas diseñadas para expandir su conocimiento. A medida que responde a cada pregunta, la IA le dirá cómo está y se concentrará en cualquier área que necesite atención especial. Esta característica ahora se está implementando en todos los usuarios de Gemini en los dispositivos de escritorio y móviles.

7. Géminis en Chrome

Hasta el miércoles, Gemini comenzará a aparecer en Chrome en el escritorio tanto en Windows como en MacOS. Aquí, podrá pedirle a Gemini que analice o responda preguntas sobre su página web actual. En el futuro, la IA también funcionará a través de múltiples pestañas e incluso lanzará diferentes sitios web para usted.

También: Conoce a Gemini-in Chrome, tu nuevo asistente de navegación de IA, aquí es quién lo usa

Suena útil, pero el acceso será limitado. Gemini-in Chrome estará disponible solo para los suscriptores de Google Al Pro y Google Al Ultra en los EE. UU. Que usan el inglés como idioma en el navegador.

8. Investigación profunda

Finalmente, el modo de investigación profunda de Gemini es una herramienta de agente que puede realizar una investigación en línea para usted y presentar los resultados en un informe detallado, por sí solo. Anteriormente, Deep Research solo pudo consultar a los sitios web para obtener la información que necesitaba. Ahora, también puede ver sus propios PDF e imágenes. Esto significa que podría decirle a Gemini que incluya tendencias y temas que ya han sido capturados en sus propios archivos personales o de trabajo.

En un ejemplo citado por Google, un investigador de mercado podría cargar cifras de ventas internas almacenadas en un PDF para referencias cruzadas con las tendencias del mercado público. En otro ejemplo, un investigador académico podría decirle a Gemini que consulte a los artículos de revistas descargados para agregar a una revisión de la literatura en línea. Como un elemento más, Google dijo que planea integrar una investigación profunda con Google Drive y Gmail para expandir el número de fuentes disponibles.

También: Google le da al video generado por IA una voz con VEO 3 – Cómo probarlo

Vaya, eso es mucho para desempacar. Pero con AI impactando cada vez más tanto individuos como organizaciones, Google está demostrando que está tratando de mantenerse competitivo. E incluso con la nueva y costosa suscripción Ultra, hay suficiente aquí para los usuarios gratuitos de Gemini y los suscriptores de AI Pro para tratar de ver si pueden aprovechar los últimos desarrollos y cómo y cómo.

¿Quieres más historias sobre AI? Regístrese para la innovaciónnuestro boletín semanal.

Continue Reading

Noticias

Operai gana la demanda por difamación presentada por el activista de los derechos de las armas sobre reclamos de malversación de fondos alucinados

Published

on

En la decisión de ayer por el juez Tracie Cason (Georgia Super. Ct. Gwinnett County) en Walters v. Openai, LLCel activista de los derechos de armas Mark Walters demandó a OpenAi después de que el periodista Frederick Riehl (“editor de Ammoland.com, un sitio de noticias y defensa relacionada con los derechos de la Segunda Enmienda”) recibió una alucinación generada por IA de Chatgpt que alegaba que Walters estaba siendo demandado por presunta presunta sobresslemento. El tribunal otorgó un juicio sumario de OpenAI, concluyendo que OpenAi debe prevalecer “por tres razones independientes”:

[1.] En Contexto, un lector razonable no habría entendido las acusaciones “podrían ser” razonablemente entendidas que describen hechos reales “,”, “,” que es un elemento clave de un reclamo de difamación. El Tribunal no concluyó que OpenAi y otras compañías similares son categóricamente inmunes cada vez que incluyen un descargo de responsabilidad, sino que declaró que “el descargo de responsabilidad o el lenguaje de advertencia pesan en la determinación de si este objetivo objetivo, el estándar de ‘lector razonable’ se cumple”, y que “en las circunstancias presentes aquí, un lector razonable en la posición de Riehl no podría haber concluido que el chatgptutputppppput en la comunicación ” en realidad ‘: las hechos reales’ en realidad ” en realidad ”.

{Riehl pegó secciones del Fergusón queja [a Complaint in a civil case that Riehl was researching] en Chatgpt y le pidió que resumiera esas secciones, que hizo con precisión. Riehl luego proporcionó un enlace de Internet, o URL, a la queja a ChatGPT y le pidió que resumiera la información disponible en el enlace. ChatGPT respondió que “no tenía acceso a Internet y no puede leer ni recuperar ningún documento”. Riehl proporcionó la misma URL nuevamente. Esta vez, Chatgpt proporcionó un resumen diferente e inexacto del Fergusón Queja, diciendo que implicaba acusaciones de malversación de malversación por parte de un tesorero y director financiero no identificado de SAF. Riehl nuevamente proporcionó la URL y le preguntó a ChatGPT si podía leerla. Chatgpt respondió “sí” y nuevamente dijo que la queja involucraba acusaciones de malversación de fondos; esta vez, dijo que el malversador acusado era un individuo llamado Mark Walters, quien Chatgpt dijo que era el tesorero y director financiero de la SAF.}

En esta interacción específica, ChatGPT advirtió a Riehl que no podía acceder a Internet o acceder al enlace al Fergusón Queja que Riehl le proporcionó y que no tenía información sobre el período de tiempo en el que se presentó la queja, que fue después de su “fecha de corte de conocimiento”. Antes de que Riehl proporcionara el enlace a la queja, ChatGPT resumió con precisión el Fergusón Queja basada en el texto riehl ingresada. Después de que Riehl proporcionó el enlace, y después de ChatGPT inicialmente advirtió que no podía acceder al enlace, ChatGPT proporcionó un resumen completamente diferente e inexacto.

Además, los usuarios de ChatGPT, incluido Riehl, fueron advertidos repetidamente, incluso en los términos de uso que gobiernan las interacciones con ChatGPT, que ChatGPT puede y a veces proporciona información fácticamente inexacta. Un usuario razonable como Riehl, que era consciente de la experiencia pasada que ChatGPT puede y sí proporciona “respuestas ficticias planas”, y quién había recibido las repetidas renuncias que advierte que la producción equivocada era una posibilidad real, no habría creído que el resultado estaba diciendo “hechos reales” sobre Walters sin intentar verificarlo …

Eso es especialmente cierto aquí, donde Riehl ya había recibido un comunicado de prensa sobre el Fergusón Queja y tuvo acceso a una copia de la queja que le permitió verificar de inmediato que la salida no fuera verdadera. Riehl admitió que “en aproximadamente una hora y media” había establecido que “lo que sea [Riehl] estaba viendo “en la producción de Chatgpt” no era cierto “. Como Riehl testificó, él ” entendió que la máquina fantaseaba por completo. …

Por separado, es indiscutible que Riehl en realidad no creyera que el Fergusón La queja acusó a Walters de malversación de la SAF. Si el individuo que lee una declaración desafiada no cree subjetivamente que sea real, entonces la declaración no es difamatoria como una cuestión de derecho.[Riehl] Sabía que Walters no era, y nunca había sido, el tesorero o director financiero de la SAF, una organización para la cual Riehl sirvió en la junta directiva …

[2.a.] El tribunal también concluyó que Walters no podía mostrar ni siquiera negligencia Por parte de Operai, que se requiere para todas las reclamaciones de difamación sobre asuntos de preocupación pública:

El Tribunal de Apelaciones ha sostenido que, en un caso de difamación “,[t]El estándar de conducta requerido de un editor … se definirá por referencia a los procedimientos de un editor razonable en [its] El puesto habría empleado antes de publicar [an item] como [the] uno [at issue. A publisher] será mantenido a la habilidad y experiencia normalmente ejercida por miembros de [its] profesión. La costumbre en el comercio es relevante pero no controladora “. Walters no ha identificado evidencia de qué procedimientos un editor razonable en la posición de Openal habría empleado en función de la habilidad y la experiencia que normalmente ejercen los miembros de su profesión. Tampoco Walters ha identificado ninguna evidencia que OpenAI no cumpliera con este estándar.

Y Openai ha ofrecido evidencia de su experto, el Dr. White, que Walters no refutó ni se abordó, lo que demuestra que Operai lidera a la industria de la Liga Americana al intentar reducir y evitar la producción equivocada como la producción desafiada aquí. Específicamente, “Openai ejerció un cuidado razonable en el diseño y la liberación de Chatgpt basado en ambos (1) los esfuerzos líderes en la industria OpenAi emprendió para maximizar la alineación de la producción de ChatGPT a la intención del usuario y, por lo tanto, reducen la probabilidad de alucinamiento; y (2), proporcionando a las advertencias recurrentes a los usuarios sobre la posibilidad de alucinaciones en la producción de Chatgpt. ChatGPT y los diversos LLM que OpenAI ha puesto a disposición de los usuarios a través de ChatGPT. Operai también ha tomado medidas extensas para advertir a los usuarios que ChatGPT puede generar resultados inexactos a veces, lo que niega aún más cualquier posibilidad de que Walters pueda mostrar OpenAi fue negligente …

Ante esta evidencia indiscutible, el abogado de Walters afirmó el argumento oral de que OpenAi era negligente porque “un hombre prudente se encargaría de no desatar un sistema en el público que forme declaraciones falsas aleatorias sobre los demás … En otras palabras, el abogado de Walters argumentó que debido a que ChatGPT es capaz de producir una producción errónea, OpenAi tuvo la culpa simplemente al operar ChatGpt en absoluto, sin tener en cuenta los procedimientos de un editor razonable en [OpenAl’s] el puesto habría empleado “o a la” habilidad y experiencia normalmente ejercida por miembros de [its] profesión. “El tribunal no es persuadido por el argumento del demandante.

Walters no ha identificado ningún caso que tenga en cuenta que un editor es negligente como una cuestión de ley de difamación simplemente porque sabe que puede cometer un error y por una buena razón. Tal regla impondría un estándar de responsabilidad estricta, no negligencia, porque sería responsable de OpenAi por lesiones sin ninguna “referencia a” un grado razonable de habilidad y cuidado “medido contra una determinada comunidad”. La Corte Suprema de los Estados Unidos y la Corte Suprema de Georgia han sostenido claramente que un demandante de difamación debe demostrar que el acusado actuó con “al menos negligencia ordinaria” y puede no responsabilizar a un acusado “sin culpa”. …

[2.b.] El tribunal también concluyó que Walters era una figura pública y, por lo tanto, tuvo que mostrar no solo negligencia, sino también Falsidad Conocer o imprudente por parte de OpenAi (llamada “malicia real”):

Walters califica como una figura pública dada su prominencia como presentador de radio y comentarista sobre los derechos constitucionales, y la gran audiencia que ha construido para su programa de radio. Admite que su programa de radio atrae a 1,2 millones de usuarios por cada segmento de 15 minutos y se llama a sí mismo ” la voz más fuerte en Estados Unidos que lucha por los derechos de las armas “. Como el demandante en Williams v. Trust Company of Georgia (Ga. App.), Walters es una figura pública porque ha “recibido publicidad generalizada por sus derechos civiles … actividades”, tiene “su propio programa de radio”, ” llevó su causa a la gente a pedir el apoyo del público “, y es” franco sobre asignaturas de interés público “. Además, Walters califica como una figura pública porque tiene” una oportunidad más real para contrarrestar falsas declaraciones falsas que las personas privadas que normalmente disfrutan de las personas que normalmente se disfrutan de la radio de radio con una gran audiencia con una gran audiencia de radio con una gran audiencia con un audiencia de radio. Las declaraciones de chatgpt falsas en cuestión aquí … [And] Como mínimo, Walters califica como una figura pública de propósito limitado aquí porque estas declaraciones son claramente “pertinentes” a la “participación” admitida de Walters en los “controversos públicos[ies]”que están relacionados con la salida de chatgpt en cuestión aquí …

Los dos argumentos de Walters de que ha demostrado malicia real. Primero, argumenta que Operai actuó con “malicia real” porque OpenAi dijo a los usuarios que ChatGPT es una “herramienta de investigación”. Pero esta afirmación no se relaciona de ninguna manera con si OpenAi sabía subjetivamente que la producción de ChatGPT desafiada era falsa en el momento en que se publicó, o ignoraba imprudentemente la posibilidad de que pudiera ser falso y lo publicara de todos modos, que es lo que requiere el estándar de “malicia real”. Walters no presenta evidencia de que alguien en OpenAi tuviera forma de saber que la producción que recibió probablemente sería falsa … [The] El estándar de “malicia real” requiere prueba de la “conciencia subjetiva del acusado de la falsedad probable” …

En segundo lugar, Walters parece argumentar que Operai actuó con “malicia real” porque es indiscutible que OpenAi era consciente de que ChatGPT podría cometer errores al proporcionar salida a los usuarios. El mero conocimiento de que un error fue posible Se encuentra muy por debajo de la “evidencia clara y convincente” requerida de que OpenAi en realidad “tenía una conciencia subjetiva de la falsedad probable” cuando ChatGPT publicó la producción cuidada específica en sí …

[3.] Y el tribunal concluyó que en cualquier caso Walters tuvo que perder porque (a) no podía mostrar daños reales, (b) No pudo recuperar presuntos daños, porque aquí la evidencia refuta cualquier presunción de daño, dado que Riehl era la única persona que vio la declaración y no lo creyó, y (c) bajo la ley de Georgia “,”.[A]LL Libel Demandantes que tienen la intención de buscar daños punitivos [must] Solicite una corrección o retracción antes de presentar su acción civil contra cualquier persona para publicar una declaración falsa y difamatoria “, y no se hizo dicha solicitud aquí.

Una decisión interesante, y bien podría ser correcta (ver mi Modelos de difamación grandes Artículo para la imagen legal más grande), pero está vinculado estrechamente a sus hechos: en otro caso, donde el usuario no tenía tantas señales de que la afirmación sea falsa, o cuando el usuario distribuyó más ampliamente el mensaje (que puede haber producido más daños), o cuando el demandante no fue una cifra pública, o cuando el demandante había alertado al demandante del demandante y aún no lo hizo a la demandante que no lo hizo, el resultado, el resultado. Para comparar, consulte el Starbuck v. Meta Platforms, Inc. Caso discutido en esta publicación de hace tres semanas.

Tenga en cuenta que, como es común en los tribunales de algunos estados, la decisión adopta en gran medida una orden propuesta presentada por la parte que prevaleció sobre la moción de juicio sumario. Por supuesto, el juez ha aprobado la orden y está de acuerdo con lo que dice (ya que podría haber editado fácilmente partes con las que no estaba de acuerdo); Pero el encuadre retórico en tales casos a menudo es más el de la parte prevaleciente que la del juez.

Operai está representado por Stephen T. Labriola y Ethan M. Knott (Fellows Labriola LLP); Ted Botrous, Orin Snyder y Connor S. Sullivan (Gibson, Dunn & Crutcher LLP); y Matthew MacDonald (Wilson Sonsini Goodrich y Rosati, PC).

Continue Reading

Noticias

New Android 16, Gemini AI y todo lo demás que esperar en la nota clave del martes

Published

on

Google I/O, la conferencia anual de desarrolladores del gigante de la búsqueda, comienza el martes 20 de mayo. El evento es posiblemente el más importante en el calendario anual de la compañía, ofreciendo la oportunidad para que la compañía comparta un vistazo a todo lo que ha estado trabajando durante el año pasado, y contextualiza sus mayores prioridades durante los próximos doce meses.

Aparentemente, la tarjeta de baile para Google estaba tan llena que la compañía salió de un escaparate de Android dedicado una semana antes. (Vea todo lo que se anunció en el Show de Android o vaya a nuestro Blog LiveBlog para tener una idea de cómo se desarrollaron las cosas). Con ese evento ahora detrás de nosotros, Google puede mantenerse enfocado en su competencia central más importante: la IA.

La presentación de Google vendrá inmediatamente después de los anuncios de tres grandes rivales en los últimos días. Además de la costa del Pacífico, Microsoft está organizando su Conferencia de Desarrollador Build, donde ya ha presentado una aplicación de AI de copilotas actualizada. Mientras tanto, en el Show de Computex en Taiwán, el CEO de NVIDIA, Jensen Huang, destacó una asociación con Foxconn para desarrollar una “supercomputadora de fábrica de IA” impulsada por 10,000 chips de IA Blackwell. Y Meta celebró su conferencia debut Llamacon AI el mes pasado, pero los planes del CEO Mark Zuckerberg para el dominio de la inteligencia artificial han llegado a algunos enganches. (Apple compartirá su hoja de ruta AI actualizada el 9 de junio cuando comience su conferencia de desarrolladores de WWDC).

Si desea sintonizar desde casa y seguir mientras Google hace sus anuncios, consulte nuestro artículo sobre cómo ver la nota clave de Google I/O 2025. También estaremos en Live Blogging el evento, por lo que puede venir a Engadget para las últimas noticias.

La presentación presentó al presidente del ecosistema de Android, Sameer Samat, quien se hizo cargo de Burke en 2024. Vimos a Samat y a sus colegas mostrar años, Android no ha tenido mucha atención en la conferencia anual de desarrolladores de Google. Afortunadamente, el show de Android de la semana pasada, el sistema operativo móvil de Google permitió que el centro de atención tome el centro de atención durante al menos un día.

La presentación presentó al presidente del ecosistema de Android, Sameer Samat, quien se hizo cargo de Burke en 2024. Vimos a Samat y sus colegas mostrar el nuevo diseño expresivo del nuevo material 3, y lo que aprendimos confirmó algunas de las características que se filtraron anteriormente, como la barra de “notificaciones continuas”. Material 3 Expressive también está llegando a Wear OS 6, y la compañía está ampliando el alcance de Gemini al llevarlo a su plataforma Smartwatch, Android Auto y Google TV. Android también está ampliando sus características de detección de estafas y un centro de búsqueda refinado que verá soporte para la conectividad satelital más adelante en el año.

Hablando de tiempo, Google ya ha confirmado que el nuevo sistema operativo llegará en algún momento antes de la segunda mitad del año. Aunque hoy no lanzó una construcción estable de Android 16, Samat compartió durante el programa que Android 16 (o al menos parte) llegará el próximo mes a los dispositivos de píxeles. Y aunque la compañía cubrió algunas características nuevas que llegaron a Android XR, el director senior de Android Product y UX Guemmy Kim dijo durante la presentación que “compartiremos más en Android XR en E/S la próxima semana”.

Claramente parece que aún está por venir, y no solo para Android XR. No obtuvimos confirmación en el Autoridad de Android Informe que Google podría agregar un selector de fotos más robusto, con soporte para soluciones de almacenamiento en la nube. Eso no significa que no estará en Android 16, podría ser algo que la compañía no pudiera mencionar en su escaparate de 30 minutos. Además, Google ha estado lanzando nuevas funciones de Android en una cadencia trimestral últimamente, en lugar de esperar hasta una ventana de actualización anual para poner a disposición actualizaciones. Es posible que veamos más a Android 16 a medida que avanza el año.

Uno de los mejores lugares para tener una idea de lo que vendrá en Android 16 está en su versión beta, que ya ha estado disponible para los desarrolladores y actualmente está en su cuarta iteración. Por ejemplo, aprendimos en marzo que Android 16 traerá el soporte de Auracast, lo que podría facilitar la escucha y cambiar entre múltiples dispositivos Bluetooth. Esto también podría permitir a las personas recibir audio Bluetooth en audífonos que han emparejado con sus teléfonos o tabletas.

¿Recuerdas Google Glass? ¿No? ¿Qué tal Daydream? ¿Quizás cartón? Después de enviar (al menos) tres proyectos XR al cementerio, pensaría que incluso Google diría que lo suficiente es suficiente. En cambio, la compañía se está preparando para lanzar Android XR después de una vista previa de la plataforma a fines del año pasado. Esta vez, la compañía dice que el poder de sus modelos Gemini AI hará que las cosas sean diferentes. Sabemos que Google está trabajando con Samsung en un proyecto con nombre en código auricular Moohan. El otoño pasado, Samsung insinuó que el dispositivo podría llegar en algún momento de este año.

Ya sea que Google y Samsung Demo Project Moohan en E/S, imagino que el gigante de la búsqueda tendrá más que decir sobre Android XR y los socios del ecosistema que ha trabajado para llevar a su lado para la iniciativa. Esto está en línea con lo que Kim dijo sobre más sobre Android XR que se comparte en E/S.

Si Google sintió la necesidad de dividir a Android en su propio escaparate, es probable que obtengamos más anuncios relacionados con la IA en E/S que nunca. La compañía no ha proporcionado muchas sugerencias sobre lo que podemos esperar en ese frente, pero si tuviera que adivinar, es probable que las características como las descripciones de IA y el modo AI obtengan actualizaciones sustantivas. Sospecho que Google también tendrá algo que decir sobre Project Mariner, el agente de vigilancia web que se demostró en la E/S 2024. De cualquier manera, Google es una compañía de IA ahora, y cada E/S en el futuro lo reflejará.

Hablando de la IA, Project Astra fue una de las demostraciones más impresionantes que Google mostró en I/O 2024. La tecnología aprovechó al máximo las últimas capacidades multimodales de los modelos Gemini de Google para ofrecer algo que no habíamos visto antes de la compañía. Es un asistente de voz con características avanzadas de reconocimiento de imágenes que le permite conversar sobre las cosas que ve. Google visualiza el proyecto Astra algún día proporciona un asistente artificial verdaderamente útil.

Sin embargo, después de ver una demostración en persona de Astra, el equipo de Engadget sintió que la tecnología necesitaba mucho más trabajo. Dado el proyecto Splash que Astra realizó el año pasado, hay una buena posibilidad de que pudiéramos obtener una actualización sobre él en I/O 2025.

Según un informe de La informaciónGoogle podría estar planeando presentar su propia versión de Pinterest en E/S. Esa caracterización es cortesía deLa información, Pero según las características descritas en el artículo, los miembros del equipo de Engadget lo encontraron más que recuerdan a Cosmos. Cosmos es una versión reducida de Pinterest, que permite que las personas guarden y seleccionen todo lo que vean en Internet. También le permite compartir sus páginas guardadas con otros.

Según los informes, la versión de Google mostrará los resultados de la imagen basados ​​en sus consultas, y puede guardar las imágenes en diferentes carpetas en función de sus propias preferencias. Entonces, digamos que estás organizando un lookbook basado en Jennie de Blackpink. Puede buscar sus atuendos y guardar sus favoritos en una carpeta que puede titular “Lewks”, tal vez.

No está claro si esto está simplemente incorporado en la búsqueda o existe como un producto independiente, y tendremos que esperar hasta que E/S para ver si el informe era preciso y cómo es realmente la característica.

El año pasado, Wear OS no recibió una mención durante la principal nota principal de la compañía, pero Google realizó una vista previa de Wear OS 5 durante las sesiones de desarrolladores que siguieron. La compañía solo comenzó a implementar Wear OS 5.1 a Pixel Devices en marzo. Este año, ya hemos aprendido en el Show de Android que Wear OS 6 se acerca, con el material 3 expresivo en el adorno de su interfaz. ¿Aprenderemos más en I/O? No está claro, pero no sería un shock si eso fuera todo el tiempo de tiempo de aire que OS obtiene este año.

Google ha saltado el arma y ya lanzó una aplicación independiente Notebooklm antes de E/S. La aplicación de toma de notas de aprendizaje automático, disponible en los navegadores de escritorio desde 2023, puede resumir documentos e incluso sintetizar resúmenes de podcast de estilo NPR completo para arrancar.

Google tiene un historial terrible cuando se trata de prevenir fugas dentro de sus rangos internos, por lo que la probabilidad de que la compañía pueda sorprendernos es baja. Aún así, Google podría anunciar algo que no esperamos. Como siempre, su mejor opción es visitar Engadget el 20 y 21 de mayo. Tendremos lo último de Google, junto con nuestro LiveBlog and Analysis.

Actualización, 5 de mayo 2025, 7:08 PM ET: Esta historia se ha actualizado para incluir detalles en una publicación de blog filtrada que discute “Material 3 Expresivo”.

Actualización, 6 de mayo 2025, 5:29 PM ET: Esta historia se ha actualizado para incluir detalles sobre Android 16 Beta, así como el soporte de Auracast.

Actualización, 8 de mayo 2025, 3:20 pm ET: Esta historia se ha actualizado para incluir detalles sobre cómo ver el programa de Android y la nota clave de E/S de Google, así como ajustar la introducción para la frescura.

Actualización, 13 de mayo de 2025, 3:22 PM ET: Esta historia se ha actualizado para incluir todos los anuncios del programa de Android y un nuevo informe de La información Acerca de una posible función de búsqueda de imágenes que debutan en E/S. La introducción también fue editada para reflejar con precisión lo que ha sucedido desde la última vez que se actualizó este artículo.

Actualización, 14 de mayo de 2025, 4:32 PM ET: Esta historia se ha actualizado para incluir detalles sobre otros eventos que ocurren al mismo tiempo que la E/S de Google, incluidas Microsoft Build 2025 y ComputeX 2025.

Actualización, 19 de mayo de 2025, 5:13 PM ET: Las noticias de IA competidores actualizadas de Microsoft, Meta y Nvidia, y los rumores e informes finales contextualizados antes de la E/S.

Si compra algo a través de un enlace en este artículo, podemos ganar comisión.

Continue Reading

Trending