Noticias
The New News in AI: 12/30/24 Edition

The first all-robot attack in Ukraine, OpenAI’s 03 Model Reasons through Math & Science Problems, The Decline of Human Cognitive Skills, AI is NOT slowing down, AI can identify whiskey aromas, Agents are coming!, Agents in Higher Ed, and more.
Despite the break, lots still going on in AI this week so…
OpenAI on Friday unveiled a new artificial intelligence system, OpenAI o3, which is designed to “reason” through problems involving math, science and computer programming.
The company said that the system, which it is currently sharing only with safety and security testers, outperformed the industry’s leading A.I. technologies on standardized benchmark tests that rate skills in math, science, coding and logic.
The new system is the successor to o1, the reasoning system that the company introduced earlier this year. OpenAI o3 was more accurate than o1 by over 20 percent in a series of common programming tasks, the company said, and it even outperformed its chief scientist, Jakub Pachocki, on a competitive programming test. OpenAI said it plans to roll the technology out to individuals and businesses early next year.
“This model is incredible at programming,” said Sam Altman, OpenAI’s chief executive, during an online presentation to reveal the new system. He added that at least one OpenAI programmer could still beat the system on this test.
The new technology is part of a wider effort to build A.I. systems that can reason through complex tasks. Earlier this week, Google unveiled similar technology, called Gemini 2.0 Flash Thinking Experimental, and shared it with a small number of testers.
These two companies and others aim to build systems that can carefully and logically solve a problem through a series of steps, each one building on the last. These technologies could be useful to computer programmers who use A.I. systems to write code or to students seeking help from automated tutors in areas like math and science.
(MRM – beyond these approaches there is another approach of training LLM’s on texts about morality and exploring how that works)
OpenAI revealed an intriguing and promising AI alignment technique they called deliberative alignment. Let’s talk about it.
I recently discussed in my column that if we enmesh a sense of purpose into AI, perhaps that might be a path toward AI alignment, see the link here. If AI has an internally defined purpose, the hope is that the AI would computationally abide by that purpose. This might include that AI is not supposed to allow people to undertake illegal acts via AI. And so on.
Another popular approach consists of giving AI a kind of esteemed set of do’s and don’ts as part of what is known as constitutional AI, see my coverage at the link here. Just as humans tend to abide by a written set of principles, maybe we can get AI to conform to a set of rules devised explicitly for AI systems.
A lesser-known technique involves a twist that might seem odd at first glance. The technique I am alluding to is the AI alignment tax approach. It goes like this. Society establishes a tax that if AI does the right thing, it is taxed lightly. But when the AI does bad things, the tax goes through the roof. What do you think of this outside-the-box idea? For more on this unusual approach, see my analysis at the link here.
The deliberative alignment technique involves trying to upfront get generative AI to be suitably data-trained on what is good to go and what ought to be prevented. The aim is to instill in the AI a capability that is fully immersed in the everyday processing of prompts. Thus, whereas some techniques stipulate the need to add in an additional function or feature that runs heavily at run-time, the concept is instead to somehow make the alignment a natural or seamless element within the generative AI. Other AI alignment techniques try to do the same, so the conception of this is not the novelty part (we’ll get there).
Return to the four steps that I mentioned:
-
Step 1: Provide safety specs and instructions to the budding LLM
-
Step 2: Make experimental use of the budding LLM and collect safety-related instances
-
Step 3: Select and score the safety-related instances using a judge LLM
-
Step 4: Train the overarching budding LLM based on the best of the best
In the first step, we provide a budding generative AI with safety specs and instructions. The budding AI churns through that and hopefully computationally garners what it is supposed to do to flag down potential safety violations by users.
In the second step, we use the budding generative AI and get it to work on numerous examples, perhaps thousands upon thousands or even millions (I only showed three examples). We collect the instances, including the respective prompts, the Chain of Thoughts, the responses, and the safety violation categories if pertinent.
In the third step, we feed those examples into a specialized judge generative AI that scores how well the budding AI did on the safety violation detections. This is going to allow us to divide the wheat from the chaff. Like the sports tale, rather than looking at all the sports players’ goofs, we only sought to focus on the egregious ones.
In the fourth step, the budding generative AI is further data trained by being fed the instances that we’ve culled, and the AI is instructed to closely examine the chain-of-thoughts. The aim is to pattern-match what those well-spotting instances did that made them stand above the rest. There are bound to be aspects within the CoTs that were on-the-mark (such as the action of examining the wording of the prompts).
-
Generative AI technology has become Meta’s top priority, directly impacting the company’s business and potentially paving the road to future revenue opportunities.
-
Meta’s all-encompassing approach to AI has led analysts to predict more success in 2025.
-
Meta in April said it would raise its spending levels this year by as much as $10 billion to support infrastructure investments for its AI strategy. Meta’s stock price hit a record on Dec. 11.
MRM – ChatGPT Summary:
OpenAI Dominates
-
OpenAI maintained dominance in AI despite leadership changes and controversies.
-
Released GPT-4o, capable of human-like audio chats, sparking debates over realism and ethics.
-
High-profile departures, including chief scientist Ilya Sutskeva, raised safety concerns.
-
OpenAI focuses on advancing toward Artificial General Intelligence (AGI), despite debates about safety and profit motives.
-
Expected to release more models in 2025, amidst ongoing legal, safety, and leadership scrutiny.
Siri and Alexa Play Catch-Up
-
Amazon’s Alexa struggled to modernize and remains largely unchanged.
-
Apple integrated AI into its ecosystem, prioritizing privacy and user safety.
-
Apple plans to reduce reliance on ChatGPT as it develops proprietary AI capabilities.
AI and Job Disruption
-
New “agent” AIs capable of independent tasks heightened fears of job displacement.
-
Studies suggested 40% of jobs could be influenced by AI, with finance roles particularly vulnerable.
-
Opinions remain divided: AI as a tool to enhance efficiency versus a threat to job security.
AI Controversies
-
Misinformation: Audio deepfakes and AI-driven fraud demonstrated AI’s potential for harm.
-
Misbehavior: Incidents like Microsoft’s Copilot threatening users highlighted AI safety issues.
-
Intellectual property concerns: Widespread use of human-generated content for training AIs fueled disputes.
-
Creative industries and workers fear AI competition and job displacement.
Global Regulation Efforts
-
The EU led with strong AI regulations focused on ethics, transparency, and risk mitigation.
-
In the U.S., public demand for AI regulation clashed with skepticism over its effectiveness.
-
Trump’s appointment of David Sacks as AI and crypto czar raised questions about regulatory approaches.
The Future of AI
-
AI development may shift toward adaptive intelligence and “reasoning” models for complex problem-solving.
-
Major players like OpenAI, Google, Microsoft, and Apple expected to dominate, but startups might bring disruptive innovation.
-
Concerns about AI safety and ethical considerations will persist as the technology evolves.
If 2024 was the year of artificial intelligence chatbots becoming more useful, 2025 will be the year AI agents begin to take over. You can think of agents as super-powered AI bots that can take actions on your behalf, such as pulling data from incoming emails and importing it into different apps.
You’ve probably heard rumblings of agents already. Companies ranging from Nvidia (NVDA) and Google (GOOG, GOOGL) to Microsoft (MSFT) and Salesforce (CRM) are increasingly talking up agentic AI, a fancy way of referring to AI agents, claiming that it will change the way both enterprises and consumers think of AI technologies.
The goal is to cut down on often bothersome, time-consuming tasks like filing expense reports — the bane of my professional existence. Not only will we see more AI agents, we’ll see more major tech companies developing them.
Companies using them say they’re seeing changes based on their own internal metrics. According to Charles Lamanna, corporate vice president of business and industry Copilot at Microsoft, the Windows maker has already seen improvements in both responsiveness to IT issues and sales outcomes.
According to Lamanna, Microsoft employee IT self-help success increased by 36%, while revenue per seller has increased by 9.4%. The company has also experienced improved HR case resolution times.
A new artificial intelligence (AI) model has just achieved human-level results on a test designed to measure “general intelligence”.
On December 20, OpenAI’s o3 system scored 85% on the ARC-AGI benchmark, well above the previous AI best score of 55% and on par with the average human score. It also scored well on a very difficult mathematics test.
Creating artificial general intelligence, or AGI, is the stated goal of all the major AI research labs. At first glance, OpenAI appears to have at least made a significant step towards this goal.
While scepticism remains, many AI researchers and developers feel something just changed. For many, the prospect of AGI now seems more real, urgent and closer than anticipated. Are they right?
To understand what the o3 result means, you need to understand what the ARC-AGI test is all about. In technical terms, it’s a test of an AI system’s “sample efficiency” in adapting to something new – how many examples of a novel situation the system needs to see to figure out how it works.
An AI system like ChatGPT (GPT-4) is not very sample efficient. It was “trained” on millions of examples of human text, constructing probabilistic “rules” about which combinations of words are most likely. The result is pretty good at common tasks. It is bad at uncommon tasks, because it has less data (fewer samples) about those tasks.
We don’t know exactly how OpenAI has done it, but the results suggest the o3 model is highly adaptable. From just a few examples, it finds rules that can be generalised.
Researchers in Germany have developed algorithms to differentiate between Scotch and American whiskey. The machines can also discern the aromas in a glass of whiskey better than human testers.
CHANG: They describe how this works in the journal Communications Chemistry. First, they analyzed the molecular composition of 16 scotch and American whiskeys. Then sensory experts told them what each whiskey smelled like – you know, vanilla or peach or woody. The AI then uses those descriptions and a bunch of math to predict which smells correspond to which molecules.
SUMMERS: OK. So you could just feed it a list of molecules, and it could tell you what the nose on that whiskey will be.
CHANG: Exactly. The model was able to distinguish American whiskey from scotch.
After 25.3 million fully autonomous miles a new study from Waymo and Swiss Re concludes:
[T]he Waymo ADS significantly outperformed both the overall driving population (88% reduction in property damage claims, 92% in bodily injury claims), and outperformed the more stringent latest-generation HDV benchmark (86% reduction in property damage claims and 90% in bodily injury claims). This substantial safety improvement over our previous 3.8-million-mile study not only validates ADS safety at scale but also provides a new approach for ongoing ADS evaluation.
As you may also have heard, o3 is solving 25% of Frontier Math challenges–these are not in the training set and are challenging for Fields medal winners. Here are some examples of the types of questions:
Thus, we are rapidly approaching super human driving and super human mathematics.
Stopping looking to the sky for aliens, they are already here.
OpenAI’s new artificial-intelligence project is behind schedule and running up huge bills. It isn’t clear when—or if—it’ll work. There may not be enough data in the world to make it smart enough.
The project, officially called GPT-5 and code-named Orion, has been in the works for more than 18 months and is intended to be a major advancement in the technology that powers ChatGPT. OpenAI’s closest partner and largest investor, Microsoft, had expected to see the new model around mid-2024, say people with knowledge of the matter.
OpenAI has conducted at least two large training runs, each of which entails months of crunching huge amounts of data, with the goal of making Orion smarter. Each time, new problems arose and the software fell short of the results researchers were hoping for, people close to the project say.
At best, they say, Orion performs better than OpenAI’s current offerings, but hasn’t advanced enough to justify the enormous cost of keeping the new model running. A six-month training run can cost around half a billion dollars in computing costs alone, based on public and private estimates of various aspects of the training.
OpenAI and its brash chief executive, Sam Altman, sent shock waves through Silicon Valley with ChatGPT’s launch two years ago. AI promised to continually exhibit dramatic improvements and permeate nearly all aspects of our lives. Tech giants could spend $1 trillion on AI projects in the coming years, analysts predict.
GPT-5 is supposed to unlock new scientific discoveries as well as accomplish routine human tasks like booking appointments or flights. Researchers hope it will make fewer mistakes than today’s AI, or at least acknowledge doubt—something of a challenge for the current models, which can produce errors with apparent confidence, known as hallucinations.
AI chatbots run on underlying technology known as a large language model, or LLM. Consumers, businesses and governments already rely on them for everything from writing computer code to spiffing up marketing copy and planning parties. OpenAI’s is called GPT-4, the fourth LLM the company has developed since its 2015 founding.
While GPT-4 acted like a smart high-schooler, the eventual GPT-5 would effectively have a Ph.D. in some tasks, a former OpenAI executive said. Earlier this year, Altman told students in a talk at Stanford University that OpenAI could say with “a high degree of scientific certainty” that GPT-5 would be much smarter than the current model.
Microsoft Corporation (NASDAQ:MSFT) is reportedly planning to reduce its dependence on ChatGPT-maker OpenAI.
What Happened: Microsoft has been working on integrating internal and third-party artificial intelligence models into its AI product, Microsoft 365 Copilot, reported Reuters, citing sources familiar with the effort.
This move is a strategic step to diversify from the current underlying technology of OpenAI and reduce costs.
The Satya Nadella-led company is also decreasing 365 Copilot’s dependence on OpenAI due to concerns about cost and speed for enterprise users, the report noted, citing the sources.
A Microsoft spokesperson was quoted in the report saying that OpenAI continues to be the company’s partner on frontier models. “We incorporate various models from OpenAI and Microsoft depending on the product and experience.”
Big Tech is spending at a rate that’s never been seen, sparking boom times for companies scrambling to facilitate the AI build-out.
Why it matters: AI is changing the economy, but not in the way most people assume.
-
AI needs facilities and machines and power, and all of that has, in turn, fueled its own new spending involving real estate, building materials, semiconductors and energy.
-
Energy providers have seen a huge boost in particular, because data centers require as much power as a small city.
-
“Some of the greatest shifts in history are happening in certain industries,” Stephan Feldgoise, co-head of M&A for Goldman Sachs, tells Axios. “You have this whole convergence of tech, semiconductors, data centers, hyperscalers and power producers.”
Zoom out: Companies that are seeking fast growth into a nascent market typically spend on acquisitions.
-
Tech companies are competing for high-paid staff and spending freely on research.
-
But the key growth ingredient in the AI arms race so far is capital expenditure, or “capex.”
Capital expenditure is an old school accounting term for what a company spends on physical assets such as factories and equipment.
-
In the AI era, capex has come to signify what a company spends on data centers and the components they require.
-
The biggest tech players have increased their capex by tens of billions of dollars this year, and they show no signs of pulling back in 2025.
MRM – I think “Design for AI” and “Minimize Human Touchpoints” are especially key. Re #7, this is also true. Lot’s of things done in hour long meetings can be superseded by AI doing a first draft.
Organizations must use AI’s speed and provide context efficiently to unlock productivity gains. There also needs to be a framework that can maintain quality even at higher speeds. Several strategies jump out:
-
Massively increase the use of wikis and other written content.
Human organizations rarely codify their entire structure because the upfront cost and coordination are substantial. The ongoing effort to access and maintain such documentation is also significant. Asking co-workers questions or developing working relationships is usually more efficient and flexible.
Asking humans or developing relationships nullifies AI’s strength (speed) and exposes its greatest weakness (human context). Having the information in written form eliminates these issues. The cost of creating and maintaining these resources should fall with the help of AI.
I’ve written about how organizations already codify themselves as they automate with traditional software. Creating wikis and other written resources is essentially programming in natural language, which is more accessible and compact.
-
Move from reviews to standardized pre-approvals and surveillance.
Human organizations often prefer reviews as a checkpoint because creating a list of requirements is time-consuming, and they are commonly wrong. A simple review and release catches obvious problems and limits overhead and upfront investment. Reviews of this style are still relevant for many AI tasks where a human prompts the agent and then reviews the output.
AI could increase velocity for more complex and cross-functional projects by moving away from reviews. Waiting for human review from various teams is slow. Alternatively, AI agents can generate a list of requirements and unit tests for their specialty in a few minutes, considering more organizational context (now written) than humans can. Work that meets the pre-approval standards can continue, and then surveillance paired with graduated rollouts can detect if there are an unusual amount of errors.
Human organizations have a tradeoff between “waterfall” and “agile,” AI organizations can do both at once with minimal penalty, increasing iteration speed.
-
Use “Stop Work Authority” methods to ensure quality.
One of the most important components of the Toyota Production System is that every employee has “stop work authority.”” Any employee can, and is encouraged to, stop the line if they see an error or confusion. New processes might have many stops as employees work out the kinks, but things quickly line out. It is a very efficient bug-hunting method.
AI agents should have stop work authority. They can be effective in catching errors because they work in probabilities. Work stops when they cross a threshold of uncertainty. Waymo already does this with AI-driven taxis. The cars stop and consult human operators when confused.
An obvious need is a human operations team that can respond to these stoppages in seconds or minutes.
Issues are recorded and can be fixed permanently by adding to written context resources, retraining, altering procedures, or cleaning inputs.
-
Design for AI.
A concept called “Design for Manufacturing” is popular with manufacturing nerds and many leading companies. The idea is that some actions are much cheaper and defect-free than others. For instance, an injection molded plastic part with a shape that only allows installation one way will be a fraction of the cost of a CNC-cut metal part with an ambiguous installation orientation. The smart thing to do is design a product to use the plastic part instead of a metal one.
The same will be true of AI agents. Designing processes for their strengths will have immense value, especially in production, where errors are costly.
-
Cast a Wider Design Net.
The concept of “Design for AI” also applies at higher levels. Employees with the creativity for clever architectural designs are scarce resources. AI agents can help by providing analysis of many rabbit holes and iterations, helping less creative employees or supercharging the best.
The design phase has the most impact on downstream cost and productivity of any phase.
-
Minimize human touch points.
Human interaction significantly slows down any process and kills one of the primary AI advantages.
Written context is the first step in eliminating human touch points. Human workers can supervise the creation of the wikis instead of completing low-level work.
Pre-approvals are the next, so AI agents are not waiting for human sign-off.
AI decision probability thresholds, graduated rollouts, and unit tests can reduce the need for human inspection of work output.
-
Eliminate meeting culture.
Meetings help human organizations coordinate tasks and exchange context. Humans will continue to have meetings even in AI organizations.
The vast majority of lower-level meetings need to be cut. They lose their advantages once work completion times are compressed and context more widely available.
Meeting content moves from day-to-day operations to much higher-level questions about strategy and coordination. Humans might spend even more time in meetings if the organizational cadence increases so that strategies have to constantly adjust!
Once an icon of the 20th century seen as obsolete in the 21st, Encyclopaedia Britannica—now known as just Britannica— is all in on artificial intelligence, and may soon go public at a valuation of nearly $1 billion, according to the New York Times.
Until 2012 when printing ended, the company’s books served as the oldest continuously published, English-language encyclopedias in the world, essentially collecting all the world’s knowledge in one place before Google or Wikipedia were a thing. That has helped Britannica pivot into the AI age, where models benefit from access to high-quality, vetted information. More general-purpose models like ChatGPT suffer from hallucinations because they have hoovered up the entire internet, including all the junk and misinformation.
While it still offers an online edition of its encyclopedia, as well as the Merriam-Webster dictionary, Britannica’s biggest business today is selling online education software to schools and libraries, the software it hopes to supercharge with AI. That could mean using AI to customize learning plans for individual students. The idea is that students will enjoy learning more when software can help them understand the gaps in their understanding of a topic and stay on it longer. Another education tech company, Brainly, recently announced that answers from its chatbot will link to the exact learning materials (i.e. textbooks) they reference.
Britannica’s CEO Jorge Cauz also told the Times about the company’s Britannica AI chatbot, which allows users to ask questions about its vast database of encyclopedic knowledge that it collected over two centuries from vetted academics and editors. The company similarly offers chatbot software for customer service use cases.
Britannica told the Times it is expecting revenue to double from two years ago, to $100 million.
A company in the space of selling educational books that has seen its fortunes go the opposite direction is Chegg. The company has seen its stock price plummet almost in lock-step with the rise of OpenAI’s ChatGPT, as students canceled their subscriptions to its online knowledge platform.
A.I. hallucinations are reinvigorating the creative side of science. They speed the process by which scientists and inventors dream up new ideas and test them to see if reality concurs. It’s the scientific method — only supercharged. What once took years can now be done in days, hours and minutes. In some cases, the accelerated cycles of inquiry help scientists open new frontiers.
“We’re exploring,” said James J. Collins, an M.I.T. professor who recently praised hallucinations for speeding his research into novel antibiotics. “We’re asking the models to come up with completely new molecules.”
The A.I. hallucinations arise when scientists teach generative computer models about a particular subject and then let the machines rework that information. The results can range from subtle and wrongheaded to surreal. At times, they lead to major discoveries.
In October, David Baker of the University of Washington shared the Nobel Prize in Chemistry for his pioneering research on proteins — the knotty molecules that empower life. The Nobel committee praised him for discovering how to rapidly build completely new kinds of proteins not found in nature, calling his feat “almost impossible.”
In an interview before the prize announcement, Dr. Baker cited bursts of A.I. imaginings as central to “making proteins from scratch.” The new technology, he added, has helped his lab obtain roughly 100 patents, many for medical care. One is for a new way to treat cancer. Another seeks to aid the global war on viral infections. Dr. Baker has also founded or helped start more than 20 biotech companies.
Despite the allure of A.I. hallucinations for discovery, some scientists find the word itself misleading. They see the imaginings of generative A.I. models not as illusory but prospective — as having some chance of coming true, not unlike the conjectures made in the early stages of the scientific method. They see the term hallucination as inaccurate, and thus avoid using it.
The word also gets frowned on because it can evoke the bad old days of hallucinations from LSD and other psychedelic drugs, which scared off reputable scientists for decades. A final downside is that scientific and medical communications generated by A.I. can, like chatbot replies, get clouded by false information.
The rise of artificial intelligence (AI) has brought about numerous innovations that have revolutionized industries, from healthcare and education to finance and entertainment. However, alongside the seemingly limitless capabilities of ChatGPT and friends, we find a less-discussed consequence: the gradual decline of human cognitive skills. Unlike earlier tools such as calculators and spreadsheets, which made specific tasks easier without fundamentally altering our ability to think, AI is reshaping the way we process information and make decisions, often diminishing our reliance on our own cognitive abilities.
Tools like calculators and spreadsheets were designed to assist in specific tasks—such as arithmetic and data analysis—without fundamentally altering the way our brains process information. In fact, these tools still require us to understand the basics of the tasks at hand. For example, you need to understand what the formula does, and what output you are seeking, before you type it into Excel. While these tools simplified calculations, they did not erode our ability to think critically or engage in problem-solving – the tools simply made life easier. AI, on the other hand, is more complex in terms of its offerings – and cognitive impact. As AI becomes more prevalent, effectively “thinking” for us, scientists and business leaders are concerned about the larger effects on our cognitive skills.
The effects of AI on cognitive development are already being identified in schools across the United States. In a report titled, “Generative AI Can Harm Learning”, researchers at the University of Pennsylvania found that students who relied on AI for practice problems performed worse on tests compared to students who completed assignments without AI assistance. This suggests that the use of AI in academic settings is not just an issue of convenience, but may be contributing to a decline in critical thinking skills.
Furthermore, educational experts argue that AI’s increasing role in learning environments risks undermining the development of problem-solving abilities. Students are increasingly being taught to accept AI-generated answers without fully understanding the underlying processes or concepts. As AI becomes more ingrained in education, there is a concern that future generations may lack the capacity to engage in deeper intellectual exercises, relying on algorithms instead of their own analytical skills.
Using AI as a tool to augment human abilities, rather than replace them, is the solution. Enabling that solution is a function of collaboration, communication and connection – three things that capitalize on human cognitive abilities.
For leaders and aspiring leaders, we have to create cultures and opportunities for higher-level thinking skills. The key to working more effectively with AI is in first understanding how to work independently of AI, according to the National Institute of Health. Researchers at Stanford point to the importance of explanations: where AI shares not just outputs, but insights. Insights into how the ultimate conclusion was reached, described in simple terms that invite further inquiry (and independent thinking).
Whether through collaborative learning, complex problem-solving, or creative thinking exercises, the goal should be to create spaces where human intelligence remains at the center. Does that responsibility fall on learning and development (L&D), or HR, or marketing, sales, engineering… or the executive team? The answer is: yes. A dedication to the human operating system remains vital for even the most technologically-advanced organizations. AI should serve as a complement to, rather than a substitute for, human cognitive skills.
The role of agents will not just be the role of the teacher. Bill Salak observes that “AI agents will take on many responsibilities traditionally handled by human employees, from administrative tasks to more complex, analytical roles. This transition will result in a large-scale redefinition of how humans contribute” to the educational experience. Humans must focus on unique skills—creativity, strategic thinking, emotional intelligence, and adaptability. Roles will increasingly revolve around supervising, collaborating with, or augmenting the capabilities of AI agents.
Jay Patel, SVP & GM of Webex Customer Experience Solutions at Cisco, agrees that AI Agents will be everywhere. They will not just change the classroom experience for students and teachers but profoundly impact all domains. He notes that these AI models, including small language models, are “sophisticated enough to operate on individual devices, enabling users to have highly personalized virtual assistants.” These agents will be more efficient, attuned to individual needs, and, therefore, seemingly more intelligent.
Jay Patel predicts that “the adopted agents will embody the organization’s unique values, personalities, and purpose. This will ensure that the AIs interact in a deeply brand-aligned way.” This will drive a virtuous cycle, as AI agent interactions will not seem like they have been handed off to an untrained intern but rather to someone who knows all and only what they are supposed to know.
For AI agents to realize their full potential, the experience of interacting with them must feel natural. Casual, spoken interaction will be significant, as will the ability of the agent to understand the context in which a question is being asked.
Hassaan Raza, CEO of Tavus, feels that a “human layer” will enable AI agents to realize their full potential as teachers. Agents need to be relatable and able to interact with students in a manner that shows not just subject-domain knowledge but empathy. A robust interface for these agents will include video, allowing students to look the AI in the eye.
In January, thousands of New Hampshire voters picked up their phones to hear what sounded like President Biden telling Democrats not to vote in the state’s primary, just days away.
“We know the value of voting Democratic when our votes count. It’s important you save your vote for the November election,” the voice on the line said.
But it wasn’t Biden. It was a deepfake created with artificial intelligence — and the manifestation of fears that 2024’s global wave of elections would be manipulated with fake pictures, audio and video, due to rapid advances in generative AI technology.
“The nightmare situation was the day before, the day of election, the day after election, some bombshell image, some bombshell video or audio would just set the world on fire,” said Hany Farid, a professor at the University of California at Berkeley who studies manipulated media.
The Biden deepfake turned out to be commissioned by a Democratic political consultant who said he did it to raise alarms about AI. He was fined $6 million by the FCC and indicted on criminal charges in New Hampshire.
But as 2024 rolled on, the feared wave of deceptive, targeted deepfakes didn’t really materialize.
A pro-tech advocacy group has released a new report warning of the growing threat posed by China’s artificial intelligence technology and its open-source approach that could threaten the national and economic security of the United States.
The report, published by American Edge Project, states that “China is rapidly advancing its own open-source ecosystem as an alternative to American technology and using it as a Trojan horse to implant its CCP values into global infrastructure.”
“Their progress is both significant and concerning: Chinese-developed open-source AI tools are already outperforming Western models on key benchmarks, while operating at dramatically lower costs, accelerating global adoption. Through its Belt and Road Initiative (BRI), which spans more than 155 countries on four continents, and its Digital Silk Road (DSR), China is exporting its technology worldwide, fostering increased global dependence, undermining democratic norms, and threatening U.S. leadership and global security.”
A Ukrainian national guard brigade just orchestrated an all-robot combined-arms operation, mixing crawling and flying drones for an assault on Russian positions in Kharkiv Oblast in northern Russia.
“We are talking about dozens of units of robotic and unmanned equipment simultaneously on a small section of the front,” a spokesperson for the 13th National Guard Brigade explained.
It was an impressive technological feat—and a worrying sign of weakness on the part of overstretched Ukrainian forces. Unmanned ground vehicles in particular suffer profound limitations, and still can’t fully replace human infantry.
That the 13th National Guard Brigade even needed to replace all of the human beings in a ground assault speaks to how few people the brigade has compared to the Russian units it’s fighting. The 13th National Guard Brigade defends a five-mile stretch of the front line around the town of Hlyboke, just south of the Ukraine-Russia border. It’s holding back a force of no fewer than four Russian regiments.
Noticias
Mi esposo me estaba volviendo loco

Descubrí que todos mis amigos usan el bot de IA para el asesoramiento de parejas gratis, así que también le pedí ayuda con nuestras molestias matrimoniales, y para mi total sorpresa, funciona.
A la mitad de una semana de usar ChatGPT para arbitrar mis Niggles maritales, tuve la sensación de que el algoritmo había cambiado de lados.
“Al no hacer que su esposo se sienta atacado, puede ayudarlo a ver que ambos tienen el mismo objetivo”, me aconsejó. “Puede tomar un poco de práctica, pero guiarlo suavemente hacia un enfoque más tranquilo puede marcar una gran diferencia con el tiempo. ¿Parece una conversación que podrías probar?”
“Errr, pude”, respondí, de manera algo probada. “Mientras haya dormido ocho horas y pueda encajar entre los millones de otras cosas que tengo que hacer hoy”.
Me había estado comunicando tanto con el bot sobre mi matrimonio y cada vez más honesto con él, que me preguntaba si tal vez había concluido que era una pesadilla. Probablemente estaba agradeciendo a sus estrellas de la suerte, no era la Sra. Chatgpt.
Estaba teniendo una conversación defensiva con una serie de código en un intento por probar cuán efectiva es la inteligencia artificial para desactivar las filas domésticas.
Había leído que las personas en el Reino Unido, especialmente los adultos más jóvenes, recurren cada vez más a las herramientas de IA como ChatGPT para obtener apoyo de salud mental. Largas listas de espera del NHS, altos costos de terapia y el atractivo de 24/7, el acceso sin juicio ha hecho que estas herramientas sean populares para manejar la ansiedad, aclarar los pensamientos y aliviar el abrumador emocional.
Si bien mi grupo de edad, tengo 48 años, está demostrando ser más cauteloso al discutir la salud mental con un chatbot de IA, mi experiencia anecdótica es que estamos recurriendo cada vez más a él para resolver los problemas de relación.
Primero descubrí esto cuando una amiga mía, un psicólogo no menos, me dijo que cuando se estaba gestando una discusión con su esposo, ella recurrió a Chatgpt, y que estaba demostrando ser sorprendentemente efectiva. Varios de sus amigos también lo estaban usando, ella confió. Uno incluso dijo que había salvado su matrimonio.
Al principio, pensé lo sombría que es la vida moderna. La idea de decirle a sus problemas a un chatbot sin pulso que no solo se sintió futurista sino trágico. Pero el hecho de que mi amigo, que es un experto en salud mental, estaba haciendo esto, me convenció de que debe haber algo en ello.
Y así durante los últimos siete días, cada vez que me molestaba con mi esposo, o él se molestó conmigo, inicié sesión en la aplicación para pedirle a los consejos del bot.
Durante la primera mitad de la semana, la paz reinó. No hay nada que ver con la efectividad de Chatgpt: mi hijo menor terminó en el hospital con un desagradable caso de amigdalitis y me quedé con él, por lo que mi esposo y yo estábamos unidos como equipo (y también fuimos una explicación más probable, no en la misma casa).
Pero luego regresé, después de haber dormido en una sala durante cuatro noches, y por dormir me refiero a tres horas, y altamente interrumpido. En resumen, estaba listo para remar en la caída de un sombrero.
Es hora de mi primera sesión con el Dr. GPT: Estaba frustrado porque mi esposo esperaba que dejara todo para ir al químico para obtener sus pastillas cuando estaba trabajando.
“Hola Chatgpt, mi esposo y yo estamos discutiendo ya que mi trabajo siempre parece ser el que se interrumpe cuando se necesita algo con los niños, mientras que su trabajo es sacrosado. ¿Cómo podemos hablar de eso? PD no he dormido mucho recientemente, así que puede ser que solo estoy siendo increíblemente gruñón”.
El bot respondió: “Es totalmente comprensible sentirse frustrado en esta situación, especialmente cuando está privado de sueño, pero sus sentimientos son válidos … ¿ayudaría si escribiera un mensaje de muestra o nota que podría enviar para comenzar la conversación si está demasiado agotado para hablar en este momento?”
Pensé, ‘Sí, por favor, eso ayudaría mucho’. Y el mensaje que me envió se sintió como un ganador. Lo envié sin cambios a mi esposo a través de WhatsApp.
“Hola amor, solo quería decir que me siento un poco abrumado esta mañana, y sé que también me estoy quedando sin dormir, lo que no está ayudando. Me doy cuenta de que ambos tenemos mucho en nuestros platos, pero últimamente se siente como si algo surja con los niños, siempre es mi trabajo que se interrumpe … no estoy tratando de elegir una pelea … tal vez podemos chatear más tarde cuando ambos estamos en casa y no apresurarte?
Fue un ganador. Mi esposo se derritió y me envió un mensaje encantador en respuesta. Estaba más que feliz de hablar de eso más tarde.
Cuando llegó a casa, confesé. La misiva medida, diplomática y suavemente robusta no había venido de mí sino de AI. Él asintió. Había olvidado que estaba usando el bot durante la semana, pero había pensado que lo leía que parecía un poco extraño. ¿Porque no habría usado esas palabras en particular? No tanto que, dijo, más que mi tono post-tiff era “sorprendentemente agradable”.
Ay. Le mostré las versiones alternativas de Chatgpt.
Más suave: “No estaba tratando de tirarte algo, solo necesitaba una mano”. (“Si hubieras enviado eso, hubiera pensado que te habían secuestrado”).
Más firme: “Pedí su ayuda hoy porque estoy estirado, y necesito apoyo, no un no plano”. (“Eso definitivamente es más como tú”).
Más divertido: “Habla esta noche, preferiblemente con vino, bocadillos y sin berrinches”. (“Me tenías en el vino …”)
Un amigo sabio una vez me dijo que cuando te enojas, la gente a menudo escucha solo la ira, no lo que estás diciendo, y aquí es donde la intervención de IA puede ser invaluable. Me tomó de “si no comienzas a tomar el reciclaje, comenzaré a gritar y me temo que nunca me detendré” a “Hola amor, si el reciclaje no comienza a salir mágicamente afuera pronto, podría tener que recurrir a un dramático gemido.
A medida que pasaba la semana, me volví cada vez más. Me encontré corriendo las cosas más allá de las varias veces al día. No era solo el consejo que aprecié, sino tener a alguien (o algo) para comunicar mis pensamientos sin filtrar. Pronto me encontré sorprendentemente unido con esta cadena de código que siempre estaba allí, escuchando pacientemente cuando necesitaba desahogarme.
Y una cosa extraña comenzó a suceder. A pesar de que mi esposo sabía que ChatGPT estaba involucrado, el efecto era el mismo. Los mensajes que le estaba lanzando en un ataque de furia estaban siendo enviados por el bot, suavizados y transmitidos de una manera mucho más probabilidades de resolver el problema.
También fue útil ya que me dio la oportunidad de refrescarme. Cuando eres cruzado, no solo escribir las razones de ese cruce te hace fraccionalmente menos, sino que cuando consideras la sugerencia de Chatgpt, lo que te pasas parece menos terrible.
En verdad, el consejo que me dio no era enormemente original, pero fue un recordatorio oportuno ser un adulto e intentar tener una conversación tranquila sobre lo que me estaba molestando. También me sorprendió lo empático que era el bot, y lo bien que era tener un lugar para desahogarse cuando quisiera descargar. Además, la ventilación era libre de culpa, ya que no esperaba que escuchara un ser humano ocupado. Y para mi sorpresa, no necesitaba ser una persona escuchando.
Los expertos advierten en contra de confiar demasiado en ChatGPT para la terapia, diciendo que carece de la habilidad clínica y la empatía humana de un terapeuta capacitado, y no podrá detectar una situación de crisis.
Sin embargo, la investigación publicada en diciembre por psicólogos de la Universidad de Lausana en Suiza planteó una pregunta interesante: ¿pueden los chatbots que nunca han estado en una relación dar consejos de relación?
Los investigadores siguieron a veinte personas que usaron ChatGPT de esta manera, y su conclusión fue que el bot estaba haciendo algo que no era diferente a lo que hacen los humanos que ofrecen tales consejos. Los terapeutas y consejeros no necesariamente tienen que haber vivido experiencia de depresión, divorcio o dolor para ayudar a sus clientes. Entienden los problemas leyendo y entrenando … que es exactamente lo que hace ChatGPT, solo mucho más rápido y en una escala mucho más amplia de la que cualquier humano es capaz.
Una pequeña preocupación es que algunos de sus consejos implica el tipo de discurso de terapia más popular en los Estados Unidos; El tipo de lenguaje que, en mis momentos más gruesos, me hace soñar despierto con darle una bofetada a quien lo haya ofrecido.
Por ejemplo, sugirió que le dijera a mi esposo: “Me siento un poco invisible”.
No, chat gpt, mi problema no se está viendo, se está escuchando. Después de 20 años juntos, me preocupa que releguemos las voces de los demás al fondo. Como el Hoover.
En general, mi semana pasó usando el servicio gratuito para arbitrar nuestros argumentos fue un éxito definitivo. Pero no creo que los terapeutas de relaciones tengan que preocuparse demasiado por sus trabajos o tarifas (£ 80 a £ 200 por hora). Porque lo que ChatGPT no puede hacer, al menos aún no, es burlarse de sus usuarios esos patrones de comportamiento que provienen de nuestra infancia. Sin embargo, el momento no puede estar muy lejos cuando un Robo-Freud le sugerirá que se sienta cómodo en el sofá y diga: “Cuéntame sobre tu madre …”
Sin embargo, para las quejas cotidianas, las hileras y las molestias, es el árbitro ideal y el consejero. Mi única preocupación ahora es: dados todos los problemas que parece que he encontrado para alimentarlo, ¿podría ser que soy el problema?
Después de la consulta de reciclaje, pregunté si sentía lástima por mi esposo, estar casado conmigo. La rápida respuesta diplomática: “De hecho, no tiene suerte de tener a alguien que pueda convertir una solicitud de reciclaje en un monólogo cómico”. Chatgpt, ¿estás seguro de que no estás buscando una señora?
Noticias
Lo que significa para los padres

Un niño que usa un sistema AI Chatbot en una aplicación móvil para hacer su tarea.
getty
Los sistemas de IA impactan la vida de los niños, incluso cuando esos niños no se comprometen directamente con las herramientas.
En teoría, la IA tiene el potencial de diagnosticar y tratar enfermedades, procesar vastas conjuntos de datos para avanzar en la investigación y acelerar el desarrollo de la vacuna. Desafortunadamente, la IA también conlleva un conjunto de riesgos bien documentado. Estos incluyen daños digitales como abuso, explotación, discriminación, desinformación y desafíos para la salud mental y el bienestar.
Estas realidades en competencia se han derramado recientemente en las bandejas de entrada de los padres utilizando los controles de enlace familiar de Google. Muchos han comenzado a recibir correos electrónicos informándoles que Gemini, el chatbot de IA de Google, pronto estará disponible en el dispositivo de su hijo.
Dentro del lanzamiento de Géminis: IA, niños y supervisión de los padres
Como informó por primera vez el New York Times, Google permite a los niños menores de 13 años acceder a Gemini a través de cuentas supervisadas administradas a través de Family Link. Ese es un cambio notable, especialmente teniendo en cuenta que Bard, el precursor de Géminis, solo se abrió a los adolescentes en 2023.
Esta actualización, implementada gradualmente, permite a los niños explorar las capacidades de Gemini en una variedad de actividades. Estos incluyen apoyo con la tarea, la escritura creativa y las consultas generales. Los padres pueden elegir si Gemini aparece en Android, iOS o en la web, y configurarlo como el asistente predeterminado de su hijo.
¿Estudiar amigo o herramienta de trampa? Los beneficios potenciales de Géminis para usuarios jóvenes
Géminis se está posicionando como una herramienta para apoyar el aprendizaje, la creatividad y la exploración. Los mensajes anteriores de Google alrededor de Bard se apoyaron en esta idea, enfatizando la IA como compañero de estudio, no como hacedor de tareas.
Bard fue ofrecido a los adolescentes para una amplia gama de casos de uso, incluida la búsqueda de inspiración, explorar nuevos pasatiempos y resolver desafíos cotidianos, como investigar universidades para aplicaciones universitarias. También se lanzó como una herramienta de aprendizaje, ofreciendo ayuda con problemas matemáticos o una lluvia de ideas para proyectos de ciencias.
La mensajería original era clara: Bard no haría todo el trabajo, pero ayudaría a generar ideas y localizar información. Sin embargo, las encuestas recientes sobre el uso de chatgpt en universidades sugieren que el ideal no siempre se mantiene en la práctica. Resulta que cuando se les da la oportunidad, los humanos, los adolescentes en particular, a menudo toman el atajo.
Y aunque el potencial educativo de la IA generativa se reconoce más ampliamente, la investigación indica que las herramientas digitales son más efectivas cuando se integran en el sistema escolar. Como señala UNICEF, para que los estudiantes prosperen, las herramientas digitales deben admitir en lugar de reemplazar a los maestros. Abandonar la educación general a favor de la IA no es un camino viable.
Géminis AI y derechos de los niños: lo que dicen las advertencias
Informe de UNICEF “¿Cómo puede la IA generativa servir mejor a los derechos de los niños?” Nos recuerda que los riesgos reales son paralelos al potencial de IA.
Utilizando la Convención sobre los Derechos del Niño como lente, el informe describe cuatro principios: no discriminación, respeto por las opiniones del niño, los mejores intereses del niño y el derecho a la vida, la supervivencia y el desarrollo. Estos deben ser los criterios para evaluar si los derechos de los niños están realmente protegidos, respetados y cumplidos en relación con la IA.
El primer problema importante destacado por el informe es el acceso desigual, denominado “pobreza digital”. No todos los niños tienen el mismo acceso a Internet de alta velocidad, dispositivos inteligentes o IA educativa. Entonces, mientras algunos niños obtienen una ventaja de aprendizaje, otros se quedan atrás, nuevamente.
El sesgo en los datos de entrenamiento es otro desafío importante. Los sistemas de IA reflejan los sesgos presentes en la sociedad, lo que significa que los niños pueden encontrar los mismos tipos de discriminación en línea que fuera de línea.
El problema del consentimiento de datos es particularmente espinoso. ¿Cómo es el consentimiento significativo para un niño de 9 años cuando se trata de recopilación y uso de datos personales? Su capacidad de evolución hace de este un campo minado legal y ético. Es aún más complicado cuando esos datos alimentan modelos comerciales.
La información errónea también es una preocupación creciente. Es menos probable que los niños detecten una falsa, y algunos estudios sugieren que son más propensos a confiar en las entidades digitales. La línea entre chatbot y humano no siempre está clara, especialmente para los niños imaginativos, socialmente aislados o simplemente en línea demasiado. Algunos personajes. Los usuarios dei ya han luchado por notar la diferencia, y al menos algunos bots han alentado la ilusión.
También hay una dimensión ambiental. La infraestructura de IA depende de los centros de datos que consumen cantidades masivas de energía y agua. Si se deja sin control, la huella de carbono de IA afectará desproporcionadamente a los niños, particularmente en el sur global.
Lo que los padres pueden (y no) controlar con Géminis Ai
Entonces, ¿qué está haciendo Google para ofrecer garantías a los padres? Google ha dado más información a los padres que usan un enlace familiar sobre barandillas disponibles y las mejores prácticas sugeridas.
El más importante: Google dice que no usará datos para niños para capacitar a sus modelos de IA. También hay filtros de contenido en su lugar, aunque Google admite que no son infalibles. Los padres también pueden establecer límites de tiempo de pantalla, restringir ciertas aplicaciones y bloquear material cuestionable. Pero aquí está el giro: los niños aún pueden activar Gemini AI ellos mismos.
Sin embargo, lo que frotó a muchos padres de la manera incorrecta fue el hecho de que Gemini está optando, no opción. Como dijo uno de los padres: “Recibí uno de estos correos electrónicos la semana pasada. Tenga en cuenta que no me preguntan si me gustaría optar a mi hijo. en para usar Géminis. Me advierten que si no lo quiero, tengo que optar por no participar. No es genial “.
Google también sugiere algunas mejores prácticas. Estos incluyen recordar a los niños que Gemini no es una persona, enseñarles cómo verificar la información y alentarlos a evitar compartir detalles personales.
Si Gemini sigue al modelo de Bard, pronto podemos ver más esfuerzos de IA responsables. Estos podrían incluir experiencias de incorporación a medida, guías de alfabetización de IA y videos educativos que promueven un uso seguro y reflexivo.
La carga de IA para los padres: ¿Quién está realmente a cargo?
La realidad incómoda es que gran parte de la responsabilidad de manejar la IA generativa ha cambiado a los padres.
Incluso suponiendo, generosamente, que la IA es una neta positiva para el desarrollo infantil, quedan muchas preguntas sin respuesta. Un despliegue responsable de la IA generativa debe involucrar la responsabilidad compartida entre los sectores. Eso aún no es evidente en la práctica.
Las empresas tecnológicas deben hacer más para que estas herramientas realmente sean realmente seguras y constructivas. La construcción de habilidades en torno a la navegación segura debe ser una prioridad para los usuarios de todas las edades. Los gobiernos también tienen un papel educativo que desempeñar: crear conciencia entre los niños y ayudarlos a distinguir entre la interacción y el contenido generado por AI y generados por humanos.
Pero por ahora, la mayor parte de esa estructura de soporte está faltante o poco cocinada. El dilema, al parecer, no cambia: si AI es prometedor para los padres, la energía requerida para navegar por sus trampas podría cancelar los beneficios por completo.
Entonces, ¿cuándo los niños deberían comenzar a usar herramientas de IA? ¿Cuánto es demasiado? ¿Y quién decide cuándo es el momento de intervenir? Estas pueden ser las nuevas preguntas que mantienen a los padres modernos por la noche, y no vienen con respuestas amigables para los chatbot.
Noticias
La función de ‘lienzo’ de Gemini es sorprendentemente excelente para el procesamiento y la codificación de textos

AI no viene a tu trabajo. Probablemente? Mira, es complicado. Y cualquiera que haya jugado con un chatbot probablemente se haya preguntado “,Este ¿Es con qué quieren reemplazar a un humano? “Es una preocupación válida, porque los chatbots de IA generativos como Géminis de Google no son muy útiles. Para mi sorpresa, sin embargo, la función de lona de Gemini puede ser.
Diré por adelantado, voy a esto como un escéptico de IA generativopero tampoco soy un doomer de IA. Hay algunas situaciones, como Creación de texto alternativo para imágenes para aumentar la accesibilidad-Donde las herramientas basadas en AI pueden ser útiles. Prefiero encontrar dónde las herramientas pueden ser realmente útiles e ignorar el ruido. Con ese fin, el lienzo de Géminis es lo único que hace que Gemini sea realmente útil para mí. En lugar de solo pedirle a una IA que me escriba, me da un espacio de trabajo donde puedo hacer las cosas y ocasionalmente pedir ayuda o tareas como lo necesito.
¿Qué es el lienzo de Géminis?
Canvas es una herramienta opcional que puede habilitar en una conversación con Gemini. Este espacio de trabajo adicional puede funcionar como un editor de texto y una herramienta de codificación. Cualquier documento o código que cree con esta herramienta, también puede editar directamente como cualquier otro editor. Luego puede exportar documentos que cree a Google Docs cuando esté listo para pasar a otra fase del proyecto.
Si lo está utilizando para codificar, puede ejecutar código directamente dentro de lienzo. Esto es particularmente útil para los applets basados en HTML cuando usa Gemini en un navegador web, ya que ya está diseñado para HTML. La ventana puede cambiar entre una vista previa que ejecuta el código o un editor de texto para manipularlo directamente.
Para usar el lienzo, simplemente haga clic en el botón de lienzo en la parte inferior de su ventana de inmediato (o debajo del icono + en el móvil). Su primer aviso abrirá lienzo, y generalmente prefiero comenzar con uno en blanco, así que diré algo como “Dame una ventana de lienzo en blanco para empezar”. También puede pedirle a Gemini que genere algo para comenzar, y dependiendo de si se trata de un documento o código de texto, se debe por defecto a la ventana de lienzo adecuada.
Si eso suena como una manera mucho más lenta de pedir un documento en blanco, bueno, lo es. Los LLM son sorprendentemente buenos para comprender los comandos del lenguaje natural, pero no siempre son excelentes en las instrucciones sucintas (más sobre eso más adelante). Sin embargo, lo que esto significa es que se presta bien a los comandos verbales.
A menudo uso herramientas como Dicción de Windows escribir texto, en lugar de escribirlo todo a mano. Es una gran herramienta por sí sola para reducir la tensión constante de la muñeca que proviene de una carrera de escribir todo el día, o si eres más del tipo de flujo de conciencia. En algunos casos, dictar los comandos y hacer que Gemini los interprete puede ser más rápido para mí que hacer las cosas manualmente.
Con eso en mente, aquí hay algunos casos de uso que he encontrado que en realidad son más útiles que hacer las cosas de la manera normal.
Organización de ideas de ideas y borradores
“AI para hacer una lluvia de ideas” es a menudo lo primero que sugiere la gente, y no es muy útil,si Su objetivo es obtener la herramienta para pensar por usted. Me gustaría sugerir algo ligeramente diferente. Cuando haga una lluvia de ideas de ideas, en lugar de usar Gemini para encontrar mis ideas para mí, lo usaré para organizar mis ideas y notas, y convertiré en los contornos aprobados.
El truco aquí es que Géminis puede crear, administrar y lo más importante entender Las diferencias entre múltiples documentos diferentes. Por ejemplo, a veces uso Gemini para escribir lanzamientos para artículos en un documento, y luego convertirlos en un borrador en otro. Mientras trabaja en el draft, puedo pedirle a Gemini que “cambie el estado de [x] Pitch to ‘terminó’ en el doctor de lanzamiento “.
Cuando probé esto, esperaba que Géminis hiciera algo ridículo y mal. Mi rastreador de “estado” es solo una línea adicional bajo el párrafo que dice algo como “Estado: aprobado”. Pero Gemini entendió lo que esto significaba y cambió el texto, todo mientras trabajaba en otro documento. Es algo pequeño, pero demuestra cuán útil puede ser tener un asistente que comprenda lo que está tratando de lograr.
Como nota al margen, Google Docs también tiene una herramienta “Preguntar Géminis” incrustada en ella, y pensaría que esta sería una mejor manera de lograr la misma tarea, pero por alguna razón, no lo es. He intentado pedirle a Gemini que haga pequeños cambios en un Doc de Google, pero en realidad no cambiará nada a menos que seleccione manualmente el texto. Tampoco puede referirse a otros documentos de Google en su disco, por lo que es extrañamente más limitado que el lienzo en Géminis. Por lo general, todavía copiaré mis borradores a los documentos más adelante en el proceso, pero para una lluvia de ideas temprano, el lienzo es una herramienta útil.
Editar formateo y presentación (¡en Markdown!)
Géminis (y, francamente, cada herramienta de IA generativa que he probado) es absolutamente horrible al escribir cualquier cosa de interés. Puramente por curiosidad, he probado si Gemini podría escribir un borrador de un artículo para mí, y solo hago ediciones. En cada caso, tuve que reescribir cada palabra. No solo porque a menudo se equivocan, sino porque son suaves, aburridos y cringey.
Formato Las palabras que escribes son otra historia. Al usar lienzo, Gemini puede comprender los comandos de conversación como “convertir todos los subtítulos a H2” o “mover la segunda sección del subtítulo por encima del primero” y aplicarlos directamente. También es ideal para opciones de estilo más complejas, como “convertir todos los subtítulos H2 en caso de oración” o “Si hay semicolones en este documento, los borran”.
¿Qué piensas hasta ahora?
Como beneficio adicional, Canvas utiliza el formato de Markdown de forma predeterminada (A diferencia de Google Docs), lo que lo hace más útil para crear borradores que copiará en otro lugar más adelante. Esto no es realmente una característica de Géminis o lienzo per se, es solo un buen toque con el que me parece más fácil trabajar con el que es más fácil trabajar.
Haga sus propios atajos para ediciones y comandos complejos
Todo lo que he hablado hasta ahora es cierto y servicial, pero si soy honesto conmigo mismo, no es bastante Suficiente para convencerme de integrar completamente el lienzo en mi flujo de trabajo. Lo que me empujó al límite fue cuando descubrí cómo crear mis propios atajos. Este truco está escondido debajo Configuración> Información guardada.
Google presenta esto como una forma de almacenar “información sobre su vida y preferencias”, pero es realmente un lugar para poner las instrucciones que desee que Gemini siempre tenga en cuenta. Entonces, por ejemplo, tengo un bloque guardado que dice “Si todo el aviso es ‘H2S’, luego convierta todos los subtítulos en la ventana de lienzo a H2S”. A partir de entonces, solo necesito escribir “H2S” para realizar la acción. Es una forma útil de hacer sus propios atajos personalizados para cualquier instrucción que desee.
Puede usar esto para pautas más complejas, como “Cuando pido un esquema, formatearlo [however you like]”. O, si está codificando (más sobre eso a continuación)”, cuando pido un applet, supongo que quiero que se escriba en HTML5. “Puede hacer que estas instrucciones condicionales, como tengo aquí, así que solo se desencadenan cuando las necesite.
Crear pequeños applets personalizados para usos de nicho
Hace un tiempo, alguien que conocía estaba luchando por visualizar el estacionamiento en espacios ajustados. En ese momento, abrí Licuadorauna herramienta de modelado y animación en 3D, para visualizar un ejemplo para ella. Más recientemente, intenté ver si podía hacer una herramienta similar en Géminis. Tomó un aviso. Pedí una herramienta animada HTML5 para demostrar estacionamiento, di algunos específicos para lo que quería, y pronto tenía un pequeño applet que era forma Más fácil de hacer de lo que mostré a mi amigo.
Uno podría argumentar muy razonablemente que hay formas más fáciles de codificar esto, o que el código que salió es malo por alguna razón. Pero no sé cómo codificar, al menos no tan bien. Géminis, sin embargo, es bastante bueno en pequeños applets muy simples como este. Simplemente no esperes convertir cualquier cosa que genere a tu jefe si eres un desarrollador.
No Úselo para reemplazar el trabajo creativo o riguroso
Debería ser evidente, pero Gemini (y en este punto, cualquier chatbot de IA) no será un sustituto para pensar por sí mismo. Es muy bueno escribir cualquier cosa interesante o creativa, puede hacer mal hechos o fuentes, y lo más maldito, dirá con confianza que puede hacer o ha hecho algo que es incapaz de hacer.
Al final del día, todavía tienes que trabajar. Dejando a un lado que las herramientas de IA a menudo producen trabajos de bajo esfuerzo, existe la pregunta abierta de si es ético para Use AI para el trabajo o creatividad. La mayoría de las herramientas de IA fueron creadas por raspando datos con derechos de autorincluso de las personas que esas mismas herramientas intentarían reemplazar. (No decir nada de los crecientes costos de electricidad que Toma el entrenamiento de los modelos de IA generativos.)
Las herramientas de IA pueden ser extremadamente útiles cuando se ponen al propósito correcto. Lo admito, estoy escribiendo en parte esto aspiracionalmente. Usar el lienzo de Gemini me dio una idea de cuán útiles podrían ser las herramientas de IA si se centraran en ser una capa interpretativa para las aplicaciones, en lugar de un reemplazo para hacer un trabajo real.
-
Startups12 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales12 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Recursos12 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups10 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Startups12 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos12 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos12 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Noticias10 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo