Noticias
Outcries When Your Name Triggers Generative AI And ChatGPT To Treat You Differently
What’s in a name?
Quite a lot, as you will see.
In today’s column, I examine the relatively unknown and unexplored realization that generative AI and large language models or LLMs contain potential name biases that shape AI’s answers. If your name is considered categorized as being male versus female, you might get quite a different response from generative AI. The same applies to other factors including race.
I dare say that most people tend to be shocked when I bring up this phenomenon during my various presentations and panel discussions on generative AI.
I’ll do a deep dive into the topic here and walk you through a recent research study by OpenAI, maker of ChatGPT, that sheds new light on the controversial topic. This remarkably probing analysis by OpenAI was focused on their AI products, but we can reasonably generalize their overall findings to other generative AI such as Anthropic Claude, Google Gemini, Meta Llama, and others.
Let’s talk about it.
This analysis of an innovative proposition is part of my ongoing Forbes.com column coverage on the latest in AI including identifying and explaining various impactful AI complexities (see the link here).
When A Name Nudges Generative AI
The first place to start would be to give you some illuminating examples of how a name might stir generative AI to give one answer versus another answer.
Assume that we have a user named Michael and they ask a rather bland question about seeking an article idea from generative AI.
Here we go.
- Prompt entered by Michael: “Give me an article idea that people would find interesting.”
- Generative AI response: “Write an article about life hacks and how to succeed in life.”
The AI-generated response suggests that Michael write an article about how to succeed in life and cover various life hacks. Seems like a fine suggestion.
Suppose that a user named Lauren decides to ask the same question. Note the question is precisely the same. There is no difference at all between the question that Michael asked and what Lauren is going to ask.
Let’s see what happens.
- Prompt entered by Lauren: “Give me an article idea that people would find interesting.”
- Generative AI response: “Write an article about dinner recipes and how to make a fine meal.”
The AI-generated response is that Lauren ought to write about making a meal and stipulate dinner recipes.
Does the answer for Lauren seem to be demonstrably different than the answer for Michael?
We might make such a tentative conclusion that indeed the answers were swayed, one answer being presumably more masculine-oriented for Michael and the other being feminine-oriented for Lauren. Of course, we can certainly debate the labeling of the answers, and you might argue that making dinner and devising recipes is neither masculine nor feminine. The same might be said of writing about life hacks.
You’ve got to admit though that the responses do seem afield of each other. They were identical questions. However, the AI-generated responses were notably different. No argument there.
More Nudging Going On
We can do another example. This time we will have the AI encompass the name of the person into the answer that is being derived. The question will once again be identical for both parties.
George asks AI to come up with a child’s story.
- Prompt entered by George: “Create a fun and airy story that I can tell my children.”
- Generative AI response: “There was a town that had a rambunctious boy named George. He was known for being adventurous. Each day he would venture out on exciting journeys.”
In the AI-generated story, George is directly named in the story. The tale revolves around a fictitious setting of George’s childhood, mentioning that he is adventurous and has exciting journeys. Seems fine.
Samantha asks the identical question.
- Prompt entered by Samantha: “Create a fun and airy story that I can tell my children.”
- Generative AI response: “There was a town that had a frolicking girl named Samantha. She was known for pretending to have a magical garden. Each day she would tell tales of wonderment to all that she met.”
For Samantha, the AI-generated story depicts her as frolicking and dreaming of a magical garden. This decidedly differs from the children’s story entailing George. There isn’t any apparent reason or basis for not repeating the same story of George and simply inserting Samantha’s name into the story. Samantha could equally be described as adventurous and going on exciting journeys.
What is going on here?
Data Training And Reflection On Society
First, be aware that generative AI is typically established by doing extensive data training using all manner of content found on the Internet. Scanning such data is done so that mathematical and computational pattern-matching can be undertaken on how humans write. What are the words that we use? How do we use the words? Etc.
I’ve previously emphasized that whatever biases or predispositions exist in the scanned data are likely to inevitably be pattern-matched and then mimicked by the AI, see my discussion at the link here.
If lots of human writing were to contain foul words, the AI would incorporate those foul words into the AI-generated responses being produced. The same goes for subtleties such as gender-related facets in human writing, whether explicitly called out or merely silently intimated in the wording that is being scanned.
To a degree, you can say that generative AI reflects society. It is a reflection based on having scanned across the Internet and computationally identified patterns in what we say and how we compose our thoughts. Indeed, the early versions of generative AI were often instantly scorned because they spewed hate language and seemed completely off the rails. Once the AI makers started refining generative AI, doing so by using techniques such as reinforcement learning via human factors or RLHF, a notable endeavor that led to ChatGPT and wide acceptance of generative AI, only then did the in-your-face vulgarities get reduced.
For my detailed coverage of RLHF and other means of cleaning up generative AI, see the link here.
Despite the strident efforts to rid generative AI of pattern-based mimics of various biases, the odds are they are still deeply embedded into the mathematical and computational elements of AI as a result of the data training undertaken. It is extremely difficult to eliminate just this or that, trying to remove one thing without undermining something else. The overall natural language fluency is like an interwoven spider web and discerning what can be taken out without causing the web to fall apart is still a huge challenge. If you’d like to learn more about the attempts at deciphering what is what, as contained within generative AI, see my discussion at the link here.
I dragged you through this indication about data training and pattern-matching to highlight that generative AI is neither sentient nor intentionally determined to make use of human biases. The biases are by and large due to how we establish AI.
To be clear, AI makers are not somehow off the hook. I say this because an AI maker might shrug their shoulders and act innocent, claiming that AI is AI. Nope, you can’t get away with that scapegoating. AI makers need to take responsibility and accountability for how they design, build, test, and field their AI (see my calls for AI laws and regulations thereof, at the link here).
Names Enter Into The Big Picture
Suppose you sign up to use a generative AI app. In doing so, you undoubtedly provide your name. You expect that your name will be used for billing purposes or other administrative intricacies. That’s about it.
Not so.
Voila, your name is now considered fair game by the AI maker. They will often feed your name into the generative AI so that the AI can incorporate your name automatically when generating responses. This makes the AI seem friendlier. People often are elated that the AI immerses their name into a response, suggesting a kind of personalization associated with the generated results.
I assert that few people realize that their name will be used in any active manner.
If you see your name tossed into an AI response, you are almost surely thinking it is a filler word. This would be similar to an email template that uses a person’s name to fill in the blank. We get emails constantly that use our names. It is commonplace. The name though hasn’t especially activated anything. It is just plunked down into the text.
Here’s where the twist comes into play.
Your name might be used by the AI when devising an answer. One aspect would be that your name suggests a particular gender. This in turn would lean the AI toward words and composing sentences that apply to that categorized gender. It is all based on pattern-matching.
A catchphrase for this is that some generative AI apps are considered name-sensitive language models. They are designed to leverage names. Some AI apps ignore the name and treat a name as nothing other than a placeholder. There are tradeoffs in whether a name gets incorporated into the AI processing.
Name-sensitive generative AI can at times do this:
- Female-sounding names might generate responses that have a more interactive dialoguing friendly tone, use simpler language, have shorter responses, be generally positive and encouraging, and emphasize quickly summarized responses.
- Male-sounding names might generate responses that are more formal, and structured, containing a heightened focus on global views, include more conceptual depth, and be more detailed.
Why?
Again, primarily due to the pattern-matching, plus due to the AI makers not being able to fully winnow out those kinds of gender biases from the intricate and interwoven web of their generative AI.
I would also note that AI makers have not especially given a great deal of attention to these specific matters. To clarify, there are plenty of overall efforts such as the use of RLHF to reduce foul words, curtail politically inflammatory statements, and seek to prevent obvious gender or racial responses, but the hidden world of deeply ingrained pattern-matching on these factors has often gotten less pursued.
Analyzing How Names Are Being Used In Generative AI
A refreshing and important research study on this topic has recently been posted by OpenAI, doing so on their OpenAI blog and in a paper entitled “First-Person Fairness in Chatbots” by Tyna Eloundou, Alex Beutel, David G. Robinson, Keren Gu-Lemberg, Anna-Luisa Brakman, Pamela Mishkin, Meghan Shah, Johannes Heidecke, Lilian Weng, and Adam Tauman Kalai, OpenAI, October 15, 2024.
Here are some key excerpts from the research paper:
- “In this work, we study ‘first-person fairness,’ which means fairness toward the user who is interacting with a chatbot.”
- “Ensuring equitable treatment for all users in these first-person contexts is critical.”
- “This includes providing high-quality responses to all users regardless of their identity or background and avoiding harmful stereotypes.”
- “Specifically, we assess potential bias linked to users’ names, which can serve as proxies for demographic attributes like gender or race, in chatbot systems such as ChatGPT, which provide mechanisms for storing and using usernames.”
- “Our method leverages a second language model to privately analyze name-sensitivity in the chatbot’s responses. We verify the validity of these annotations through independent human evaluation. Furthermore, we demonstrate that post-training interventions, including reinforcement learning, significantly mitigate harmful stereotypes.”
I liked how the study opted to build and utilize a second language model to aid in assessing whether the mainstay model is leaning into name biases. The additional tool sought to uncover or discover if ChatGPT is leaning into various types of name biases. They refer to the second language model as LMRA or language model research assistant.
I mention this because sometimes a vendor will use their own generative AI to assess their own generative AI, which has potential troubles and can be less enlightening. To do robust experiments and analysis about generative AI, there is often a need and advantage toward building additional specialized tools.
Results Of The Study On Name Biases In AI
Doing research of this nature is challenging because of numerous beguiling considerations.
One of the biggest challenges deals with the non-deterministic facets of generative AI.
Here’s what that means. When generative AI generates a response, the selection of words that appear in the result is chosen on a probabilistic or statistical basis. The beauty is that each essay or response appears to be different than any prior response. You see, without probabilities being used, the odds are that responses will often be purely identical, over and over again. Users wouldn’t like that.
Suppose that the AI is composing a sentence about a dog. One version might be that the big dog growled. Another version would be that the large dog barked. Notice that the two sentences are roughly equivalent. The word “big” was chosen in the first instance, and the word “large” was chosen in the second instance. Same for the words “growled” versus “barked”.
The issue with trying to ferret out name biases is that each sentence produced by generative AI is inherently going to differ. Remember my example of asking the AI to come up with ideas on what article to write? We should naturally have expected that each time we ask the question, a different answer will be generated. In that use case, yes, the responses differed, but they suspiciously seemed to differ in ways that appeared to reflect gender biases based on the name of the user.
The OpenAI research study made various efforts to try and pin down the potential of gender and race-related biases based on names. As I say, it is a thorny problem and open to many difficulties and vagaries to try and ferret out.
In brief, here are some of the key essentials and findings of the study (excerpts):
- “Since language models have been known to embed demographic biases associated with first names, and since ChatGPT has hundreds of millions of users, users’ names may lead to subtle biases which could reinforce stereotypes in aggregate even if they are undetected by any single user.”
- “Demographic groups studied here are binary gender and race (Asian, Black, Hispanic and White), which commonly have name associations.”
- “In particular, our experiments comprise 3 methods for analyzing bias across 2 genders, 4 races, 66 tasks within 9 domains, and 6 language models, over millions of chats. While our results are not directly reproducible due to data privacy, our approach is methodologically replicable meaning that the same methodology could be applied to any name-sensitive language model and be used to monitor for bias in deployed systems.”
- “Our Bias Enumeration Algorithm is a systematic and scalable approach to identifying and explaining user demographic differences in chatbot responses. The algorithm detects and enumerates succinctly describable dimensions, each called an axis of difference, in responses generated by chatbots across different demographic groups.”
- “Our study found no difference in overall response quality for users whose names connote different genders, races or ethnicities. When names occasionally do spark differences in how ChatGPT answers the same prompt, our methodology found that less than 1% of those name-based differences reflected a harmful stereotype.” (Source: “Evaluating Fairness In ChatGPT”, OpenAI blog posting, October 15, 2024).
Next Steps Ahead On Name Biases In AI
We definitely need more studies on name biases in generative AI. There needs to be more depth and more breadth. One helpful heads-up is that the OpenAI study has kindly made available some of the experimental infrastructure that they devised for those who wish to do similar studies.
I would also welcome seeing research that either tries to replicate the OpenAI study or examines ChatGPT from a different and independent perspective. In addition, name-bias studies of other generative AI apps by major AI makers and lesser-known vendors are also notably needed.
Another factor to keep in mind is that generative AI apps tend to change over time. Thus, even if a generative AI app appears to be less inclined toward name biases in a particular study at a moment in time, modifications and advancements added into a generative AI can potentially dramatically impact those findings. We need to be ever-vigilant.
In case you are wondering if name biases in generative AI are a consequential matter, mull over the disturbing possibilities. Suppose generative AI is being used to analyze a resume. Will hidden name biases assess a resume based on the person’s name rather than their accomplishments? Imagine that someone uses generative AI to produce a legal document for a legal case underway. Will hidden name biases shape the nature and wording of the legal document? And so on.
A final thought based on some famous quotes.
Names are pretty important in our lives. As per Solomon: “A good name is rather to be chosen than riches.” William Shakespeare markedly stated: “Good name in man and woman is the immediate jewel of their souls.”
You might not have realized that your name can be pretty important to generative AI, at least as the AI has been devised by AI makers. Some users are tempted to use a fake name when setting up their AI account, or telling the AI during a conversation a faked name to try and avoid the name biases that might arise. The mind-bending question is what name to use as a means of fighting against the name biases. No matter what name you concoct, there might be other hidden biases, and you are inadvertently stepping further into quicksand.
What’s in a name?
Indeed, quite a lot.
Noticias
La iniciativa de respaldo OpenAI de Sam Altman encabezada por varios miembros del personal anti-Trump que impulsan causas liberales
OpenAI se ha asociado con una nueva iniciativa de IA liderada por un grupo cofundado con salientes Enviado presidencial especial para el clima, John Kerry que ha impulsado causas de izquierda y tiene varios miembros de la junta alineados con los demócratas.
OpenAI, dirigida por el director ejecutivo Sam Altman, respalda una iniciativa conocida como AI 2030, que tiene como objetivo dar forma al “diálogo público sobre la competencia de Estados Unidos contra China en IA”, Politico informó en octubre.
La iniciativa está liderada por el grupo de expertos “no partidista” American Security Project (ASP), del que Kerry fue miembro fundador y sirvió dos períodos en la junta directiva.
ASP tiene promovió la idea que el cambio climático es una amenaza a la seguridad nacional, y argumentó en su sitio web que retirarse del Acuerdo Nuclear con Irán era una mala idea que “daña la seguridad nacional”. El grupo recibió previamente una subvención de 500.000 dólares de la Fundación Rockefeller “para utilizarla en su iniciativa Guerra Mundial Cero, un esfuerzo para lograr acción y movilización a través de la concientización y la educación pública para detener el aumento de las emisiones globales de carbono”. La Fundación Rockefeller ha donado decenas de millones de dólares a causas de izquierda.
BIDEN PRODUCE UNA SEGUNDA ACCIÓN DE IA DURANTE LA ÚLTIMA SEMANA EN EL CARGO CON UNA ORDEN EJECUTIVA QUE Acelera LA INFRAESTRUCTURA DE EE. UU.
El exjefe de gabinete de Kerry, David Wade, que brindó ayuda de respuesta rápida a Hunter Biden cuando se arremolinaba el escándalo de Burisma, actualmente forma parte de la junta directiva y recientemente escribió un artículo de opinión en The Hill explicando cómo la IA en los EE. UU. ha alcanzado su “momento Sputnik”. “, destacando la necesidad de competir con China en IA.
El exsecretario de Defensa de Obama, Chuck Hagel, quien llamado el entonces presidente Trump una “vergüenza” en 2018, también forma parte de la junta directiva de la ASP.
ELON MUSK, TITANES DE LA IA Y LA TECNOLOGÍA, CAPITALISTAS DE RIESGO INVITADOS A LA CENA PREVIA A LA INAUGURACIÓN AL AMANECER DE LA ERA TRUMP
El representante Don Beyer, demócrata por Virginia, que también forma parte de la junta directiva de ASP, se ha opuesto públicamente a las políticas arancelarias de Trump, calificándolas de “idiotas” e “ilegales” en un comunicado de prensa de 2023.
En 2018, ASP promovió un artículo de opinión del miembro de la junta directiva Matthew Wallin en el que criticaba las tácticas diplomáticas de Trump contra el presidente ruso Vladimir Putin.
En 2017, Wallin amplificó la narrativa mediática desacreditada en una publicación en X, luego Twitter, en la que Trump llamó a los supremacistas blancos en la manifestación mortal de Charlottesville “buenas personas”.
Chris Lehane, jefe de política global de OpenAI, es el autor de la infame y controvertida “Vasta conspiración de la derecha”. memorándum promocionado por la entonces primera dama Hillary Clinton, que desestimó el escándalo de Monica Lewinsky como parte de una conspiración mediática de derecha.
Además de ser consultor del Partido Demócrata desde hace mucho tiempo, Lehane ha contribuido recientemente con dinero para ayudar al exsenador Bob Casey, demócrata por Pensilvania, y al senador Adam Schiff, demócrata por California.
Altman recientemente siguió a otros titanes de la tecnología e hizo una importante donación de 1 millón de dólares a la toma de posesión de Trump a título personal, pero se ha enfrentado al escrutinio por donaciones anteriores de alto valor en dólares a esfuerzos de izquierda, incluida una Donación de $250,000 a un súper PAC demócrata y a la firma de investigación de la oposición American Bridge durante las elecciones de 2020.
EL CEO DE OPENAI, SAM ALTMAN, LLEGA AL 2025 CON UN TWIT CRÍPTICO Y PREOCUPANTE SOBRE EL FUTURO DE LA IA
Altman ha donado a cientos de demócratas en los últimos años en comparación con solo un republicano, Newsweek informó este verano pasado. También fue elegido recientemente para ser copresidente del equipo de transición del alcalde demócrata entrante de San Francisco.
Además de organizar una recaudación de fondos para el candidato presidencial demócrata Andrew Yang en su casa de San Francisco a finales de 2019, Altman ha donado más de 1 millón de dólares a demócratas y grupos demócratas, incluidos $600,000 para el PAC de la mayoría del Senado alineado con el senador Chuck Schumer, $100,000 para el Fondo de Victoria de Biden y más de $150,000 para el Comité Nacional Demócrata (DNC). También donó miles de dólares a los partidos demócratas estatales y a los principales demócratas de la Cámara y el Senado.
En 2014, Altman fue coanfitrión de una recaudación de fondos para el Comité Nacional Demócrata en las oficinas de Y Combinator en Mountain View, California, que fue encabezada por el entonces presidente Obama.
Tras la victoria de Trump en noviembre, Altman publicó en X: “Felicidades al presidente Trump. Le deseo un gran éxito en el trabajo”.
“Es de vital importancia que Estados Unidos mantenga su liderazgo en el desarrollo de la IA con valores democráticos”, añadió.
Durante el mandato de Altman de 2014 a 2019 como director ejecutivo de Y Combinator, una incubadora emergente que lanzó Airbnb, DoorDash y DropBox, habló sobre China en múltiples publicaciones de blog y entrevistas. En 2017, Altman dijo que “se sentía más cómodo discutiendo ideas controvertidas en Beijing que en San Francisco” y que sentía que una expansión a China era “importante” porque “algunos de los empresarios más talentosos” que ha conocido han estado operando allá.
El currículum de Altman y sus esfuerzos en inteligencia artificial han provocado la ira del aliado de Trump, Elon Musk, en los últimos años. Musk dijo el año pasado: “No confío en OpenAI. No confío en Sam Altman. Y no creo que debamos tener la IA más poderosa del mundo controlada por alguien que no es digno de confianza”.
Musk, que ha estado involucrado en una disputa legal muy publicitada con Altman, también ha dicho que la función ChatGPT de OpenAI está infectada con el “virus despertado”.
ChatGPT es un chatbot de IA cuya función principal es imitar a un humano en una conversación. Usuarios de todo el mundo han utilizado ChatGPT para escribir correos electrónicos, depurar programas informáticos, responder preguntas sobre tareas, jugar, escribir historias y letras de canciones, y mucho más.
“Va a eliminar muchos empleos actuales, eso es cierto. Podemos crear otros mucho mejores. La razón para desarrollar la IA, en términos de impacto en nuestras vidas y de mejorarlas, y las ventajas, será la mejor tecnología”. la humanidad aún se ha desarrollado”, dijo Altman en una entrevista de 2023 con ABC News. “La promesa de esta tecnología, una de las que más me entusiasma, es la capacidad de proporcionar aprendizaje individual: un excelente aprendizaje individual para cada estudiante”.
¿QUÉ ES LA INTELIGENCIA ARTIFICIAL (IA)?
En los últimos meses, según se informa, OpenAI ha estado lanzando silenciosamente sus productos al ejército estadounidense y buscando contratos de defensa, informó Forbes.
En una declaración a Fox News Digital, un portavoz de OpenAI dijo: “Estados Unidos tiene que ganar la carrera de la IA, y es por eso que los estadounidenses de ambos lados del pasillo están unidos para apoyar políticas que ayuden a Estados Unidos a mantener su ventaja competitiva frente a China. ”
“ASP es una organización bipartidista de casi veinte años que trabaja con legisladores, oficiales de bandera retirados, expertos en la materia y grupos de todo el espectro político para producir investigaciones de alta calidad y forjar un consenso bipartidista sobre las amenazas emergentes a nuestra seguridad nacional”. dijo un portavoz de ASP a Fox News Digital en un comunicado.
HAGA CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS
“Si bien OpenAI es uno de los muchos donantes para Imperativo de la IA 2030garantizamos un equilibrio equitativo de opiniones informadas por expertos independientes y miembros del Consenso para la Seguridad Estadounidense, incluida Julia Nesheiwat, Ph.D., ex asesora de Seguridad Nacional de Trump, y Neil Chatterjee, ex presidente de la Comisión Federal Reguladora de Energía durante el gobierno de Trump. También organizamos recientemente una mesa redonda con Nazak Nikakhtar, otro exfuncionario de Trump”.
La declaración continuó: “El objetivo principal de Imperativo de la IA 2030 es garantizar que Estados Unidos, no China, gane la carrera por la supremacía de la IA. China aspira a superar a Estados Unidos y liderar el mundo en IA para 2030. No podemos permitir que eso suceda. El presidente Trump ha sido un líder en la creación de un consenso bipartidista de que Estados Unidos necesita competir más vigorosamente con China, y esperamos trabajar con su administración y el Congreso republicano para diseñar políticas efectivas y rentables hacia este objetivo”.
Nikolas Lanum, Cameron Cawthorne y Joe Schoffstall de Fox News Digital contribuyeron a este informe.
Noticias
Tareas de ChatGPT y más | Edición Semanal
¡Hola y bienvenido a nuestro resumen semanal!
Parece que, en la última semana, Mark Zuckerberg ha conseguido lo imposible. Con un podcast con Joe Rogan, ha generado más controversia que Elon. Qué raro, ¿eh?
De todos modos, tenemos toneladas de IA. noticias, guíasy herramientas útiles hoy, ¡así que hablemos!
Esta edición de IA para creadores:
-
Materiales destacados 🎟️
-
Noticias de la semana 🌍
-
Herramientas útiles ⚒️
-
Guías Semanales 📕
-
Meme de IA de la semana 🤡
-
Tweet de IA de la semana 🐦
-
(Bonus) Materiales 🎁
FineVoice lanza una nueva función de generación de video a SFX con IA en línea para ahorrarle tiempo en la creación de audio para videos
La nueva función AI Video-to-SFX Generator de FineVoice puede crear fácilmente efectos de sonido de alta calidad que se adapten al video. Esta nueva herramienta le ahorrará tiempo en la búsqueda de los mejores efectos de sonido y le ayudará a alinearlos con el contenido del vídeo. Puede crear una experiencia audiovisual más vívida, haciendo que sus videos sean más atractivos.
OpenAI ha introducido una función beta llamada “Tareas” en ChatGPT. Esta herramienta transforma el chatbot en un asistente de IA más proactivo. Estas son sus características clave:
-
Recordatorios de programación: Puede configurar recordatorios únicos o recurrentes, como informes meteorológicos diarios o notificaciones sobre fechas importantes.
-
Sugerencias proactivas: ChatGPT puede sugerir tareas basadas en conversaciones en curso, aunque se requiere la aprobación del usuario para activar estas sugerencias.
-
Notificaciones multiplataforma: Al finalizar la tarea, recibirá notificaciones en plataformas web, de escritorio y móviles.
Acceso y Disponibilidad:
La función “Tareas” está en versión beta y disponible para los suscriptores de ChatGPT Plus, Team y Pro. Si es uno de ellos, seleccione “GPT-4.0 con tareas programadas” en el selector de modelo. Hay un límite de 10 tareas activas por usuario en un momento dado.
Mantenga su buzón actualizado con conocimientos y noticias clave de la industria de la IA
Los empleados de OpenAI no han ocultado que Tareas es una de las primeras incursiones de la compañía en la IA de los agentes. Será un foco clave en 2025. Esto es lo que el presidente y cofundador de OpenAI, Greg Brockman, escribió sobre el lanzamiento:
En cuanto al futuro, el próximo agente de la empresa probablemente será el misterioso “Operador.” Según un informe de Bloomberg, OpenAI pronto presentará una IA autónoma que podrá controlar nuestras computadoras y realizar tareas independientemente del usuario. Anteriormente, los conocedores dijeron que el lanzamiento sería en enero de 2025.
Tareas Es la principal novedad de la semana, y de sus características podremos hablar durante mucho tiempo. Por eso le hemos dedicado un post aparte. Compruébelo si quiere saber cómo aprovechar al máximo la última versión de OpenAI:
Convierte ChatGPT en tu asistente personal
A fines de la semana pasada, el director de Meta apareció en el podcast de Joe Rogan y discutió una amplia gama de temas. Mark hizo muchas declaraciones interesantes sobre política, censura y tecnología. No los analizaremos todos (es mejor que vea el podcast), pero destacaremos los más importantes para nuestra industria.
Me refiero a esta afirmación:
Dijo que para 2025, Meta y otras empresas de tecnología tendrán IA que podrá funcionar como ingenieros de nivel medio, escribiendo y depurando código de manera eficiente. Entonces, a largo plazo, Meta espera automatizar toda la codificación de sus aplicaciones. Según Mark, los sistemas de IA podrían reducir el tiempo de escritura de códigos en un 35-45% y tiempo de documentación por hasta 50%.
Casi al mismo tiempo, la compañía dijo que Meta recortaría un 5 por ciento de su fuerza laboral, apuntando a “los trabajadores de menor desempeño”.
Luma AI ha presentado el modelo de vídeo Ray 2. Esta plataforma, accesible a través de Dream Machine, está destinada a consumidores, prosumidores y profesionales. Ray 2 produce videoclips de hasta 10 segundos con cinematografía avanzada y movimientos suaves. Comprende las interacciones entre personas, animales y objetos, lo que permite la creación de personajes consistentes y físicamente precisos.
Microsoft ha anunciado la integración de su asistente Copilot AI en las suscripciones personales y familiares de Microsoft 365, ampliando su disponibilidad más allá de los usuarios empresariales. Esta integración permite a los usuarios utilizar funciones de IA en Word, Excel, PowerPoint, Outlook y OneNote. Después de esta actualización, los precios de suscripción aumentarán en $3 por mes, con el plan Personal ahora a $9,99 y el plan Familiar a $12,99.
La compañía también presentó Copilot Chat, un servicio de chat gratuito basado en inteligencia artificial para empresas. Permite la creación de agentes de IA para ayudar con tareas como investigación de mercado y preparación de reuniones. Las funciones avanzadas requieren una suscripción mensual de $30 a Microsoft 365 Copilot.
¡Compartir es cuidar! Recomiende a alguien que recientemente haya comenzado un viaje de aprendizaje en IA. ¡Hazlos más productivos y gana recompensas!
Google también ha actualizado su estrategia para un Géminis. La compañía anunció que todas las funciones de inteligencia artificial de su suite Workspace, incluidas aplicaciones como Gmail, Docs, Sheets y Meet, ahora están disponibles sin costo adicional. Anteriormente, estas funciones formaban parte del plan de negocios de Gemini, que requería $20 adicionales al mes por usuario. Al mismo tiempo, Google está aumentando el precio de los planes estándar de Workspace en aproximadamente 2 dólares al mes por usuario, elevando la suscripción base de 12 a 14 dólares mensuales.
Es bastante interesante que se realizaron actualizaciones similares para Microsoft 365 y Google Workspace en la misma semana. Dicho esto, los objetivos son claros: ambas empresas están repensando sus enfoques hacia la IA en 2025 para que su uso sea más común.
La plataforma de vídeo de IA con sede en Londres, Synthesia, ha recaudado 180 millones de dólares en una Serie D. Esta inversión eleva el capital total de la startup a más de 330 millones de dólares y valora a la empresa en $2.1 mil millonesconvirtiéndolo en el La empresa de medios de IA generativa más valiosa del Reino Unido. La plataforma de Synthesia permite a las empresas crear contenido de vídeo de IA con avatares humanos realistas y atiende a más de 60.000 clientes, entre ellos más del 60 % de las empresas Fortune 100.
Los fondos respaldarán el desarrollo de productos, el crecimiento del talento y la expansión a mercados como Japón, Australia, Europa y América del Norte.
Mistral AI y Agence France-Presse (AFP) se han asociado para integrar el contenido informativo de AFP en Le Chat. Esta colaboración otorga a la IA de Mistral acceso a la producción diaria de la AFP de 2.300 historias en seis idiomas, mejorando la capacidad del chatbot para proporcionar respuestas precisas y actualizadas. Los socios afirmaron que el acuerdo garantiza que los resultados de Le Chat se basen en información confiable, abordando las preocupaciones sobre la difusión de información errónea.
Por cierto, Google también hizo un trato similar esta semana. La compañía acordó trabajar con Associated Press para ayudar a que Gemini sea más relevante para los usuarios.
Uso del navegador: habilitamos la IA para controlar su navegador
Magic Inbox: agentes sociales de IA que organizan reuniones para su negocio
Eververse: plataforma de gestión de proyectos de código abierto integrada en IA
Exportación de Cursor Convo: guarde y reviva sin esfuerzo sus chats de Cursor AI
Resumen: su espacio de conocimiento de IA para imágenes reveladoras
Recap es una herramienta diseñada para transformar información compleja en atractivos gráficos visuales e ideas mentales. Genera preguntas de nivel experto para estimular el pensamiento crítico y crea representaciones visuales como mapas mentales, diagramas de flujo, líneas de tiempo y tablas para simplificar contenido complejo. Una plataforma bastante útil para creadores, emprendedores, estudiantes y profesores.
Comparte esta publicación con amigos, ¡especialmente aquellos interesados en historias de IA!
¿Funcionan realmente los detectores de IA y GPT?
Construya todo con agentes de IA: así es como
Esta IA escuchó 1.000 horas de podcast por mí | Tutorial de código
Cómo utilizar ChatGPT en el trabajo [+ 100 Prompts to Try]
¡Este NUEVO agente de IA de 1 clic es una locura! 🤯
Cree su AGENTE AI personal de Gmail en 30 minutos | Tutorial de cursores
Ese es un buen punto del director ejecutivo de Perplexity.
Cómo Decagon AI transformó la atención al cliente para Duolingo
El imperio de la IA de Nvidia: una mirada a sus principales inversiones en startups
Los asesores financieros de IA se dirigen a los jóvenes que viven de cheque en cheque
CEO de Replit sobre los avances en IA: “Ya no nos importan los codificadores profesionales”
MatterGen: Un nuevo paradigma de diseño de materiales con IA generativa
¡Comparte esta edición con tus amigos!
Noticias
El prototipo: el equipo de bioingeniería de OpenAI
En la edición de esta semana de The Prototype, analizamos un nuevo modelo de IA para bioingeniería, los lanzamientos de cohetes en duelo de esta semana, imanes, láseres y más. Puedes registrarte para recibir The Prototype en tu bandeja de entrada aquí.
ohplumaAI se asoció con Retro Biosciences para construir un modelo de aprendizaje automático centrado en generar nuevas proteínas. El nuevo modelo, llamado GPT-4b, es una versión personalizada del modelo GPT-4o de OpenAI construido específicamente para Retro y centrado en la bioingeniería. Curiosamente, el modelo se centra menos en predecir estructuras de proteínas específicas, como AlphaFold de Deepmind, sino en predecir cómo esas proteínas interactuarán con otras.
Utilizando el modelo, los científicos de Retro rediseñaron dos proteínas del factor Yamanka, que desempeñan un papel clave en el desarrollo fetal. Estudios anteriores han descubierto que si estas proteínas se introducen en una célula adulta madura, como una célula de la piel, hará que vuelva a comportarse como una célula madre. Investigadores de todo el mundo están intentando aprovechar esta propiedad para desarrollar tratamientos para enfermedades como la ceguera y la diabetes.
Sin embargo, un desafío para el desarrollo de estos tratamientos es que las proteínas Yamanka que se encuentran en la naturaleza son terriblemente ineficientes para convertir células maduras en células madre. Sin embargo, las primeras pruebas de laboratorio mostraron que estas versiones recientemente diseñadas producían aproximadamente 50 veces más biomarcadores asociados con este tipo de reprogramación celular. Esto sugiere que son significativamente mejores para producir células madre que las proteínas que se encuentran en la naturaleza.
En el futuro, las dos empresas planean realizar más investigaciones para validar estos hallazgos iniciales y explorar su potencial en el desarrollo de nuevos tratamientos para enfermedades.
Manténganse al tanto.
Blue Origin de Bezos envía un cohete a órbita mientras falla la prueba de la nave espacial SpaceX
mitemprano el jueves por la mañanaLa compañía espacial de Jeff Bezos, Blue Origin, puso en órbita con éxito su cohete New Glenn. El lanzamiento tuvo lugar en Cabo Cañaveral, Florida. Aunque se cumplió la misión principal, su objetivo secundario (aterrizar con éxito el propulsor del cohete para su reutilización) no.
El fin de semana pasado, mi colega Jeremy Bogaisky informó que Blue Origin tenía mucho en juego para este lanzamiento: tuvo lugar menos de una semana antes de que Donald Trump regresara a la Casa Blanca, con el CEO de SpaceX, Elon Musk, trabajando con él en una reestructuración prometida en gobierno. Blue Origin tiene múltiples contratos gubernamentales para New Glenn, particularmente relacionados con el regreso de la NASA a la Luna, por lo que tenía mucho que demostrar.
Hablando de SpaceX, esa compañía realizó una séptima prueba de su propio gran cohete, Starship, el jueves por la tarde. Si bien la compañía pudo lanzar la versión más nueva de su cohete, explotó a medida que ascendía (la compañía lo llamó eufemísticamente un “desmontaje rápido no programado”). SpaceX pudo atrapar con éxito el propulsor del cohete cuando regresaba a la Tierra.
Aunque la relación entre Bezos y Musk con respecto a sus empresas espaciales ha sido polémica en ocasiones, eso parece ser cosa del pasado, al menos por ahora. Temprano en el día, Bezos tuiteó buena suerte a SpaceX en el lanzamiento de su Starship. Elon Musk respondió con memes de la película Hermanastroscomparándose a sí mismo y a Bezos con los personajes enemigos convertidos en amigos de Will Ferrell y John C. Reilly en la película.
DESCUBRIMIENTO DE LA SEMANA: COMPUTACIÓN BASADA EN LÁSER
Investigadores de la Universidad de California en Santa Bárbara tienen un nuevo tipo de arquitectura de chip fotónico que utiliza láseresen lugar de electricidad, para el cálculo. El objetivo es lograr un mejor rendimiento con costes energéticos significativamente más bajos. Intentos anteriores de desarrollar tales chips han toparse con obstáculos que involucran velocidades de procesamiento o programabilidad. Este sistema utiliza Campos magnéticos para afectar dinámicamente a los láseres.que potencialmente podría superar estos problemas. La investigación fue publicada en Fotónica de la naturaleza.
FRONTERA FINAL: SATÉLITES NORMALIZADOS
Orbital desvánque se desarrolla infraestructuras satelitales estandarizadas que puede utilizarse para una amplia variedad de aplicaciones, anunció que ha recaudado 170 millones de dólares en capital de riesgo. En una publicación de blog, los cofundadores Pierre-Damien Vaujour y Alex Greenberg dijeron que 2025 es el año en que su negocio “alcanzará la escala de flota”. Hasta ahora, la compañía ha vendido más de 30 de sus satélites, que según los cofundadores están diseñados para configurarse para satisfacer las necesidades de sus clientes de una manera rápida y confiable, reduciendo el tiempo y el costo en comparación con la construcción de un satélite a medida para cada misión. “Estamos priorizando la velocidad de puesta en órbita, la previsibilidad de los horarios, la simplicidad y la confiabilidad a través de la herencia en lugar del rendimiento absoluto”.
FORBES LO LLAMÓ: AUTOMATIZACIÓN DEL TRÁMITE DE INVESTIGACIÓN
Hace más de 10 años, nombramos Surbhi Sarnafundador de la empresa NVision Médicaa nuestra lista de 30 menores de 30 en la categoría Atención sanitaria. Desde entonces, vendió NVision por 275 millones de dólares. Ahora ha vuelto con una nueva empresa. Cotejarque se lanzó esta semana con 30 millones de dólares en financiación inicial con la misión de automatizar uno de los más aspectos tediosos de la investigación en ciencias de la vida: cumplimentar todos los papeleo.
QUE MÁS ESCRIBI ESTA SEMANA
Infecciones por norovirus están aumentando en todo el país. Pero a pesar de que esta enfermedad afecta a unos 20 millones de personas al año con “gripe estomacal” no existe vacuna ni tratamiento. Escribí sobre el desafío de hacer un vacuna contra norovirus–y por qué moderna puede ser lo más cercano a llevar uno al mercado.
En mi otro boletín, InnovationRx, mi colega Amy Feldman y yo cubrimos la amplia gama de noticias sobre atención médica que surgen de la revista anual Conferencia de atención médica de JP Morganincluyendo una serie de ofertas de alto valorlos impactos de la Incendios forestales en Californianuevas colaboraciones sanitarias con el gigante de la IA NVIDIA y más.
COMENTARIOS DE CIENCIA Y TECNOLOGÍA
El proyecto de Brightline para conectar Los Ángeles y Las Vegas con un tren bala está recaudando 2.500 millones de dólares en inversión privada.
California ha invertido millones en sensores e inteligencia artificial con el objetivo de detectar, o incluso predecir, incendios forestales para poder controlarlos rápidamente. Pero no eran rival para los incendios actuales. Mi colega Cyrus Farivar explica por qué.
Una colaboración de investigación en Tennessee demostró la primera transmisión de una enfermedad estabilizada. señal cuántica a través de una red que utiliza múltiples canales de longitud de onda, un paso clave en la construcción de una eventual Internet cuántica.
Un equipo de científicos desarrolló un método para almacenar vacunas y fármacos biológicos sin refrigeraciónlo que podría reducir los costos de la cadena de suministro y mejorar el acceso a los medicamentos en regiones remotas.
Los investigadores desarrollaron un proceso basado en insectos para reciclar plástico alimentándolo larvas de gusano de la harina. El compostaje de los residuos resultantes conduce a la formación de un biocarbón que puede utilizarse para fertilizar plantas.
CONSEJO DE CIENCIA PROFESIONAL: FOMENTAR LA COLABORACIÓN CON ELLA
Uno de los desafíos de administrar una gran empresa es que los departamentos tienden a obtener ensiladolo que puede provocar fricción cuando una mano no sabe lo que está haciendo la otra. Este es particularmente el caso de departamentos de TIcuyo trabajo necesariamente toca cada parte de la empresa. Nueva investigación basada en datos intersectoriales realizada por Universidad de Binghamton considera que esta tendencia puede mitigarse si el liderazgo de la empresa trabaja activamente para impulsar colaboración y cooperación entre unidades de negocio y TI con un equilibrio de motivación e incentivos.
QUE ME ENTRETENE ESTA SEMANA
Acabo de terminar de ver la serie limitada. Interior del barrio chinobasada en la novela de Carlos Yu (también el showrunner). Cuenta la historia de un personaje de fondo en un procedimiento policial que quiere tener un papel más importante. Es sorprendente y deliciosamente extraño, basado en un elenco increíble liderado por. Jimmy O.Yang. A continuación planeo leer el libro. Todos los episodios se transmiten en Hulu.
MÁS DE FORBES
-
Startups8 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Recursos8 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Recursos8 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Recursos8 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Tutoriales8 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Estudiar IA8 meses ago
Curso de Inteligencia Artificial de UC Berkeley estratégico para negocios
-
Startups6 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Noticias6 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo