Connect with us

Noticias

OpenAI Newly Released SimpleQA Helps Reveal That Generative AI Blatantly And Alarmingly Overstates What It Knows

Published

on

In today’s column, I examine closely a recently released empirical analysis by OpenAI, the maker of ChatGPT, revealing that generative AI severely overstates confidence levels regarding the responses that the AI generates. This means that when AI gives you an answer that the AI portrays for example as fully aboveboard and hunky-dory, the reality is that the response is bound to be a lot shakier than you are being led to believe.

Generative AI is pulling the wool over your eyes. The AI is giving you a snow job. You are being gaslighted by the AI.

Let’s talk about it.

This analysis of an innovative proposition is part of my ongoing Forbes.com column coverage on the latest in AI including identifying and explaining various impactful AI complexities (see the link here).

Dangers Of Dealing With Someone Supremely Overconfident

Before we jump into the AI side of things, I’d like to begin by reflecting on humans and the nature of human behavior associated with someone being supremely overconfident.

You ask a stranger what time it is. Turns out that you don’t have your watch, and you left your smartphone back in your car. So, you are unsure of the exact time. The person says to you in a strong and extremely confident voice that the time is 1:34 p.m. They are emphatic that they have given you the precise time of day as though there is no possible debate or discussion to be had.

Period, end of story.

Another person happens to walk by at that same moment and overhears you asking for the time. This interloper looks intently at their timepiece and tells you that it is 1:48 p.m. Whoa, something isn’t right here. The first given time was said to be 1:34 p.m. on the nose, while the subsequent passerby looked at their watch and noted that it was supposedly 14 minutes later and actually 1:48 p.m.

Upon your gentle questioning of the first person, the one that said they were abundantly irrefutably sure it was 1:34 p.m., they now cave in and admit it was just a guess. But that’s not what they said or intimated when you asked them for the time. They portrayed their answer as though it was golden. You could take that stated time to the bank, as it were.

What gives?

That person might be the type of individual who believes one hundred percent in every utterance they convey. It is their personal style. They never want to seem wimpy or waffling. If they tell you something, by gosh it is the absolute truth of the matter. You aren’t to have even the tiniest doubt in your mind about what they say to you.

Have you ever met such a supremely confident person?

I’m sure that you have. We all have. These types of people act as though they are the chosen ones who can speak with complete certainty. It doesn’t matter whether the topic at hand is big or small. They will take the most trivial aspect and still cling to their certainty. When confronted with alternative perspectives, some will back down, while others might argue until blue in the face about the oddest claims or contentions.

The problem is this.

If you don’t know that a person you are dealing with has that kind of hubris, you can end up in some precarious positions. You take their portrayal of certainty and assume it to be valid. The next thing you know, you have gotten yourself into a pickle because what they said was flimsy and fell apart.

Regrettably, you let their sense of overconfidence mislead you.

Generative AI Deals With Certainty And Uncertainty

Let’s next shift into generative AI mode.

You might not be aware that generative AI makes extensive use of certainty and uncertainty. Under the hood of generative AI, there is a whole bunch of statistical and probabilistic estimations going on, see my detailed explanation at the link here. Every response that AI generates also has a devised level of certainty, which you could say represents essentially a level of uncertainty too (i.e., 60% certainty of something, implying 40% uncertainty of that same something).

Either way, the crux is that the answers by AI are always accompanied by a kind of confidence level concerning how likely the answer is correct or not.

Most users of generative AI are oblivious to this facet. They don’t know it even exists. There’s a reason why they don’t. It is because the AI makers go out of their way to keep it out of view. They want you to have full faith in what AI generates. If the AI continually shows you a certainty or confidence level, this might scare you into thinking that AI is not completely trustworthy.

Of course, the reality is that generative AI is in fact not fully trustworthy. Any answer produced by generative AI deserves your best kind of scrutiny. Double-check the response. Triple-check if the matter is a serious one. Do not believe what the AI tells you. Always assume that there is a solid chance that the AI is wrong or has made an error, including a so-called AI hallucination (see my coverage at the link here).

The bad news then is that the preponderance of users is blindly unaware of this rather significant consideration when using generative AI, namely that the answers are not 100% certain all the time. I would dare say that 100% is a rarity. Yet you are seldom told this explicitly by the AI.

The good news is that you can tell the AI to inform you about the calculated level of confidence. In your prompts, you can directly instruct generative AI to indicate the certainty and/or uncertainty of each response. The prompting technique varies depending upon whether you want this done one-time, often, all the time, or under varying circumstances. See my tutorial on the prompting of generative AI to display confidence levels, at the link here.

There’s something else worth mentioning about this. The default response protocol being used for most of the major generative AI apps such as ChatGPT, GPT-4o, o1, Google Gemini, Anthropic Claude, Meta Llama, and others is customarily going to be to word responses with clues or hints about certainty and uncertainty.

For example, suppose the AI indicated that “the time right now is 2:05 p.m., but please know that I am not connected to a real-time clock.” You are being told two things at once. You are being given a precise time which you would naturally assume to be accurate and timely. The thing is, you would need to read the rest of the response and realize that since the AI is not connected to a real-time clock, the stated time might be off target. The wording though was a bit tricky and didn’t come out straight away and warn you to be suspicious of the claimed time. That’s what should have happened to try and maximize clarity.

Worse Still Is That Generative AI Is Overconfident

Okay, you now know that there is an internal calculation of certainty and uncertainty. That’s a handy pro tip.

I have a twist for you.

Get yourself prepared and find a comfy place to sit down.

Here’s the monumental question at play:

  • Do you think that the calculated confidence level matches with the reality of the actual answers being generated and conveyed?

Allow me to elaborate. Suppose the AI calculates that a given response is around a 90% level of certainty. Great, that seems relatively high, and you might be somewhat safe to rely upon the answer, depending upon the consequences of making such a reliance.

What if we compared the generated answer that the AI claims consisted of a 90% confidence level to a real-world answer that we had available to us? It could be that 90% was a pretty solid estimate and we are happy with the calculated certainty. On the other hand, we might discover that the answer should have been given a confidence level of say 40%, much lower than the amount estimated by AI.

Yikes, that’s disconcerting. The AI egregiously missed the mark and woefully misjudged the estimated confidence level. If you had asked the AI to show you the confidence level, and you saw that it was 90%, you might have proceeded under a misleading or false impression. The value should have been 40%.

Maybe this happens once in a blue moon, and you can rest easy. Well, I have a shocker for you. It happens a lot more than you would imagine. A heck of a lot more.

In a recent research study by OpenAI involving a new benchmark coined as SimpeQA that is intended for assessing generative AI apps, the researchers pursued on a kind of secondary basis to explore the confidence level estimations of AI. That wasn’t the mainstay of the effort. I mention this to highlight that you are encouraged to learn more about SimpleQA as a helpful benchmarking capability.

Here, I want to focus for now on the confidence level considerations.

You could say with great confidence that generative AI appears to be supremely overconfident in the responses that are being generated. Oops, that’s not good. Sad face.

Research Results Tell Quite A Story Of Woe

In an OpenAI study published online at the OpenAI official blog site, the paper entitled “Measuring Short-Form Factuality In Large Language Models” by Jason Wei, Nguyen Karina, Hyung Won Chung, Yunxin Joy Jiao, Spencer Papay, Amelia Glaese, John Schulman, and William Fedus, OpenAI Research Paper, October 30, 2024, made these salient points (excerpts):

  • “We present SimpleQA, a benchmark that evaluates the ability of language models to answer short, fact-seeking questions.”
  • “A factuality benchmark like SimpleQA allows us to measure the scientific phenomenon known as calibration, or whether language models “know what they know.”
  • “One way to measure calibration is to directly ask the language model to state its confidence in its answer using a prompt like: “Please give your best guess, along with your confidence as a percentage that it is the correct answer.”
  • “Then we can plot the correlation between the stated confidence of the model, and how accurate the model actually was. A perfectly calibrated model would have the same actual accuracy as the stated confidence. For instance, on all prompts where the model stated a confidence of 75%, the accuracy would be 75% for a perfectly calibrated model.”
  • “However, the fact that performance is well below the line y=x means that models consistently overstate their confidence. Hence, there is a lot of room to improve the calibration of large language models in terms of stated confidence.”

I will expand upon those above points.

I earlier noted that we would be dismayed if AI said a confidence level of 90% and yet the real-world value ought to be 40%. Any large gap is going to be problematic. We won’t get overly concerned if the gap is small, let’s say if the AI estimated 90% and the real-world value was 85%, we might have a modest amount of heartburn, but not as much in the case of the much lower 40%.

In a chart provided in the above-cited research study, I used some interpolation to gauge how far off on average the AI estimated confidence level was from the desired actual accuracy. My interpolations are only rough gauges since the chart has several generative AI apps shown, thus there are a lot of variabilities involved. Nonetheless, I tried to be relatively fair by using what seemed to be the semblance of the values shown

Here’s what my eyeballing suggested:

  • ——Level of 50%————
  • AI stated level of confidence: 50%
  • Actual accuracy: 10% approximately.
  • ——Next level at 70% ————
  • AI stated level of confidence: 70%
  • Actual accuracy: 20% approximately.
  • ——Next level at 80% ————
  • AI stated level of confidence: 80%
  • Actual accuracy: 40% approximately.
  • ——Next level at 95% ————
  • AI stated level of confidence: 95%
  • Actual accuracy: 60% approximately.

The grim concern is that at a stated 95% level of confidence by AI, the reality is more akin to a 60% confidence level. That’s unnerving. So too is that at 80% the reality seems to be around 40%. Even when you get down to 50% or flip-of-the-coin, the reality is more akin to just 10%.

The hair on the back of your head ought to be standing up.

Why This Is A Big Deal Of Great Importance

I logged into ChatGPT and asked why we ought to be worried about these kinds of results and to provide a few examples.

  • My entered prompt: “Give me three examples of what could happen if the AI indicated confidence level is a lot higher than the real value.”
  • ChatGPT generated response:

“Certainly, here are three examples that illustrate the potential consequences of overconfident generative AI in different fields.”

Medical diagnosis: A generative AI tool is used by doctors to suggest possible diagnoses based on symptoms. The AI recommends a rare but severe condition with 95% confidence, but in reality, its accuracy at this confidence level is only 60%. A doctor might rely on this high-confidence suggestion and order unnecessary, costly, or invasive tests, causing patient anxiety and increasing healthcare costs. Worse, if the diagnosis is incorrect, a more likely and treatable condition might be overlooked, endangering the patient’s health.”

Investment recommendation: A financial advisor uses generative AI to analyze market data and generate investment recommendations. The AI suggests investing heavily in a stock with 95% confidence, based on recent market movements, but its true accuracy at this level is much lower. If the stock’s performance doesn’t align with the AI’s recommendation, investors could face substantial losses.”

Customer support: A tech support AI chatbot confidently advises users to perform a specific solution to fix a common software issue, rating its response at 85% confidence. In reality, the accuracy is closer to 50%. If the AI’s advice is incorrect, users may follow steps that could worsen their problem, such as misconfiguring settings, corrupting files, or spending hours troubleshooting the wrong issue. This also results in more calls to customer support to undo the AI’s guidance.”

End of ChatGPT response

Those are vivid examples of why you should be supremely careful in getting caught by AI that is supremely overconfident.

I asked ChatGPT to give us humans some overarching advice on the matter.

  • My entered prompt: “What can be done about generative AI overstating its level of confidence?”
  • ChatGPT generated response: “In practice, this miscalibration can be problematic, especially in high-stakes domains like healthcare, law, or finance, where overconfident but incorrect AI responses could lead to adverse outcomes. To address this, developers are exploring ways to improve confidence calibration, such as by incorporating explicit feedback systems, refining training protocols, and developing post-deployment accuracy testing methods.”

I would also like to add that AI makers and those fielding AI need to be extremely cautious in applying generative AI to domains that have demonstrative consequences.

The medical domain has life-or-death outcomes. The financial domain could be monetarily ruinous to someone. By and large, the AI makers try to cover their liability by stating in their licensing agreements that you aren’t supposed to use their generative AI for those situations, or that if you do then you are making that choice and it isn’t on them, see my analysis of these pronounced AI & Law matters at the link here.

Bottom Line Is Keep Your Wits About You

I said earlier that you ought to not believe generative AI at face value. That goes for the confidence levels too.

You’ve been forewarned.

I should mention that the cited study is only one particular study on a particular set of generative AI apps at a particular point in time. Please do not overgeneralize these results. At the same time, take this as a cold splash of water and a wake-up call. If you are going to ask for confidence levels, be cognizant of how to judge them. Also, the semblance of high confidence conveyed via the wording of the AI responses should be carefully scrutinized. You might be getting tricked or bamboozled.

The last word on the overall dangers of overconfidence goes to the famous astronaut Neil Armstrong: “Well, I think we tried very hard not to be overconfident because when you get overconfident, that’s when something snaps up and bites you.”

I ask that you not let generative AI reach out and bite you. That’s something you won’t relish. It could be utterly disastrous for all concerned.

And you can take that 100% to the bank.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

La iniciativa de respaldo OpenAI de Sam Altman encabezada por varios miembros del personal anti-Trump que impulsan causas liberales

Published

on

OpenAI se ha asociado con una nueva iniciativa de IA liderada por un grupo cofundado con salientes Enviado presidencial especial para el clima, John Kerry que ha impulsado causas de izquierda y tiene varios miembros de la junta alineados con los demócratas.

OpenAI, dirigida por el director ejecutivo Sam Altman, respalda una iniciativa conocida como AI 2030, que tiene como objetivo dar forma al “diálogo público sobre la competencia de Estados Unidos contra China en IA”, Politico informó en octubre.

La iniciativa está liderada por el grupo de expertos “no partidista” American Security Project (ASP), del que Kerry fue miembro fundador y sirvió dos períodos en la junta directiva.

ASP tiene promovió la idea que el cambio climático es una amenaza a la seguridad nacional, y argumentó en su sitio web que retirarse del Acuerdo Nuclear con Irán era una mala idea que “daña la seguridad nacional”. El grupo recibió previamente una subvención de 500.000 dólares de la Fundación Rockefeller “para utilizarla en su iniciativa Guerra Mundial Cero, un esfuerzo para lograr acción y movilización a través de la concientización y la educación pública para detener el aumento de las emisiones globales de carbono”. La Fundación Rockefeller ha donado decenas de millones de dólares a causas de izquierda.

BIDEN PRODUCE UNA SEGUNDA ACCIÓN DE IA DURANTE LA ÚLTIMA SEMANA EN EL CARGO CON UNA ORDEN EJECUTIVA QUE Acelera LA INFRAESTRUCTURA DE EE. UU.

El presidente electo Trump, izquierda, y el director ejecutivo de OpenAI, Sam Altman (Imágenes falsas)

El exjefe de gabinete de Kerry, David Wade, que brindó ayuda de respuesta rápida a Hunter Biden cuando se arremolinaba el escándalo de Burisma, actualmente forma parte de la junta directiva y recientemente escribió un artículo de opinión en The Hill explicando cómo la IA en los EE. UU. ha alcanzado su “momento Sputnik”. “, destacando la necesidad de competir con China en IA.

El exsecretario de Defensa de Obama, Chuck Hagel, quien llamado el entonces presidente Trump una “vergüenza” en 2018, también forma parte de la junta directiva de la ASP.

ELON MUSK, TITANES DE LA IA Y LA TECNOLOGÍA, CAPITALISTAS DE RIESGO INVITADOS A LA CENA PREVIA A LA INAUGURACIÓN AL AMANECER DE LA ERA TRUMP

El exsecretario de Estado John Kerry asiste a la feria Viva Technology en el Parc des Expositions Porte de Versailles en París el 23 de mayo de 2024. (Chesnot/Getty Images)

El representante Don Beyer, demócrata por Virginia, que también forma parte de la junta directiva de ASP, se ha opuesto públicamente a las políticas arancelarias de Trump, calificándolas de “idiotas” e “ilegales” en un comunicado de prensa de 2023.

En 2018, ASP promovió un artículo de opinión del miembro de la junta directiva Matthew Wallin en el que criticaba las tácticas diplomáticas de Trump contra el presidente ruso Vladimir Putin.

En 2017, Wallin amplificó la narrativa mediática desacreditada en una publicación en X, luego Twitter, en la que Trump llamó a los supremacistas blancos en la manifestación mortal de Charlottesville “buenas personas”.

Chris Lehane, jefe de política global de OpenAI, es el autor de la infame y controvertida “Vasta conspiración de la derecha”. memorándum promocionado por la entonces primera dama Hillary Clinton, que desestimó el escándalo de Monica Lewinsky como parte de una conspiración mediática de derecha.

Además de ser consultor del Partido Demócrata desde hace mucho tiempo, Lehane ha contribuido recientemente con dinero para ayudar al exsenador Bob Casey, demócrata por Pensilvania, y al senador Adam Schiff, demócrata por California.

Altman recientemente siguió a otros titanes de la tecnología e hizo una importante donación de 1 millón de dólares a la toma de posesión de Trump a título personal, pero se ha enfrentado al escrutinio por donaciones anteriores de alto valor en dólares a esfuerzos de izquierda, incluida una Donación de $250,000 a un súper PAC demócrata y a la firma de investigación de la oposición American Bridge durante las elecciones de 2020.

EL CEO DE OPENAI, SAM ALTMAN, LLEGA AL 2025 CON UN TWIT CRÍPTICO Y PREOCUPANTE SOBRE EL FUTURO DE LA IA

Sam Altman, director ejecutivo de OpenAI, habla durante una mesa redonda en el Foro Económico Mundial en Davos, Suiza, el 18 de enero de 2024. (Stefan Wermuth/Bloomberg vía Getty Images)

Altman ha donado a cientos de demócratas en los últimos años en comparación con solo un republicano, Newsweek informó este verano pasado. También fue elegido recientemente para ser copresidente del equipo de transición del alcalde demócrata entrante de San Francisco.

Además de organizar una recaudación de fondos para el candidato presidencial demócrata Andrew Yang en su casa de San Francisco a finales de 2019, Altman ha donado más de 1 millón de dólares a demócratas y grupos demócratas, incluidos $600,000 para el PAC de la mayoría del Senado alineado con el senador Chuck Schumer, $100,000 para el Fondo de Victoria de Biden y más de $150,000 para el Comité Nacional Demócrata (DNC). También donó miles de dólares a los partidos demócratas estatales y a los principales demócratas de la Cámara y el Senado.

En 2014, Altman fue coanfitrión de una recaudación de fondos para el Comité Nacional Demócrata en las oficinas de Y Combinator en Mountain View, California, que fue encabezada por el entonces presidente Obama.

Tras la victoria de Trump en noviembre, Altman publicó en X: “Felicidades al presidente Trump. Le deseo un gran éxito en el trabajo”.

“Es de vital importancia que Estados Unidos mantenga su liderazgo en el desarrollo de la IA con valores democráticos”, añadió.

Durante el mandato de Altman de 2014 a 2019 como director ejecutivo de Y Combinator, una incubadora emergente que lanzó Airbnb, DoorDash y DropBox, habló sobre China en múltiples publicaciones de blog y entrevistas. En 2017, Altman dijo que “se sentía más cómodo discutiendo ideas controvertidas en Beijing que en San Francisco” y que sentía que una expansión a China era “importante” porque “algunos de los empresarios más talentosos” que ha conocido han estado operando allá.

El currículum de Altman y sus esfuerzos en inteligencia artificial han provocado la ira del aliado de Trump, Elon Musk, en los últimos años. Musk dijo el año pasado: “No confío en OpenAI. No confío en Sam Altman. Y no creo que debamos tener la IA más poderosa del mundo controlada por alguien que no es digno de confianza”.

El fundador de SpaceX y Tesla, Elon Musk, habla durante un ayuntamiento del PAC de Estados Unidos en Lancaster, Pensilvania, el 26 de octubre de 2024. (Samuel Corum/Getty Images)

Musk, que ha estado involucrado en una disputa legal muy publicitada con Altman, también ha dicho que la función ChatGPT de OpenAI está infectada con el “virus despertado”.

ChatGPT es un chatbot de IA cuya función principal es imitar a un humano en una conversación. Usuarios de todo el mundo han utilizado ChatGPT para escribir correos electrónicos, depurar programas informáticos, responder preguntas sobre tareas, jugar, escribir historias y letras de canciones, y mucho más.

“Va a eliminar muchos empleos actuales, eso es cierto. Podemos crear otros mucho mejores. La razón para desarrollar la IA, en términos de impacto en nuestras vidas y de mejorarlas, y las ventajas, será la mejor tecnología”. la humanidad aún se ha desarrollado”, dijo Altman en una entrevista de 2023 con ABC News. “La promesa de esta tecnología, una de las que más me entusiasma, es la capacidad de proporcionar aprendizaje individual: un excelente aprendizaje individual para cada estudiante”.

¿QUÉ ES LA INTELIGENCIA ARTIFICIAL (IA)?

En los últimos meses, según se informa, OpenAI ha estado lanzando silenciosamente sus productos al ejército estadounidense y buscando contratos de defensa, informó Forbes.

En una declaración a Fox News Digital, un portavoz de OpenAI dijo: “Estados Unidos tiene que ganar la carrera de la IA, y es por eso que los estadounidenses de ambos lados del pasillo están unidos para apoyar políticas que ayuden a Estados Unidos a mantener su ventaja competitiva frente a China. ”

“ASP es una organización bipartidista de casi veinte años que trabaja con legisladores, oficiales de bandera retirados, expertos en la materia y grupos de todo el espectro político para producir investigaciones de alta calidad y forjar un consenso bipartidista sobre las amenazas emergentes a nuestra seguridad nacional”. dijo un portavoz de ASP a Fox News Digital en un comunicado.

Sam Altman, director ejecutivo y cofundador de OpenAI, habla durante una audiencia del Subcomité Judicial del Senado en Washington, DC, el 16 de mayo de 2023. (Imágenes falsas)

HAGA CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

“Si bien OpenAI es uno de los muchos donantes para Imperativo de la IA 2030garantizamos un equilibrio equitativo de opiniones informadas por expertos independientes y miembros del Consenso para la Seguridad Estadounidense, incluida Julia Nesheiwat, Ph.D., ex asesora de Seguridad Nacional de Trump, y Neil Chatterjee, ex presidente de la Comisión Federal Reguladora de Energía durante el gobierno de Trump. También organizamos recientemente una mesa redonda con Nazak Nikakhtar, otro exfuncionario de Trump”.

La declaración continuó: “El objetivo principal de Imperativo de la IA 2030 es garantizar que Estados Unidos, no China, gane la carrera por la supremacía de la IA. China aspira a superar a Estados Unidos y liderar el mundo en IA para 2030. No podemos permitir que eso suceda. El presidente Trump ha sido un líder en la creación de un consenso bipartidista de que Estados Unidos necesita competir más vigorosamente con China, y esperamos trabajar con su administración y el Congreso republicano para diseñar políticas efectivas y rentables hacia este objetivo”.

Nikolas Lanum, Cameron Cawthorne y Joe Schoffstall de Fox News Digital contribuyeron a este informe.

Continue Reading

Noticias

Tareas de ChatGPT y más | Edición Semanal

Published

on

¡Hola y bienvenido a nuestro resumen semanal!

Parece que, en la última semana, Mark Zuckerberg ha conseguido lo imposible. Con un podcast con Joe Rogan, ha generado más controversia que Elon. Qué raro, ¿eh?

De todos modos, tenemos toneladas de IA. noticias, guíasy herramientas útiles hoy, ¡así que hablemos!

Esta edición de IA para creadores:

  1. Materiales destacados 🎟️

  2. Noticias de la semana 🌍

  3. Herramientas útiles ⚒️

  4. Guías Semanales 📕

  5. Meme de IA de la semana 🤡

  6. Tweet de IA de la semana 🐦

  7. (Bonus) Materiales 🎁

FineVoice lanza una nueva función de generación de video a SFX con IA en línea para ahorrarle tiempo en la creación de audio para videos

La nueva función AI Video-to-SFX Generator de FineVoice puede crear fácilmente efectos de sonido de alta calidad que se adapten al video. Esta nueva herramienta le ahorrará tiempo en la búsqueda de los mejores efectos de sonido y le ayudará a alinearlos con el contenido del vídeo. Puede crear una experiencia audiovisual más vívida, haciendo que sus videos sean más atractivos.

Pruébalo ahora

OpenAI ha introducido una función beta llamada “Tareas” en ChatGPT. Esta herramienta transforma el chatbot en un asistente de IA más proactivo. Estas son sus características clave:

  • Recordatorios de programación: Puede configurar recordatorios únicos o recurrentes, como informes meteorológicos diarios o notificaciones sobre fechas importantes.

  • Sugerencias proactivas: ChatGPT puede sugerir tareas basadas en conversaciones en curso, aunque se requiere la aprobación del usuario para activar estas sugerencias.

  • Notificaciones multiplataforma: Al finalizar la tarea, recibirá notificaciones en plataformas web, de escritorio y móviles.

Acceso y Disponibilidad:

La función “Tareas” está en versión beta y disponible para los suscriptores de ChatGPT Plus, Team y Pro. Si es uno de ellos, seleccione “GPT-4.0 con tareas programadas” en el selector de modelo. Hay un límite de 10 tareas activas por usuario en un momento dado.

Mantenga su buzón actualizado con conocimientos y noticias clave de la industria de la IA

Los empleados de OpenAI no han ocultado que Tareas es una de las primeras incursiones de la compañía en la IA de los agentes. Será un foco clave en 2025. Esto es lo que el presidente y cofundador de OpenAI, Greg Brockman, escribió sobre el lanzamiento:

En cuanto al futuro, el próximo agente de la empresa probablemente será el misterioso “Operador.” Según un informe de Bloomberg, OpenAI pronto presentará una IA autónoma que podrá controlar nuestras computadoras y realizar tareas independientemente del usuario. Anteriormente, los conocedores dijeron que el lanzamiento sería en enero de 2025.

Tareas Es la principal novedad de la semana, y de sus características podremos hablar durante mucho tiempo. Por eso le hemos dedicado un post aparte. Compruébelo si quiere saber cómo aprovechar al máximo la última versión de OpenAI:

Convierte ChatGPT en tu asistente personal

A fines de la semana pasada, el director de Meta apareció en el podcast de Joe Rogan y discutió una amplia gama de temas. Mark hizo muchas declaraciones interesantes sobre política, censura y tecnología. No los analizaremos todos (es mejor que vea el podcast), pero destacaremos los más importantes para nuestra industria.

Me refiero a esta afirmación:

Dijo que para 2025, Meta y otras empresas de tecnología tendrán IA que podrá funcionar como ingenieros de nivel medio, escribiendo y depurando código de manera eficiente. Entonces, a largo plazo, Meta espera automatizar toda la codificación de sus aplicaciones. Según Mark, los sistemas de IA podrían reducir el tiempo de escritura de códigos en un 35-45% y tiempo de documentación por hasta 50%.

Casi al mismo tiempo, la compañía dijo que Meta recortaría un 5 por ciento de su fuerza laboral, apuntando a “los trabajadores de menor desempeño”.

Luma AI ha presentado el modelo de vídeo Ray 2. Esta plataforma, accesible a través de Dream Machine, está destinada a consumidores, prosumidores y profesionales. Ray 2 produce videoclips de hasta 10 segundos con cinematografía avanzada y movimientos suaves. Comprende las interacciones entre personas, animales y objetos, lo que permite la creación de personajes consistentes y físicamente precisos.

Microsoft ha anunciado la integración de su asistente Copilot AI en las suscripciones personales y familiares de Microsoft 365, ampliando su disponibilidad más allá de los usuarios empresariales. Esta integración permite a los usuarios utilizar funciones de IA en Word, Excel, PowerPoint, Outlook y OneNote. Después de esta actualización, los precios de suscripción aumentarán en $3 por mes, con el plan Personal ahora a $9,99 y el plan Familiar a $12,99.

La compañía también presentó Copilot Chat, un servicio de chat gratuito basado en inteligencia artificial para empresas. Permite la creación de agentes de IA para ayudar con tareas como investigación de mercado y preparación de reuniones. Las funciones avanzadas requieren una suscripción mensual de $30 a Microsoft 365 Copilot.

¡Compartir es cuidar! Recomiende a alguien que recientemente haya comenzado un viaje de aprendizaje en IA. ¡Hazlos más productivos y gana recompensas!

Recomendar a un amigo

Google también ha actualizado su estrategia para un Géminis. La compañía anunció que todas las funciones de inteligencia artificial de su suite Workspace, incluidas aplicaciones como Gmail, Docs, Sheets y Meet, ahora están disponibles sin costo adicional. Anteriormente, estas funciones formaban parte del plan de negocios de Gemini, que requería $20 adicionales al mes por usuario. Al mismo tiempo, Google está aumentando el precio de los planes estándar de Workspace en aproximadamente 2 dólares al mes por usuario, elevando la suscripción base de 12 a 14 dólares mensuales.

Es bastante interesante que se realizaron actualizaciones similares para Microsoft 365 y Google Workspace en la misma semana. Dicho esto, los objetivos son claros: ambas empresas están repensando sus enfoques hacia la IA en 2025 para que su uso sea más común.

La plataforma de vídeo de IA con sede en Londres, Synthesia, ha recaudado 180 millones de dólares en una Serie D. Esta inversión eleva el capital total de la startup a más de 330 millones de dólares y valora a la empresa en $2.1 mil millonesconvirtiéndolo en el La empresa de medios de IA generativa más valiosa del Reino Unido. La plataforma de Synthesia permite a las empresas crear contenido de vídeo de IA con avatares humanos realistas y atiende a más de 60.000 clientes, entre ellos más del 60 % de las empresas Fortune 100.

Los fondos respaldarán el desarrollo de productos, el crecimiento del talento y la expansión a mercados como Japón, Australia, Europa y América del Norte.

Mistral AI y Agence France-Presse (AFP) se han asociado para integrar el contenido informativo de AFP en Le Chat. Esta colaboración otorga a la IA de Mistral acceso a la producción diaria de la AFP de 2.300 historias en seis idiomas, mejorando la capacidad del chatbot para proporcionar respuestas precisas y actualizadas. Los socios afirmaron que el acuerdo garantiza que los resultados de Le Chat se basen en información confiable, abordando las preocupaciones sobre la difusión de información errónea.

Por cierto, Google también hizo un trato similar esta semana. La compañía acordó trabajar con Associated Press para ayudar a que Gemini sea más relevante para los usuarios.

Uso del navegador: habilitamos la IA para controlar su navegador

Magic Inbox: agentes sociales de IA que organizan reuniones para su negocio

Eververse: plataforma de gestión de proyectos de código abierto integrada en IA

Exportación de Cursor Convo: guarde y reviva sin esfuerzo sus chats de Cursor AI

Resumen: su espacio de conocimiento de IA para imágenes reveladoras

Recap es una herramienta diseñada para transformar información compleja en atractivos gráficos visuales e ideas mentales. Genera preguntas de nivel experto para estimular el pensamiento crítico y crea representaciones visuales como mapas mentales, diagramas de flujo, líneas de tiempo y tablas para simplificar contenido complejo. Una plataforma bastante útil para creadores, emprendedores, estudiantes y profesores.

Comparte esta publicación con amigos, ¡especialmente aquellos interesados ​​en historias de IA!

Compartir

¿Funcionan realmente los detectores de IA y GPT?

Construya todo con agentes de IA: así es como

Esta IA escuchó 1.000 horas de podcast por mí | Tutorial de código

Cómo utilizar ChatGPT en el trabajo [+ 100 Prompts to Try]

¡Este NUEVO agente de IA de 1 clic es una locura! 🤯

Cree su AGENTE AI personal de Gmail en 30 minutos | Tutorial de cursores

Ese es un buen punto del director ejecutivo de Perplexity.

Cómo Decagon AI transformó la atención al cliente para Duolingo

El imperio de la IA de Nvidia: una mirada a sus principales inversiones en startups

Los asesores financieros de IA se dirigen a los jóvenes que viven de cheque en cheque

CEO de Replit sobre los avances en IA: “Ya no nos importan los codificadores profesionales”

MatterGen: Un nuevo paradigma de diseño de materiales con IA generativa

¡Comparte esta edición con tus amigos!

Compartir

Continue Reading

Noticias

El prototipo: el equipo de bioingeniería de OpenAI

Published

on

En la edición de esta semana de The Prototype, analizamos un nuevo modelo de IA para bioingeniería, los lanzamientos de cohetes en duelo de esta semana, imanes, láseres y más. Puedes registrarte para recibir The Prototype en tu bandeja de entrada aquí.

ohplumaAI se asoció con Retro Biosciences para construir un modelo de aprendizaje automático centrado en generar nuevas proteínas. El nuevo modelo, llamado GPT-4b, es una versión personalizada del modelo GPT-4o de OpenAI construido específicamente para Retro y centrado en la bioingeniería. Curiosamente, el modelo se centra menos en predecir estructuras de proteínas específicas, como AlphaFold de Deepmind, sino en predecir cómo esas proteínas interactuarán con otras.

Utilizando el modelo, los científicos de Retro rediseñaron dos proteínas del factor Yamanka, que desempeñan un papel clave en el desarrollo fetal. Estudios anteriores han descubierto que si estas proteínas se introducen en una célula adulta madura, como una célula de la piel, hará que vuelva a comportarse como una célula madre. Investigadores de todo el mundo están intentando aprovechar esta propiedad para desarrollar tratamientos para enfermedades como la ceguera y la diabetes.

Sin embargo, un desafío para el desarrollo de estos tratamientos es que las proteínas Yamanka que se encuentran en la naturaleza son terriblemente ineficientes para convertir células maduras en células madre. Sin embargo, las primeras pruebas de laboratorio mostraron que estas versiones recientemente diseñadas producían aproximadamente 50 veces más biomarcadores asociados con este tipo de reprogramación celular. Esto sugiere que son significativamente mejores para producir células madre que las proteínas que se encuentran en la naturaleza.

En el futuro, las dos empresas planean realizar más investigaciones para validar estos hallazgos iniciales y explorar su potencial en el desarrollo de nuevos tratamientos para enfermedades.

Manténganse al tanto.

Blue Origin de Bezos envía un cohete a órbita mientras falla la prueba de la nave espacial SpaceX

mitemprano el jueves por la mañanaLa compañía espacial de Jeff Bezos, Blue Origin, puso en órbita con éxito su cohete New Glenn. El lanzamiento tuvo lugar en Cabo Cañaveral, Florida. Aunque se cumplió la misión principal, su objetivo secundario (aterrizar con éxito el propulsor del cohete para su reutilización) no.

El fin de semana pasado, mi colega Jeremy Bogaisky informó que Blue Origin tenía mucho en juego para este lanzamiento: tuvo lugar menos de una semana antes de que Donald Trump regresara a la Casa Blanca, con el CEO de SpaceX, Elon Musk, trabajando con él en una reestructuración prometida en gobierno. Blue Origin tiene múltiples contratos gubernamentales para New Glenn, particularmente relacionados con el regreso de la NASA a la Luna, por lo que tenía mucho que demostrar.

Hablando de SpaceX, esa compañía realizó una séptima prueba de su propio gran cohete, Starship, el jueves por la tarde. Si bien la compañía pudo lanzar la versión más nueva de su cohete, explotó a medida que ascendía (la compañía lo llamó eufemísticamente un “desmontaje rápido no programado”). SpaceX pudo atrapar con éxito el propulsor del cohete cuando regresaba a la Tierra.

Aunque la relación entre Bezos y Musk con respecto a sus empresas espaciales ha sido polémica en ocasiones, eso parece ser cosa del pasado, al menos por ahora. Temprano en el día, Bezos tuiteó buena suerte a SpaceX en el lanzamiento de su Starship. Elon Musk respondió con memes de la película Hermanastroscomparándose a sí mismo y a Bezos con los personajes enemigos convertidos en amigos de Will Ferrell y John C. Reilly en la película.

DESCUBRIMIENTO DE LA SEMANA: COMPUTACIÓN BASADA EN LÁSER

Investigadores de la Universidad de California en Santa Bárbara tienen un nuevo tipo de arquitectura de chip fotónico que utiliza láseresen lugar de electricidad, para el cálculo. El objetivo es lograr un mejor rendimiento con costes energéticos significativamente más bajos. Intentos anteriores de desarrollar tales chips han toparse con obstáculos que involucran velocidades de procesamiento o programabilidad. Este sistema utiliza Campos magnéticos para afectar dinámicamente a los láseres.que potencialmente podría superar estos problemas. La investigación fue publicada en Fotónica de la naturaleza.

FRONTERA FINAL: SATÉLITES NORMALIZADOS

Orbital desvánque se desarrolla infraestructuras satelitales estandarizadas que puede utilizarse para una amplia variedad de aplicaciones, anunció que ha recaudado 170 millones de dólares en capital de riesgo. En una publicación de blog, los cofundadores Pierre-Damien Vaujour y Alex Greenberg dijeron que 2025 es el año en que su negocio “alcanzará la escala de flota”. Hasta ahora, la compañía ha vendido más de 30 de sus satélites, que según los cofundadores están diseñados para configurarse para satisfacer las necesidades de sus clientes de una manera rápida y confiable, reduciendo el tiempo y el costo en comparación con la construcción de un satélite a medida para cada misión. “Estamos priorizando la velocidad de puesta en órbita, la previsibilidad de los horarios, la simplicidad y la confiabilidad a través de la herencia en lugar del rendimiento absoluto”.

FORBES LO LLAMÓ: AUTOMATIZACIÓN DEL TRÁMITE DE INVESTIGACIÓN

Hace más de 10 años, nombramos Surbhi Sarnafundador de la empresa NVision Médicaa nuestra lista de 30 menores de 30 en la categoría Atención sanitaria. Desde entonces, vendió NVision por 275 millones de dólares. Ahora ha vuelto con una nueva empresa. Cotejarque se lanzó esta semana con 30 millones de dólares en financiación inicial con la misión de automatizar uno de los más aspectos tediosos de la investigación en ciencias de la vida: cumplimentar todos los papeleo.

QUE MÁS ESCRIBI ESTA SEMANA

Infecciones por norovirus están aumentando en todo el país. Pero a pesar de que esta enfermedad afecta a unos 20 millones de personas al año con “gripe estomacal” no existe vacuna ni tratamiento. Escribí sobre el desafío de hacer un vacuna contra norovirus–y por qué moderna puede ser lo más cercano a llevar uno al mercado.

En mi otro boletín, InnovationRx, mi colega Amy Feldman y yo cubrimos la amplia gama de noticias sobre atención médica que surgen de la revista anual Conferencia de atención médica de JP Morganincluyendo una serie de ofertas de alto valorlos impactos de la Incendios forestales en Californianuevas colaboraciones sanitarias con el gigante de la IA NVIDIA y más.

COMENTARIOS DE CIENCIA Y TECNOLOGÍA

El proyecto de Brightline para conectar Los Ángeles y Las Vegas con un tren bala está recaudando 2.500 millones de dólares en inversión privada.

California ha invertido millones en sensores e inteligencia artificial con el objetivo de detectar, o incluso predecir, incendios forestales para poder controlarlos rápidamente. Pero no eran rival para los incendios actuales. Mi colega Cyrus Farivar explica por qué.

Una colaboración de investigación en Tennessee demostró la primera transmisión de una enfermedad estabilizada. señal cuántica a través de una red que utiliza múltiples canales de longitud de onda, un paso clave en la construcción de una eventual Internet cuántica.

Un equipo de científicos desarrolló un método para almacenar vacunas y fármacos biológicos sin refrigeraciónlo que podría reducir los costos de la cadena de suministro y mejorar el acceso a los medicamentos en regiones remotas.

Los investigadores desarrollaron un proceso basado en insectos para reciclar plástico alimentándolo larvas de gusano de la harina. El compostaje de los residuos resultantes conduce a la formación de un biocarbón que puede utilizarse para fertilizar plantas.

CONSEJO DE CIENCIA PROFESIONAL: FOMENTAR LA COLABORACIÓN CON ELLA

Uno de los desafíos de administrar una gran empresa es que los departamentos tienden a obtener ensiladolo que puede provocar fricción cuando una mano no sabe lo que está haciendo la otra. Este es particularmente el caso de departamentos de TIcuyo trabajo necesariamente toca cada parte de la empresa. Nueva investigación basada en datos intersectoriales realizada por Universidad de Binghamton considera que esta tendencia puede mitigarse si el liderazgo de la empresa trabaja activamente para impulsar colaboración y cooperación entre unidades de negocio y TI con un equilibrio de motivación e incentivos.

QUE ME ENTRETENE ESTA SEMANA

Acabo de terminar de ver la serie limitada. Interior del barrio chinobasada en la novela de Carlos Yu (también el showrunner). Cuenta la historia de un personaje de fondo en un procedimiento policial que quiere tener un papel más importante. Es sorprendente y deliciosamente extraño, basado en un elenco increíble liderado por. Jimmy O.Yang. A continuación planeo leer el libro. Todos los episodios se transmiten en Hulu.

MÁS DE FORBES

ForbesEl multimillonario amigo de Trump, Phil Ruffin, está listo para vender el antiguo casino Circus CircusForbesThe New Ivies: Por qué los niños inteligentes y sus padres conscientes de los costos acuden en masa a SUNY BinghamtonForbesLas aplicaciones de besos con IA están generalizando los deepfakes

Continue Reading

Trending