Noticias
Writing The Best Generative AI Prompts Gets Revealed Via OpenAI Secret Meta-Prompts
In today’s column, I examine OpenAI’s special newly revealed meta-prompts that are used to supersize and improve the prompts that you enter into generative AI. Various media reports on the posting of OpenAI’s meta-prompts have been referring to them as a kind of secret sauce. Well, the secret is out now, and we can all relish and learn valuable lessons by inspecting the vital ingredients.
Let’s talk about it.
This analysis of an innovative proposition is part of my ongoing Forbes.com column coverage on the latest in AI including identifying and explaining various impactful AI complexities (see the link here).
Meta-Prompts Are Cool
What is a meta-prompt?
I’m glad you asked.
A meta-prompt is construed as any prompt that focuses on improving the composition of prompts and seeks to boost a given prompt into being a better prompt.
That probably seems a roundabout definition and a bit confusing. No worries. Let’s clear things up with a quick example.
I opted to log into ChatGPT and tell the AI that I wanted it to go ahead and have the AI improve my prompts. It will work like this. Each time that I enter a prompt, the aim is to have ChatGPT first enhance the prompt, before actually processing the prompt. This makes abundant sense because sometimes a user enters a prompt that is not fully up-to-speed on identifying what they want the AI to do. The AI can initially scrutinize the prompt and potentially make it a more on-target prompt.
Here we go.
- My entered prompt: “I want you to improve my prompts. Whenever I enter a prompt, revise it to make it into a better prompt and show me what that prompt is.”
- ChatGPT generated response: “Got it! Just drop in your prompts, and I’ll help refine them.”
- My entered prompt: “Was Abraham Lincoln a stamp collector?”
- ChatGPT generated response: “Your original prompt is clear, but we can enhance it by asking for more context about Lincoln’s hobbies and whether there’s any historical documentation about stamp collecting in his era. Here’s an improved version: “Did Abraham Lincoln ever engage in stamp collecting, or are there any historical records that suggest he had an interest in philately or similar hobbies during his lifetime?”
Do you see what happened there?
I told ChatGPT that I wanted it to improve my prompts. In a sense, that particular instruction is considered a meta-prompt. It is a meta-prompt because it provides instructions or indications about the nature of prompts and prompting.
Next, I entered this prompt: “Was Abraham Lincoln a stamp collector?”
ChatGPT improved my prompt: “Did Abraham Lincoln ever engage in stamp collecting, or are there any historical records that suggest he had an interest in philately or similar hobbies during his lifetime?”
Why was the ChatGPT-generated prompt better than my original prompt? You can see that ChatGPT explained the basis for making the improvements, namely that my original prompt was rather vague. The revised prompt gives additional clues and makes clearer what I might want in the result or outcome of the prompt.
Nice.
Not only can the AI briskly improve your prompt, but it can potentially supersize your prompt by adding all manner of specialized prompting techniques. This is especially handy if you aren’t already familiar with the ins and outs of advanced prompting techniques. The AI can readily do the heavy lifting for you and add notable wording that boosts your original prompt.
For my comprehensive discussion and analysis of over fifty advanced prompting techniques, see the link here.
Having Meta-Prompts Hidden Behind The Scenes
In my example, I overtly entered a prompt that told ChatGPT about making prompting improvements. You can always do this if you wish to do so, whenever you like. Plus, the same kind of meta-prompt instruction works for just about any major generative AI, including Claude, Gemini, Llama, etc.
Using an explicit meta-prompt might be a handy-dandy starter prompt that you enter at the beginning of any conversation. Henceforth, during that conversation, the AI will improve your prompts. Or simply use it whenever you are getting to a point where having the AI bolster your prompts seems a wise move.
The AI makers realize that people often need help in composing their prompts. A clever ploy by AI makers entails having a secret meta-prompt that you don’t know exists, and for which the generative AI has been quietly seeded. The meta-prompt is often hidden within the generative AI and automatically gets activated each time you log into your account.
One big question is whether you ought to be able to see the bolstered prompt that is being fostered via the meta-prompt instructions.
Allow me to explain.
It could be that the meta-prompt secretly works to boost your initial prompt and then immediately feeds the bolstered or revised prompt into the generative processing. Thus, you aren’t shown the revised prompt. All that you see is that you entered a prompt, and a generated result came out. The reality that your prompt was revised doesn’t get presented to you.
This can be good or bad.
The good news is that you might not care how your prompt was revised and only care about the final generated results. In that sense, as long as the outcomes are solid, whatever hidden magic is taking place is fine with you.
On the other hand, you might be keenly interested in seeing the revised prompt, especially before it is processed. Maybe the AI messed up and worsened your prompt. That’s certainly a realistic possibility, though typically rare. Another facet is that by seeing the revised prompts, you can learn how to better compose your prompts from the get-go.
OpenAI Tells About Their Meta-Prompts
In a posting on the OpenAI official blog, there are now details about meta-prompts.
Per the OpenAI blog posting on Prompt Generation, here are some key facets regarding the nature of their meta-prompts (excerpts):
- “Creating prompts and schemas from scratch can be time-consuming, so generating them can help you get started quickly.”
- “We use meta-prompts that incorporate best practices to generate or improve prompts.”
- “A meta-prompt instructs the model to create a good prompt based on your task description or improve an existing one.”
- “We use specific meta-prompts for different output types, like audio, to ensure the generated prompts meet the expected format.”
A crucial aspect of meta-prompts, when devised by an AI maker, is that they hopefully have mindfully studied how best to improve prompts. They can then craft their meta-prompts with numerous best practice instructions concerning composing prompts. You could say that they are in a great position to leverage what we know as amazing prompting strategies from the field of prompt engineering.
Ten Prompting Rules Distilled From The Meta-Prompt
Let’s now closely inspect a meta-prompt that OpenAI showcased at the Prompt Generation blog. There are other sample meta-prompts but I thought this one seems straightforward and exemplifies what a meta-prompt might conventionally contain.
First, they essentially provide overall guidance about what the meta-prompt is supposed to do:
- “Given a task description or existing prompt, produce a detailed system prompt to guide a language model in completing the task effectively.”
I will show you the text of the rest of the meta-prompt in a moment.
I decided to do a bit of a translation of the meta-prompt into something a bit more readable. I condensed the meta-prompt into these ten overarching elements:
- (1) Understand the task that is associated with the original prompt.
- (2) Make minimal changes to the original prompt.
- (3) Ensure that the revised prompt places any reasoning steps upfront and before any included conclusion portion.
- (4) Explicitly stipulate in the revised prompt what portion consists of reasoning steps, and what consists of conclusions, and then make sure to sequence them with the reasoning steps listed first.
- (5) Have the revised prompt contain conclusions as the last or final part of the prompt.
- (6) Insert examples into the prompt.
- (7) Clean up the prompt and make sure it is as concise as reasonably possible.
- (8) Use special formatting markdown indications to specify the desired output of the prompt processing results.
- (9) As much as practical, preserve the original prompt, but if clarity can be improved it is okay to divide the prompt into various sub-portions and sub-steps.
- (10) Go ahead and preserve any constants that are in the original prompt and carry them over into the revised prompt.
Keep in mind that those are the elements within the meta-prompt and are telling the AI how to proceed on improving prompts that are entered by the user.
By and large, when I teach my classes on prompt engineering, those are the same kinds of recommended best practices that I cover. The best practices can be in your noggin and undertaken by hand, or in this case the meta-prompt will get the AI to do so on your behalf.
Interleaving The Ten Rules With The Meta-Prompt Text
I’m sure that you are eager to see the actual text used in the meta-prompt. I show you my commentary version and then next show the relevant text from the actual meta-prompt.
(1) My comment: Understand the task that is associated with the original prompt.
- Meta-prompt text: “Understand the Task: Grasp the main objective, goals, requirements, constraints, and expected output.”
(2) My comment: Make minimal changes to the original prompt.
- Meta-prompt text: “Minimal Changes: If an existing prompt is provided, improve it only if it’s simple. For complex prompts, enhance clarity and add missing elements without altering the original structure.”
(3) My comment: Ensure that the revised prompt places any reasoning steps upfront and before any included conclusion portion.
- Meta-prompt text: “Reasoning Before Conclusions: Encourage reasoning steps before any conclusions are reached. ATTENTION! If the user provides examples where the reasoning happens afterward, REVERSE the order! NEVER START EXAMPLES WITH CONCLUSIONS!”
(4) My comment: Explicitly stipulate in the revised prompt what portion consists of reasoning steps, and what consists of conclusions, and then make sure to sequence them with the reasoning steps listed first.
- Meta-prompt text: “Reasoning Order: Call out reasoning portions of the prompt and conclusion parts (specific fields by name). For each, determine the ORDER in which this is done, and whether it needs to be reversed.”
(5) My comment: Have the revised prompt contain conclusions as the last or final part of the prompt.
- Meta-prompt text: “Conclusion, classifications, or results should ALWAYS appear last.”
(6) My comment: Insert examples into the prompt.
- Meta-prompt text: “Examples: Include high-quality examples if helpful, using placeholders [in brackets] for complex elements. What kinds of examples may need to be included, how many, and whether they are complex enough to benefit from placeholders.”
(7) My comment: Clean up the prompt and make sure it is as concise as reasonably possible.
- Meta-prompt text: “Clarity and Conciseness: Use clear, specific language. Avoid unnecessary instructions or bland statements.”
(8) My comment: Use special formatting markdown indications to specify the desired output of the prompt processing results.
- Meta-prompt text: “Formatting: Use markdown features for readability. DO NOT USE CODE BLOCKS UNLESS SPECIFICALLY REQUESTED.”
(9) My comment: As much as practical, preserve the original prompt, but if clarity can be improved it is okay to divide the prompt into various sub-portions and sub-steps.
- Meta-prompt text: “Preserve User Content: If the input task or prompt includes extensive guidelines or examples, preserve them entirely, or as closely as possible. If they are vague, consider breaking down into sub-steps. Keep any details, guidelines, examples, variables, or placeholders provided by the user.”
(10) My comment: Go ahead and preserve any constants that are in the original prompt and carry them over into the revised prompt.
- Meta-prompt text: “Constants: DO include constants in the prompt, as they are not susceptible to prompt injection. Such as guides, rubrics, and examples.”
Showcasing The Ten Rules Per The Meta-Prompt Text
I realize that seeing the meta-prompt text as interspersed above with my commentary might make it a bit difficult to see the meta-prompt uninterrupted. So, here are those ten meta-prompt text statements shown altogether:
- (1) Meta-prompt text: “Understand the Task: Grasp the main objective, goals, requirements, constraints, and expected output.”
- (2) Meta-prompt text: “Minimal Changes: If an existing prompt is provided, improve it only if it’s simple. For complex prompts, enhance clarity and add missing elements without altering the original structure.”
- (3) Meta-prompt text: “Reasoning Before Conclusions: Encourage reasoning steps before any conclusions are reached. ATTENTION! If the user provides examples where the reasoning happens afterward, REVERSE the order! NEVER START EXAMPLES WITH CONCLUSIONS!”
- (4) Meta-prompt text: “Reasoning Order: Call out reasoning portions of the prompt and conclusion parts (specific fields by name). For each, determine the ORDER in which this is done, and whether it needs to be reversed.”
- (5) Meta-prompt text: “Conclusion, classifications, or results should ALWAYS appear last.”
- (6) Meta-prompt text: “Examples: Include high-quality examples if helpful, using placeholders [in brackets] for complex elements. What kinds of examples may need to be included, how many, and whether they are complex enough to benefit from placeholders.”
- (7) Meta-prompt text: “Clarity and Conciseness: Use clear, specific language. Avoid unnecessary instructions or bland statements.”
- (8) Meta-prompt text: “Formatting: Use markdown features for readability. DO NOT USE CODE BLOCKS UNLESS SPECIFICALLY REQUESTED.”
- (9) Meta-prompt text: “Preserve User Content: If the input task or prompt includes extensive guidelines or examples, preserve them entirely, or as closely as possible. If they are vague, consider breaking down into sub-steps. Keep any details, guidelines, examples, variables, or placeholders provided by the user.”
- (10) Meta-prompt text: “Constants: DO include constants in the prompt, as they are not susceptible to prompt injection. Such as guides, rubrics, and examples.”
The Ten Rules Bundled Into One Meta-Prompt Text
Finally, if you were to enter the meta-prompt, you could potentially do so as one large text bundle.
This is what it would look like.
- Meta-prompt text in full (from above): “Understand the Task: Grasp the main objective, goals, requirements, constraints, and expected output. Minimal Changes: If an existing prompt is provided, improve it only if it’s simple. For complex prompts, enhance clarity and add missing elements without altering the original structure. Reasoning Before Conclusions: Encourage reasoning steps before any conclusions are reached. ATTENTION! If the user provides examples where the reasoning happens afterward, REVERSE the order! NEVER START EXAMPLES WITH CONCLUSIONS! Reasoning Order: Call out reasoning portions of the prompt and conclusion parts (specific fields by name). For each, determine the ORDER in which this is done, and whether it needs to be reversed. Conclusion, classifications, or results should ALWAYS appear last. Examples: Include high-quality examples if helpful, using placeholders [in brackets] for complex elements. What kinds of examples may need to be included, how many, and whether they are complex enough to benefit from placeholders. Clarity and Conciseness: Use clear, specific language. Avoid unnecessary instructions or bland statements. Formatting: Use markdown features for readability. DO NOT USE CODE BLOCKS UNLESS SPECIFICALLY REQUESTED. Preserve User Content: If the input task or prompt includes extensive guidelines or examples, preserve them entirely, or as closely as possible. If they are vague, consider breaking down into sub-steps. Keep any details, guidelines, examples, variables, or placeholders provided by the user. Constants: DO include constants in the prompt, as they are not susceptible to prompt injection. Such as guides, rubrics, and examples.”
Please be aware that I didn’t include all of the meta-prompt in the sense that there were other pieces here or there that provided additional nitty-gritty details. I wanted to keep the attention here on the crux of the meta-prompt. You are encouraged to visit the OpenAI blog on Prompt Generation to see further details.
Prompting As Both Art And Science
Congratulations, you now are versed in meta-prompts.
You can choose to use meta-prompts on your own. Either enter a meta-prompt at the start of your generative AI session or do so amid a session. If you want to set up a meta-prompt that will automatically activate whenever you use your account, use a feature known variously as customized instructions, see my coverage at the link here.
AI makers differ in terms of whether they automatically invoke hidden meta-prompts on your behalf. You’ll need to scour whatever user guides or help files there are for the generative AI that you opt to use. Sometimes you can choose whether to have those meta-prompts engaged or be disengaged.
A final thought for now.
The famous novelist Margret Wolfe Hungerford wrote in 1878 an idiom that we today widely accept and quote: “Beauty is in the eye of the beholder.”
I bring up that acclaimed quote because composing prompts is both art and science. You can use the plethora of rules of thumb about how to best write prompts, and you can lean into the advanced prompting techniques proffered by the discipline of prompt engineering. That is pretty much the science side of things. In the end, there is still art involved in the sense that you either feel that the prompt is the best it can be, or you don’t.
Really good prompts are said to be in the eye of the discerning beholder.
Noticias
La iniciativa de respaldo OpenAI de Sam Altman encabezada por varios miembros del personal anti-Trump que impulsan causas liberales
OpenAI se ha asociado con una nueva iniciativa de IA liderada por un grupo cofundado con salientes Enviado presidencial especial para el clima, John Kerry que ha impulsado causas de izquierda y tiene varios miembros de la junta alineados con los demócratas.
OpenAI, dirigida por el director ejecutivo Sam Altman, respalda una iniciativa conocida como AI 2030, que tiene como objetivo dar forma al “diálogo público sobre la competencia de Estados Unidos contra China en IA”, Politico informó en octubre.
La iniciativa está liderada por el grupo de expertos “no partidista” American Security Project (ASP), del que Kerry fue miembro fundador y sirvió dos períodos en la junta directiva.
ASP tiene promovió la idea que el cambio climático es una amenaza a la seguridad nacional, y argumentó en su sitio web que retirarse del Acuerdo Nuclear con Irán era una mala idea que “daña la seguridad nacional”. El grupo recibió previamente una subvención de 500.000 dólares de la Fundación Rockefeller “para utilizarla en su iniciativa Guerra Mundial Cero, un esfuerzo para lograr acción y movilización a través de la concientización y la educación pública para detener el aumento de las emisiones globales de carbono”. La Fundación Rockefeller ha donado decenas de millones de dólares a causas de izquierda.
BIDEN PRODUCE UNA SEGUNDA ACCIÓN DE IA DURANTE LA ÚLTIMA SEMANA EN EL CARGO CON UNA ORDEN EJECUTIVA QUE Acelera LA INFRAESTRUCTURA DE EE. UU.
El exjefe de gabinete de Kerry, David Wade, que brindó ayuda de respuesta rápida a Hunter Biden cuando se arremolinaba el escándalo de Burisma, actualmente forma parte de la junta directiva y recientemente escribió un artículo de opinión en The Hill explicando cómo la IA en los EE. UU. ha alcanzado su “momento Sputnik”. “, destacando la necesidad de competir con China en IA.
El exsecretario de Defensa de Obama, Chuck Hagel, quien llamado el entonces presidente Trump una “vergüenza” en 2018, también forma parte de la junta directiva de la ASP.
ELON MUSK, TITANES DE LA IA Y LA TECNOLOGÍA, CAPITALISTAS DE RIESGO INVITADOS A LA CENA PREVIA A LA INAUGURACIÓN AL AMANECER DE LA ERA TRUMP
El representante Don Beyer, demócrata por Virginia, que también forma parte de la junta directiva de ASP, se ha opuesto públicamente a las políticas arancelarias de Trump, calificándolas de “idiotas” e “ilegales” en un comunicado de prensa de 2023.
En 2018, ASP promovió un artículo de opinión del miembro de la junta directiva Matthew Wallin en el que criticaba las tácticas diplomáticas de Trump contra el presidente ruso Vladimir Putin.
En 2017, Wallin amplificó la narrativa mediática desacreditada en una publicación en X, luego Twitter, en la que Trump llamó a los supremacistas blancos en la manifestación mortal de Charlottesville “buenas personas”.
Chris Lehane, jefe de política global de OpenAI, es el autor de la infame y controvertida “Vasta conspiración de la derecha”. memorándum promocionado por la entonces primera dama Hillary Clinton, que desestimó el escándalo de Monica Lewinsky como parte de una conspiración mediática de derecha.
Además de ser consultor del Partido Demócrata desde hace mucho tiempo, Lehane ha contribuido recientemente con dinero para ayudar al exsenador Bob Casey, demócrata por Pensilvania, y al senador Adam Schiff, demócrata por California.
Altman recientemente siguió a otros titanes de la tecnología e hizo una importante donación de 1 millón de dólares a la toma de posesión de Trump a título personal, pero se ha enfrentado al escrutinio por donaciones anteriores de alto valor en dólares a esfuerzos de izquierda, incluida una Donación de $250,000 a un súper PAC demócrata y a la firma de investigación de la oposición American Bridge durante las elecciones de 2020.
EL CEO DE OPENAI, SAM ALTMAN, LLEGA AL 2025 CON UN TWIT CRÍPTICO Y PREOCUPANTE SOBRE EL FUTURO DE LA IA
Altman ha donado a cientos de demócratas en los últimos años en comparación con solo un republicano, Newsweek informó este verano pasado. También fue elegido recientemente para ser copresidente del equipo de transición del alcalde demócrata entrante de San Francisco.
Además de organizar una recaudación de fondos para el candidato presidencial demócrata Andrew Yang en su casa de San Francisco a finales de 2019, Altman ha donado más de 1 millón de dólares a demócratas y grupos demócratas, incluidos $600,000 para el PAC de la mayoría del Senado alineado con el senador Chuck Schumer, $100,000 para el Fondo de Victoria de Biden y más de $150,000 para el Comité Nacional Demócrata (DNC). También donó miles de dólares a los partidos demócratas estatales y a los principales demócratas de la Cámara y el Senado.
En 2014, Altman fue coanfitrión de una recaudación de fondos para el Comité Nacional Demócrata en las oficinas de Y Combinator en Mountain View, California, que fue encabezada por el entonces presidente Obama.
Tras la victoria de Trump en noviembre, Altman publicó en X: “Felicidades al presidente Trump. Le deseo un gran éxito en el trabajo”.
“Es de vital importancia que Estados Unidos mantenga su liderazgo en el desarrollo de la IA con valores democráticos”, añadió.
Durante el mandato de Altman de 2014 a 2019 como director ejecutivo de Y Combinator, una incubadora emergente que lanzó Airbnb, DoorDash y DropBox, habló sobre China en múltiples publicaciones de blog y entrevistas. En 2017, Altman dijo que “se sentía más cómodo discutiendo ideas controvertidas en Beijing que en San Francisco” y que sentía que una expansión a China era “importante” porque “algunos de los empresarios más talentosos” que ha conocido han estado operando allá.
El currículum de Altman y sus esfuerzos en inteligencia artificial han provocado la ira del aliado de Trump, Elon Musk, en los últimos años. Musk dijo el año pasado: “No confío en OpenAI. No confío en Sam Altman. Y no creo que debamos tener la IA más poderosa del mundo controlada por alguien que no es digno de confianza”.
Musk, que ha estado involucrado en una disputa legal muy publicitada con Altman, también ha dicho que la función ChatGPT de OpenAI está infectada con el “virus despertado”.
ChatGPT es un chatbot de IA cuya función principal es imitar a un humano en una conversación. Usuarios de todo el mundo han utilizado ChatGPT para escribir correos electrónicos, depurar programas informáticos, responder preguntas sobre tareas, jugar, escribir historias y letras de canciones, y mucho más.
“Va a eliminar muchos empleos actuales, eso es cierto. Podemos crear otros mucho mejores. La razón para desarrollar la IA, en términos de impacto en nuestras vidas y de mejorarlas, y las ventajas, será la mejor tecnología”. la humanidad aún se ha desarrollado”, dijo Altman en una entrevista de 2023 con ABC News. “La promesa de esta tecnología, una de las que más me entusiasma, es la capacidad de proporcionar aprendizaje individual: un excelente aprendizaje individual para cada estudiante”.
¿QUÉ ES LA INTELIGENCIA ARTIFICIAL (IA)?
En los últimos meses, según se informa, OpenAI ha estado lanzando silenciosamente sus productos al ejército estadounidense y buscando contratos de defensa, informó Forbes.
En una declaración a Fox News Digital, un portavoz de OpenAI dijo: “Estados Unidos tiene que ganar la carrera de la IA, y es por eso que los estadounidenses de ambos lados del pasillo están unidos para apoyar políticas que ayuden a Estados Unidos a mantener su ventaja competitiva frente a China. ”
“ASP es una organización bipartidista de casi veinte años que trabaja con legisladores, oficiales de bandera retirados, expertos en la materia y grupos de todo el espectro político para producir investigaciones de alta calidad y forjar un consenso bipartidista sobre las amenazas emergentes a nuestra seguridad nacional”. dijo un portavoz de ASP a Fox News Digital en un comunicado.
HAGA CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS
“Si bien OpenAI es uno de los muchos donantes para Imperativo de la IA 2030garantizamos un equilibrio equitativo de opiniones informadas por expertos independientes y miembros del Consenso para la Seguridad Estadounidense, incluida Julia Nesheiwat, Ph.D., ex asesora de Seguridad Nacional de Trump, y Neil Chatterjee, ex presidente de la Comisión Federal Reguladora de Energía durante el gobierno de Trump. También organizamos recientemente una mesa redonda con Nazak Nikakhtar, otro exfuncionario de Trump”.
La declaración continuó: “El objetivo principal de Imperativo de la IA 2030 es garantizar que Estados Unidos, no China, gane la carrera por la supremacía de la IA. China aspira a superar a Estados Unidos y liderar el mundo en IA para 2030. No podemos permitir que eso suceda. El presidente Trump ha sido un líder en la creación de un consenso bipartidista de que Estados Unidos necesita competir más vigorosamente con China, y esperamos trabajar con su administración y el Congreso republicano para diseñar políticas efectivas y rentables hacia este objetivo”.
Nikolas Lanum, Cameron Cawthorne y Joe Schoffstall de Fox News Digital contribuyeron a este informe.
Noticias
Tareas de ChatGPT y más | Edición Semanal
¡Hola y bienvenido a nuestro resumen semanal!
Parece que, en la última semana, Mark Zuckerberg ha conseguido lo imposible. Con un podcast con Joe Rogan, ha generado más controversia que Elon. Qué raro, ¿eh?
De todos modos, tenemos toneladas de IA. noticias, guíasy herramientas útiles hoy, ¡así que hablemos!
Esta edición de IA para creadores:
-
Materiales destacados 🎟️
-
Noticias de la semana 🌍
-
Herramientas útiles ⚒️
-
Guías Semanales 📕
-
Meme de IA de la semana 🤡
-
Tweet de IA de la semana 🐦
-
(Bonus) Materiales 🎁
FineVoice lanza una nueva función de generación de video a SFX con IA en línea para ahorrarle tiempo en la creación de audio para videos
La nueva función AI Video-to-SFX Generator de FineVoice puede crear fácilmente efectos de sonido de alta calidad que se adapten al video. Esta nueva herramienta le ahorrará tiempo en la búsqueda de los mejores efectos de sonido y le ayudará a alinearlos con el contenido del vídeo. Puede crear una experiencia audiovisual más vívida, haciendo que sus videos sean más atractivos.
OpenAI ha introducido una función beta llamada “Tareas” en ChatGPT. Esta herramienta transforma el chatbot en un asistente de IA más proactivo. Estas son sus características clave:
-
Recordatorios de programación: Puede configurar recordatorios únicos o recurrentes, como informes meteorológicos diarios o notificaciones sobre fechas importantes.
-
Sugerencias proactivas: ChatGPT puede sugerir tareas basadas en conversaciones en curso, aunque se requiere la aprobación del usuario para activar estas sugerencias.
-
Notificaciones multiplataforma: Al finalizar la tarea, recibirá notificaciones en plataformas web, de escritorio y móviles.
Acceso y Disponibilidad:
La función “Tareas” está en versión beta y disponible para los suscriptores de ChatGPT Plus, Team y Pro. Si es uno de ellos, seleccione “GPT-4.0 con tareas programadas” en el selector de modelo. Hay un límite de 10 tareas activas por usuario en un momento dado.
Mantenga su buzón actualizado con conocimientos y noticias clave de la industria de la IA
Los empleados de OpenAI no han ocultado que Tareas es una de las primeras incursiones de la compañía en la IA de los agentes. Será un foco clave en 2025. Esto es lo que el presidente y cofundador de OpenAI, Greg Brockman, escribió sobre el lanzamiento:
En cuanto al futuro, el próximo agente de la empresa probablemente será el misterioso “Operador.” Según un informe de Bloomberg, OpenAI pronto presentará una IA autónoma que podrá controlar nuestras computadoras y realizar tareas independientemente del usuario. Anteriormente, los conocedores dijeron que el lanzamiento sería en enero de 2025.
Tareas Es la principal novedad de la semana, y de sus características podremos hablar durante mucho tiempo. Por eso le hemos dedicado un post aparte. Compruébelo si quiere saber cómo aprovechar al máximo la última versión de OpenAI:
Convierte ChatGPT en tu asistente personal
A fines de la semana pasada, el director de Meta apareció en el podcast de Joe Rogan y discutió una amplia gama de temas. Mark hizo muchas declaraciones interesantes sobre política, censura y tecnología. No los analizaremos todos (es mejor que vea el podcast), pero destacaremos los más importantes para nuestra industria.
Me refiero a esta afirmación:
Dijo que para 2025, Meta y otras empresas de tecnología tendrán IA que podrá funcionar como ingenieros de nivel medio, escribiendo y depurando código de manera eficiente. Entonces, a largo plazo, Meta espera automatizar toda la codificación de sus aplicaciones. Según Mark, los sistemas de IA podrían reducir el tiempo de escritura de códigos en un 35-45% y tiempo de documentación por hasta 50%.
Casi al mismo tiempo, la compañía dijo que Meta recortaría un 5 por ciento de su fuerza laboral, apuntando a “los trabajadores de menor desempeño”.
Luma AI ha presentado el modelo de vídeo Ray 2. Esta plataforma, accesible a través de Dream Machine, está destinada a consumidores, prosumidores y profesionales. Ray 2 produce videoclips de hasta 10 segundos con cinematografía avanzada y movimientos suaves. Comprende las interacciones entre personas, animales y objetos, lo que permite la creación de personajes consistentes y físicamente precisos.
Microsoft ha anunciado la integración de su asistente Copilot AI en las suscripciones personales y familiares de Microsoft 365, ampliando su disponibilidad más allá de los usuarios empresariales. Esta integración permite a los usuarios utilizar funciones de IA en Word, Excel, PowerPoint, Outlook y OneNote. Después de esta actualización, los precios de suscripción aumentarán en $3 por mes, con el plan Personal ahora a $9,99 y el plan Familiar a $12,99.
La compañía también presentó Copilot Chat, un servicio de chat gratuito basado en inteligencia artificial para empresas. Permite la creación de agentes de IA para ayudar con tareas como investigación de mercado y preparación de reuniones. Las funciones avanzadas requieren una suscripción mensual de $30 a Microsoft 365 Copilot.
¡Compartir es cuidar! Recomiende a alguien que recientemente haya comenzado un viaje de aprendizaje en IA. ¡Hazlos más productivos y gana recompensas!
Google también ha actualizado su estrategia para un Géminis. La compañía anunció que todas las funciones de inteligencia artificial de su suite Workspace, incluidas aplicaciones como Gmail, Docs, Sheets y Meet, ahora están disponibles sin costo adicional. Anteriormente, estas funciones formaban parte del plan de negocios de Gemini, que requería $20 adicionales al mes por usuario. Al mismo tiempo, Google está aumentando el precio de los planes estándar de Workspace en aproximadamente 2 dólares al mes por usuario, elevando la suscripción base de 12 a 14 dólares mensuales.
Es bastante interesante que se realizaron actualizaciones similares para Microsoft 365 y Google Workspace en la misma semana. Dicho esto, los objetivos son claros: ambas empresas están repensando sus enfoques hacia la IA en 2025 para que su uso sea más común.
La plataforma de vídeo de IA con sede en Londres, Synthesia, ha recaudado 180 millones de dólares en una Serie D. Esta inversión eleva el capital total de la startup a más de 330 millones de dólares y valora a la empresa en $2.1 mil millonesconvirtiéndolo en el La empresa de medios de IA generativa más valiosa del Reino Unido. La plataforma de Synthesia permite a las empresas crear contenido de vídeo de IA con avatares humanos realistas y atiende a más de 60.000 clientes, entre ellos más del 60 % de las empresas Fortune 100.
Los fondos respaldarán el desarrollo de productos, el crecimiento del talento y la expansión a mercados como Japón, Australia, Europa y América del Norte.
Mistral AI y Agence France-Presse (AFP) se han asociado para integrar el contenido informativo de AFP en Le Chat. Esta colaboración otorga a la IA de Mistral acceso a la producción diaria de la AFP de 2.300 historias en seis idiomas, mejorando la capacidad del chatbot para proporcionar respuestas precisas y actualizadas. Los socios afirmaron que el acuerdo garantiza que los resultados de Le Chat se basen en información confiable, abordando las preocupaciones sobre la difusión de información errónea.
Por cierto, Google también hizo un trato similar esta semana. La compañía acordó trabajar con Associated Press para ayudar a que Gemini sea más relevante para los usuarios.
Uso del navegador: habilitamos la IA para controlar su navegador
Magic Inbox: agentes sociales de IA que organizan reuniones para su negocio
Eververse: plataforma de gestión de proyectos de código abierto integrada en IA
Exportación de Cursor Convo: guarde y reviva sin esfuerzo sus chats de Cursor AI
Resumen: su espacio de conocimiento de IA para imágenes reveladoras
Recap es una herramienta diseñada para transformar información compleja en atractivos gráficos visuales e ideas mentales. Genera preguntas de nivel experto para estimular el pensamiento crítico y crea representaciones visuales como mapas mentales, diagramas de flujo, líneas de tiempo y tablas para simplificar contenido complejo. Una plataforma bastante útil para creadores, emprendedores, estudiantes y profesores.
Comparte esta publicación con amigos, ¡especialmente aquellos interesados en historias de IA!
¿Funcionan realmente los detectores de IA y GPT?
Construya todo con agentes de IA: así es como
Esta IA escuchó 1.000 horas de podcast por mí | Tutorial de código
Cómo utilizar ChatGPT en el trabajo [+ 100 Prompts to Try]
¡Este NUEVO agente de IA de 1 clic es una locura! 🤯
Cree su AGENTE AI personal de Gmail en 30 minutos | Tutorial de cursores
Ese es un buen punto del director ejecutivo de Perplexity.
Cómo Decagon AI transformó la atención al cliente para Duolingo
El imperio de la IA de Nvidia: una mirada a sus principales inversiones en startups
Los asesores financieros de IA se dirigen a los jóvenes que viven de cheque en cheque
CEO de Replit sobre los avances en IA: “Ya no nos importan los codificadores profesionales”
MatterGen: Un nuevo paradigma de diseño de materiales con IA generativa
¡Comparte esta edición con tus amigos!
Noticias
El prototipo: el equipo de bioingeniería de OpenAI
En la edición de esta semana de The Prototype, analizamos un nuevo modelo de IA para bioingeniería, los lanzamientos de cohetes en duelo de esta semana, imanes, láseres y más. Puedes registrarte para recibir The Prototype en tu bandeja de entrada aquí.
ohplumaAI se asoció con Retro Biosciences para construir un modelo de aprendizaje automático centrado en generar nuevas proteínas. El nuevo modelo, llamado GPT-4b, es una versión personalizada del modelo GPT-4o de OpenAI construido específicamente para Retro y centrado en la bioingeniería. Curiosamente, el modelo se centra menos en predecir estructuras de proteínas específicas, como AlphaFold de Deepmind, sino en predecir cómo esas proteínas interactuarán con otras.
Utilizando el modelo, los científicos de Retro rediseñaron dos proteínas del factor Yamanka, que desempeñan un papel clave en el desarrollo fetal. Estudios anteriores han descubierto que si estas proteínas se introducen en una célula adulta madura, como una célula de la piel, hará que vuelva a comportarse como una célula madre. Investigadores de todo el mundo están intentando aprovechar esta propiedad para desarrollar tratamientos para enfermedades como la ceguera y la diabetes.
Sin embargo, un desafío para el desarrollo de estos tratamientos es que las proteínas Yamanka que se encuentran en la naturaleza son terriblemente ineficientes para convertir células maduras en células madre. Sin embargo, las primeras pruebas de laboratorio mostraron que estas versiones recientemente diseñadas producían aproximadamente 50 veces más biomarcadores asociados con este tipo de reprogramación celular. Esto sugiere que son significativamente mejores para producir células madre que las proteínas que se encuentran en la naturaleza.
En el futuro, las dos empresas planean realizar más investigaciones para validar estos hallazgos iniciales y explorar su potencial en el desarrollo de nuevos tratamientos para enfermedades.
Manténganse al tanto.
Blue Origin de Bezos envía un cohete a órbita mientras falla la prueba de la nave espacial SpaceX
mitemprano el jueves por la mañanaLa compañía espacial de Jeff Bezos, Blue Origin, puso en órbita con éxito su cohete New Glenn. El lanzamiento tuvo lugar en Cabo Cañaveral, Florida. Aunque se cumplió la misión principal, su objetivo secundario (aterrizar con éxito el propulsor del cohete para su reutilización) no.
El fin de semana pasado, mi colega Jeremy Bogaisky informó que Blue Origin tenía mucho en juego para este lanzamiento: tuvo lugar menos de una semana antes de que Donald Trump regresara a la Casa Blanca, con el CEO de SpaceX, Elon Musk, trabajando con él en una reestructuración prometida en gobierno. Blue Origin tiene múltiples contratos gubernamentales para New Glenn, particularmente relacionados con el regreso de la NASA a la Luna, por lo que tenía mucho que demostrar.
Hablando de SpaceX, esa compañía realizó una séptima prueba de su propio gran cohete, Starship, el jueves por la tarde. Si bien la compañía pudo lanzar la versión más nueva de su cohete, explotó a medida que ascendía (la compañía lo llamó eufemísticamente un “desmontaje rápido no programado”). SpaceX pudo atrapar con éxito el propulsor del cohete cuando regresaba a la Tierra.
Aunque la relación entre Bezos y Musk con respecto a sus empresas espaciales ha sido polémica en ocasiones, eso parece ser cosa del pasado, al menos por ahora. Temprano en el día, Bezos tuiteó buena suerte a SpaceX en el lanzamiento de su Starship. Elon Musk respondió con memes de la película Hermanastroscomparándose a sí mismo y a Bezos con los personajes enemigos convertidos en amigos de Will Ferrell y John C. Reilly en la película.
DESCUBRIMIENTO DE LA SEMANA: COMPUTACIÓN BASADA EN LÁSER
Investigadores de la Universidad de California en Santa Bárbara tienen un nuevo tipo de arquitectura de chip fotónico que utiliza láseresen lugar de electricidad, para el cálculo. El objetivo es lograr un mejor rendimiento con costes energéticos significativamente más bajos. Intentos anteriores de desarrollar tales chips han toparse con obstáculos que involucran velocidades de procesamiento o programabilidad. Este sistema utiliza Campos magnéticos para afectar dinámicamente a los láseres.que potencialmente podría superar estos problemas. La investigación fue publicada en Fotónica de la naturaleza.
FRONTERA FINAL: SATÉLITES NORMALIZADOS
Orbital desvánque se desarrolla infraestructuras satelitales estandarizadas que puede utilizarse para una amplia variedad de aplicaciones, anunció que ha recaudado 170 millones de dólares en capital de riesgo. En una publicación de blog, los cofundadores Pierre-Damien Vaujour y Alex Greenberg dijeron que 2025 es el año en que su negocio “alcanzará la escala de flota”. Hasta ahora, la compañía ha vendido más de 30 de sus satélites, que según los cofundadores están diseñados para configurarse para satisfacer las necesidades de sus clientes de una manera rápida y confiable, reduciendo el tiempo y el costo en comparación con la construcción de un satélite a medida para cada misión. “Estamos priorizando la velocidad de puesta en órbita, la previsibilidad de los horarios, la simplicidad y la confiabilidad a través de la herencia en lugar del rendimiento absoluto”.
FORBES LO LLAMÓ: AUTOMATIZACIÓN DEL TRÁMITE DE INVESTIGACIÓN
Hace más de 10 años, nombramos Surbhi Sarnafundador de la empresa NVision Médicaa nuestra lista de 30 menores de 30 en la categoría Atención sanitaria. Desde entonces, vendió NVision por 275 millones de dólares. Ahora ha vuelto con una nueva empresa. Cotejarque se lanzó esta semana con 30 millones de dólares en financiación inicial con la misión de automatizar uno de los más aspectos tediosos de la investigación en ciencias de la vida: cumplimentar todos los papeleo.
QUE MÁS ESCRIBI ESTA SEMANA
Infecciones por norovirus están aumentando en todo el país. Pero a pesar de que esta enfermedad afecta a unos 20 millones de personas al año con “gripe estomacal” no existe vacuna ni tratamiento. Escribí sobre el desafío de hacer un vacuna contra norovirus–y por qué moderna puede ser lo más cercano a llevar uno al mercado.
En mi otro boletín, InnovationRx, mi colega Amy Feldman y yo cubrimos la amplia gama de noticias sobre atención médica que surgen de la revista anual Conferencia de atención médica de JP Morganincluyendo una serie de ofertas de alto valorlos impactos de la Incendios forestales en Californianuevas colaboraciones sanitarias con el gigante de la IA NVIDIA y más.
COMENTARIOS DE CIENCIA Y TECNOLOGÍA
El proyecto de Brightline para conectar Los Ángeles y Las Vegas con un tren bala está recaudando 2.500 millones de dólares en inversión privada.
California ha invertido millones en sensores e inteligencia artificial con el objetivo de detectar, o incluso predecir, incendios forestales para poder controlarlos rápidamente. Pero no eran rival para los incendios actuales. Mi colega Cyrus Farivar explica por qué.
Una colaboración de investigación en Tennessee demostró la primera transmisión de una enfermedad estabilizada. señal cuántica a través de una red que utiliza múltiples canales de longitud de onda, un paso clave en la construcción de una eventual Internet cuántica.
Un equipo de científicos desarrolló un método para almacenar vacunas y fármacos biológicos sin refrigeraciónlo que podría reducir los costos de la cadena de suministro y mejorar el acceso a los medicamentos en regiones remotas.
Los investigadores desarrollaron un proceso basado en insectos para reciclar plástico alimentándolo larvas de gusano de la harina. El compostaje de los residuos resultantes conduce a la formación de un biocarbón que puede utilizarse para fertilizar plantas.
CONSEJO DE CIENCIA PROFESIONAL: FOMENTAR LA COLABORACIÓN CON ELLA
Uno de los desafíos de administrar una gran empresa es que los departamentos tienden a obtener ensiladolo que puede provocar fricción cuando una mano no sabe lo que está haciendo la otra. Este es particularmente el caso de departamentos de TIcuyo trabajo necesariamente toca cada parte de la empresa. Nueva investigación basada en datos intersectoriales realizada por Universidad de Binghamton considera que esta tendencia puede mitigarse si el liderazgo de la empresa trabaja activamente para impulsar colaboración y cooperación entre unidades de negocio y TI con un equilibrio de motivación e incentivos.
QUE ME ENTRETENE ESTA SEMANA
Acabo de terminar de ver la serie limitada. Interior del barrio chinobasada en la novela de Carlos Yu (también el showrunner). Cuenta la historia de un personaje de fondo en un procedimiento policial que quiere tener un papel más importante. Es sorprendente y deliciosamente extraño, basado en un elenco increíble liderado por. Jimmy O.Yang. A continuación planeo leer el libro. Todos los episodios se transmiten en Hulu.
MÁS DE FORBES
-
Startups8 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Recursos8 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Recursos8 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Recursos8 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Tutoriales8 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Estudiar IA8 meses ago
Curso de Inteligencia Artificial de UC Berkeley estratégico para negocios
-
Startups6 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Noticias6 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo