Noticias
The Future Of Text-To-Video Based Generative AI Magically Appears Via Newly Released OpenAI Sora Turbo
Published
4 meses agoon

The advent of generative AI based text-to-video is gaining steam, especially by the release of … [+] OpenAI’s new Sora Turbo app.
getty
In today’s column, I explain the hullabaloo over the advent of text-to-video (T2V) in generative AI apps and large language models (LLM). The upshot is this. There is little doubt that text-to-video is still in its infancy at this time, but, by gosh, keep your eye on the ball because T2V is going to gain significant advances that will ultimately knock the socks off the world. As Dr. Seuss might declare, oh, the things that you can do (hang in there, I’ll cover the possibilities momentarily).
As tangible evidence of what text-to-video can do right now, I’ll include in this discussion an assessment of the newly released OpenAI product Sora Turbo, a cousin of the wildly and widely popular ChatGPT. If you are tempted to try out Sora Turbo, it is initially only being made available to ChatGPT Plus and ChatGPT Pro users, meaning that you must pay-to-play. Sad face.
A notable consideration to keep in mind is that ChatGPT currently garners a reported 300 million weekly active users, and though not all of them are going to have ready access to Sora Turbo, an impressive many millions will. Competing products are likely to find that Sora Turbo becomes the 600-pound gorilla and the elephant in the room. By and large, a massive number of users and a massive amount of media attention is going to shift overnight toward Sora Turbo.
Let’s talk about it.
This analysis of an innovative AI advancement is part of my ongoing Forbes column coverage on the latest in AI including identifying and explaining various impactful AI complexities (see the link here). For my coverage of the top-of-the-line ChatGPT o1 model and its advanced functionality, see the link here and the link here.
Getting Up-To-Speed On AI Modes
I’d like to lay out some foundational aspects so that we can then dive deeply into the text-to-video realm.
Generative AI and LLMs generally began by providing text-to-text (T2T) capabilities. You type in text as a prompt, and the AI responds with text such as an essay, poem, narrative, etc. That’s cool. Another exciting feature consists of text-to-image, whereby you enter a prompt, and the AI generates an image such as a photo-realistic picture, a digital painting, a still cartoon, or other kinds of static imagery. Those two modes of usage are nearly old hat now.
The dream for AI researchers is to allow a person to enter a prompt and then have the AI generate a video. A stripped-down way to do this is to focus solely on the visual video and not include any audio. Gradually, we will see the production of visual video elements that are hand-in-hand accompanied by AI-generated matching audio (some LLMs do this but in quite a limited fashion).
A bonus on top of doing text-to-video is the possibility of taking an image as input and turning that into a video. The image might be by itself as the source content, or the AI might accept both a prompt as text and an accompanying image. Finally, the topmost aim is to allow the use of a separate video as the input source, possibly accompanied by text and images, all of which the generative AI utilizes to produce a suitable video. I refer to that as the all-encompassing full-meal deal.
The Holy Grail Is Suitability Of The Generated T2V
Notice that I just mentioned that the quest or hope is that the generative AI will produce a suitable video. My emphasis on that point is the nature of suitability.
Suitability is the trickiest part of this grand scheme. Allow me to explain. If someone enters a prompt that tells AI to produce a video about a cat wearing a hat that is sitting in a box and riding on a moving train, I’d like you to take a moment and imagine what that video looks like.
Go ahead, envision away, I’ll wait.
I dare say that if you told someone what the video would precisely look like, their conception of the video is going to be quite adrift from what you had in mind. Sure, you would both undoubtedly include a cat of some kind, a hat of some kind on the head of the cat, a box of some kind with the cat inside, and a moving train of some kind. But all of those might vary dramatically from the other person’s conception. Yours could be photo-realistic while the other person imagined animation. The colors would differ, the sizes and shapes would differ, and the action of the cat and the moving train would differ.
I’m sure you get the picture (aha, a pun).
Suitability or the act of meeting the request posed by the human user is a tough nut to crack. Your first impulse might be that if a person writes a lengthy prompt, that would seemingly narrow things down. It might do so to some extent. On the other hand, the odds are still notably high that there would still be marked differences.
Sora Turbo Enters Into The Scene
Earlier this year, OpenAI made available on a limited basis their new product Sora. Sora is a generative AI app that does text-to-video. Though it is referred to as text-to-video, it also does allow for the input of images and the input of video.
As an aside, the ultimate aim of AI makers across the board is to have what is known as X-to-X modes for generative AI, meaning that X can be text, images, audio, video, and anything else we come up with. The angle is that the end game consists of taking any type of medium as input and having the AI produce any desired type of medium as the output.
Boom, drop the mic.
No worries, we’ll get there (or, maybe we should be worried, as I’ll bring up toward the end here).
After Sora had its limited availability tryouts, OpenAI made some important changes and has now released the modified and more advanced version, known as Sora Turbo. Clever naming. You might want to go online and watch some posted videos showcasing the use of Sora Turbo. I say that because it is difficult in a written form such as this discussion to convey the look and feel of the prompts and controls you can use, and likewise allow you to see the generated videos. The official Sora portion of the OpenAI website shows some handy examples, plus there are already tons of user-made videos available on social media.
Components Of High-End Text-To-Video AI Apps
The next aspects that I will cover are the types of features and functionality that we nowadays expect a high-end text-to-video AI app to possess. I bring this up to acquaint you with the ins and outs of AI-based text-to-video capabilities.
In a sense, this is almost as though you are interested in possibly using or buying a car, but you aren’t familiar with the features and functions of automobiles. It can be tough to shop for a car if you are in the dark about what counts.
I will briefly identify some of the keystone elements of text-to-video. In addition, I’ll provide an assigned letter grade for what I perceive of the just-released Sora Turbo capabilities. I want to clarify that my letter grading is based on a first glance. My to-do list consists of spending some dedicated time with Sora Turbo and subsequently doing an in-depth review.
Be on the lookout for that posting.
T2V Suitability Or Faithfulness
I already brought up the fact that suitability is the Holy Grail of text-to-video.
Somehow, once the AI parses the input prompt, a video is to be generated that matches what the user has inside their mind. Whoa, we aren’t yet at mind-reading by AI (well, there are efforts underway to create brain-machine interfaces or BMI, see my discussion at the link here).
The AI industry tends to refer to this suitability factor as faithfulness or honesty. The AI is supposed to do a bang-up job and reach a faithful or honest rendering in video format of what the user wants.
I am going to say that all the readily available T2V is still at a grade level of C, including Sora Turbo. Inch by inch, clever techniques are being devised to hone in on what a user wants. This is mainly being done in AI research labs and we will gradually see those capabilities come into the public sphere.
T2V Visual Vividness, Quality, And Resolution
The video that was generated in the early days of text-to-video was very rudimentary. They were mainly low-resolution. The graphics were jerky while in motion. I’m not knocking on those heroic initial efforts. We ought to appreciate the pioneering work else we wouldn’t be where we are today.
Tip of the hat.
My point is that thankfully, we’ve come a long way, baby. If you get a chance to see the Sora Turbo AI-generated videos, the vividness, quality, and resolution are pretty much state-of-the-art for T2V. I’ll give this an A-/B+.
Yes, I am a tough-as-nails grader.
T2V Temporal Consistency Across Frames
I’m sure that you know that movies consist of individual frames that flow past our eyes so fast that we perceive that there is fluid motion afoot in what we are watching. The conventional text-to-video generation adheres to that same practice. A series of one after one-after-another frames are generated, and when they flow along, you perceive motion.
The rub is this. Suppose that in one frame a cat wearing a hat is at the left side of the view. The next frame is supposed to show the cat moving toward the right side, having moved just a nudge to the right. And so on this goes.
If the AI doesn’t figure out things properly, the next frame might show the cat suddenly at the far right of the view. Oops, you are going to be jostled that the cat somehow miraculously got from the left to the right. It won’t look smooth.
This is generally known as temporal consistency. The AI is to render the contents of the frames so that from one frame to the next, which is based on time as each frame goes past our eyes, there should be appropriate consistency. It is a hard problem, just to let you know. I’ll give Sora Turbo a B and anticipate this will be getting stronger as they continue their advancements.
T2V Object Permanence
You are watching an AI-generated video, and it shows a cat wearing a hat. The cat moves toward the right side of the scene. Suddenly, the hat disappears. It vanished. What the heck? This wasn’t part of the text prompt in the sense that the user didn’t say anything about making the hat vanish.
The AI did this.
Parlance for this is that we expect the AI to abide by object permanence and not mess around with things. An object that is shown in one frame should customarily be shown in the next frame, perhaps moved around or partially behind another object, but it ought to normally still be there somewhere. I’ll score Sora Turbo as a B-/C+.
Again, this is a hard problem and is being avidly pursued by everyone in this realm.
T2V Scene Physics
This next topic consists of something known as scene physics for text-to-video. It is one of the most beguiling of all capabilities and keeps AI researchers and AI developers up at night. They probably have nightmares, vivid ones.
It goes like this. You are watching an AI-generated video, and a character drops a brittle mug. Here on planet Earth, the mug is supposed to obey the laws of gravity. Down it falls. Kablam, the mug hits the floor in the scene and shatters into a zillion pieces.
That is the essence of scene physics. The kinds of intense calculations needed to figure out which way objects should natively go based on ordinary laws of nature is a big hurdle. In addition, the user might have stated that physics is altered, maybe telling the AI to pretend that the action is occurring on the Moon or Mars. I’ll score Sora Turbo as a B-/C+.
T2V Grab-Bag Of Features And Functions
I don’t have the space here to go into the myriad of text-to-video features and functions in modern-day T2V.
To give you a taste of things, here’s a list of many equally important capabilities in T2V products:
- Stylistic options
- Remixing re-rendering
- Video output timing length
- Time to render
- Sequencing storyboarding
- Source choices
- AI maker preset usage limitations
- Watermarking of generated video
- Intellectual Property restrictions
- Prompt library
- Prompt storage functionality
- Video storage functionality
- Prompt sharing and control
- Etc.
One thing you ought to especially be aware of is that T2V right now is usually only generating video that consists of a relatively short length of time. When T2V first came around, the videos were a second or two in length. They were nearly a blink of an eye.
Nowadays, many of the mainstay players can do somewhere around 10 to 20 seconds of video. That’s probably just enough to provide a brief scene, but it certainly doesn’t equate to a full-length movie. You can usually use a sequencing or storyboarding function that allows you to place one generated scene after another. That’s good. The downside currently is that the scenes aren’t likely to line up in a suitable alignment. Scene-to-scene continuity is typically weak and telling.
Overall, across the extensive list above, I’ll say that Sora Turbo is somewhere on an A-/B+ and you’ll find plenty of useful controls and functions to keep you busy and entertained.
The Emerging Traumas Of Readily Usable AI Text-To-Video
Shifting gears, I said at the opening of this discussion that text-to-video is quite a big deal. Let’s do a sobering unpacking of that thought.
Envision that with the use of prompts, just about anyone will eventually be able to produce top-quality videos that match Hollywood movies. This sends shivers down the spine of the entertainment industry. AI is coming at all those movie stars, filmmakers, support crews, and the like. Some in the biz insist that AI will never be able to replicate what human filmmakers can achieve.
Well, it’s debatable.
Furthermore, if you construe that the writer of the prompt is a said-to-be “filmmaker” you could argue that the human still is in the loop. One twist is that there are already efforts toward having generative AI come up with prompts that feed into AI-based text-to-video. Blasphemous.
There is something else of more immediate concern since the likelihood of T2V creating full-length top-notch movies is still a bit further on the horizon. The immediate qualm is that people are going to be able to make deepfakes of an incredibly convincing nature. See my coverage of deepfake-making via the AI tools to date, at the link here and the link here, and what’s likely going to happen with the next wave of AI advances.
Utterly convincing deepfakes will be made upon millions and billions of them. At low or nearly zero cost. They are easily distributed digitally across networks, at a low or negligible cost. They will be extremely hard to differentiate from real-life real-world videos.
At an enormous scale.
Disconcertingly, they will look like they are real-life videos. Consider the ramifications. A person is wanted for a heinous crime and a nationwide hunt is underway. The public is asked to submit videos from ring cams, their smartphones, and anything they have that might help in spotting the individual.
It would be very easy to create a video that seemed to show the person walking down the street in a given city, completely fabricated by using AI-based text-to-video. The video is believed. This might cause people in that area to become panicked. Law enforcement resources might be pulled from other locales to concentrate on where the suspect was last presumably seen.
You get the idea.
It Takes A Village To Decide Societal Norms For T2V
In my grab-bag list above of T2V features, I noted that watermarking is a feature that AI makers are including in the generated video, allowing for the potential detection and tracking of deepfakes. It is a cat-and-mouse game where evildoers find ways to defeat the watermarks. Another item listed was the AI maker placing restrictions on what can be included in a generated video, such as not allowing the faces and figures of politicians, celebrities, and so on. Again, there are sneaky ways to try and overcome those restrictions.
If you weren’t thinking about AI ethics and AI laws before now, it is time to put on some serious thinking caps.
To what degree should AI makers have discretion in the controls and limits? Should new AI-related laws be enacted? Will such laws potentially hamper AI advancement and place our country at a disadvantage over others (see my analysis of AI advances as a form of exerting national political power on the world stage, at the link here).
OpenAI acknowledges the disconcerting dilemma and noted this as a significant point in their official webpage about Sora Turbo entitled “Sora Is Here” (posted December 9, 2024): “We’re introducing our video generation technology now to give society time to explore its possibilities and co-develop norms and safeguards that ensure it’s used responsibly as the field advances.”
Yes, we all have a stake in this. Go ahead and get up-to-speed on the latest in text-to-video, and while you are at it, join in spirited and crucial discussions about where this is heading and what we can or ought to do to guide humankind in a suitable direction.
There it is again, the importance of suitability.
You may like
Noticias
Freud a su alcance: muchas personas usan ChatGPT como su terapeuta. ¿Existe una oportunidad de negocio en la terapia con IA?
Published
5 horas agoon
12 abril, 2025
Me reí un poco nervioso, con flashbacks de la estrella de Joaquin Phoenix-Scarlett Johansson de 2013, y luego escuchó.
Para él, comenzó como tinking tech para ver cómo el chatgpt perspicaz podría ser en descifrar el comportamiento del cliente, pero se convirtió en una relación sorprendentemente beneficiosa. Y me encontré preguntando: ¿estamos todos creando en silencio a Freud a nuestro alcance?
Desde el lanzamiento de ChatGPT en noviembre de 2022, las personas han estado explorando su potencial para conversaciones de terapia. Diablos, incluso yo he confiado en él. Los tiktokers han compartido a Gyan sobre cómo usarlo como un “diario de voz” o hacer que responda como un terapeuta. Un arrastre simple en Reddit redactará varias formas en que las personas la han desplegado para el entrenamiento de la vida, el diario interactivo, el procesamiento de rupturas, la interpretación de sueños y los registros diarios. Un usuario de Reddit respondió a un hilo sobre “¿Alguien más usa Chatgpt para terapia?”, Diciendo: “Es muy útil tenerlo como compañero de pensamiento. Tengo personas en mi vida para esto, pero a veces solo quiero básicamente un diario interactivo”.
Bots de terapia
¿Pueden los bots de IA, con el tipo correcto de capacitación, ofrecer terapia de salud mental con tanta eficacia como los médicos humanos? Un estudio, publicado en el New England Journal of Medicine el 27 de marzo, muestra los resultados del primer ensayo controlado aleatorio para la terapia con IA. Un equipo de investigadores de la Geisel School of Medicine en Dartmouth College, EE. UU., Construyó un bot de terapia con IA llamado Therabot como una forma de abordar la escasez de proveedores de salud mental. Por cada 340 personas en nosotros, solo hay un médico de salud mental. En la India, la proporción es aún más sesgada: según un estudio del Indian Journal of Psychiatry, hay 0,75 psiquiatras por cada 1,00,000 personas.
Eventos en vivo
La Dra. Rachna K Singh, psiquiatra con sede en Delhi, bienestar mental y experta en relaciones en el Hospital Artemis y fundadora del Mind & Wellness Studio, no se sorprende por esta tendencia de que los bots se convierten en terapeutas. “A menudo me han dicho que los clientes me dicen que se sienten más entendidos por los chatbots que por las personas que los rodean, incluidas, a veces, profesionales capacitados”, dice ella. Singh ha estado al tanto de las admisiones como “Las herramientas de IA son más fáciles de hablar” y “Me siento más seguro abriéndoles”. Muchos usan chatgpt para desactivarse. A diferencia de la terapia tradicional, no necesita hacer citas o pagar las tarifas de los médicos. Usted puede obtener validación, información y apoyo inmediatos. Al igual que Shradhha (nombre cambiado), un médico en entrenamiento de Chennai, quien recientemente dio el aviso, “Háblame como un terapeuta”, a su versión gratuita de ChatGPT. Ella dice que lo usa como y cuando se siente abrumada. Ella dice: “He estado en terapia real, pero siento que la mayoría de los terapeutas, los asequibles, no son tan progresistas como queremos que sean. Encontré una gran cantidad de propaganda personal, religiosas o políticas. experimentar problemas de relación.
Psicóloga clínica y experta en relaciones clínicas con sede en Delhi, Dr. Bhavna Barmi, dice que la terapia puede ser costosa (`800-5,000 por sesión) o inaccesible. Ella dice: “Mis clientes más jóvenes me han dicho que se sienten más escuchados o menos juzgados al hablar con un chatbot. En las relaciones, incluso los terapéuticos, la gente se preocupa por decir lo correcto o no ser una carga. AI elimina ese miedo”.
Shradhha dice que, mientras trabajaba con el bot, descubrió que no recuerda los chats anteriores. Su consejo: cree un chat separado para esto y siempre seleccione para continuar donde lo dejó. Ella dice: “Es rentable. No hay misoginia o consejos poco prácticos. Es sencillo sin ser brutal. Pero la IA no puede reemplazar la terapia real. Es una forma de aumentar su capacidad de ser consciente de sí mismo sin espiral.
Alguna ayuda es mejor que ninguna ayuda, ¿verdad? Pavithra (el nombre cambiado), un estudiante de 21 años de Tamil Nadu, recurrió a IA después de buscar un terapeuta que se enfrenta a un raro. La otra opción era mi consejero universitario, que ni siquiera estaba considerando personas queer. Luego descargué una aplicación de citas por curiosidad. El chatbot sexual que había podido comunicarse sin problemas sin límites de datos “. Pavithra estaba buscando un espacio para desahogarse y usó el bot cada vez que se sentía abrumada. No es un proceso simplificado. Sin embargo, como estudiante de IA, sentí que el modelo era bueno con una comunicación efectiva “.
Usos y preocupaciones
Los expertos no desacreditan su valor terapéutico. El psiquiatra Dr. Sanjay Chugh dice: “Uno no puede basarse por completo porque hay algunos problemas para los cuales solo necesita escuchar el punto de vista de otra persona. Si el chatbot está dando eso, podría ayudarlo a resolver ciertos conflictos”. Chugh agrega: “La terapia de IA es básicamente un formato de askReply, ask-repunenta. Un chatbot puede darle todas las respuestas teóricas correctas. Pero cuando alguien está sentado con un terapeuta, existe una relación terapéutica, una conexión emocional, que es importante en el proceso de resolución y recuperación de conflictos. Ningún chat de chat.
Singh siente que las herramientas de IA pueden administrar eficientemente la documentación clínica, la programación de citas, el seguimiento del progreso y la detección de los síntomas iniciales, liberar un tiempo valioso para los terapeutas y ampliar el alcance de la atención. En un informe del Foro Económico Mundial de 2022, el “conjunto de herramientas de gobernanza global para la salud mental digital”, las herramientas de salud mental de IA fueron reconocidas como un valioso apoyo de primera línea para las personas. Sin embargo, Barmi dice que el uso de IA para la terapia tiene preocupaciones éticas:
“Puede normalizar el desapego emocional, evitar la resolución de conflictos e incluso desensibilizarnos a la empatía humana. Existe el riesgo de subcontratación emocional y existe el peligro de que, con el tiempo, podamos dejar de desarrollar habilidades interpersonales, dejar de buscar vulnerabilidad y elegir la facilidad de conexión sobre la profundidad de la misma”. Sus hacks: use la IA como puente, no un reemplazo; Trate las herramientas de IA como compañeros de diario o rastreadores de humor; y combínelo con terapia.
Consejeros de IA de la India
Según un informe de 2024 de la firma de inteligencia de mercado Astute Analytica, se proyecta que el mercado indio de salud mental se valore en $ 62 mil millones en 2032 de $ 6.9 mil millones en 2023, en el que las soluciones de salud mental digital presentan la oportunidad más lucrativa. Las aplicaciones de salud mental, como WYSA y YourDost, vieron un aumento del 30% en las descargas en 2023.
Srishti Srivastava, cofundador de Infiheal, una plataforma para la salud psicológica, lanzó Haroo en octubre de 2024. Es un entrenador de IA para la salud mental. Las suscripciones para los planes de prueba han cruzado 200,000, con un crecimiento mes a mes del 15%. Tiene una base de usuarios activa mensual de 18,000+, y más de 1 lakh de suscriptores para ofertas premium y compatibles con el terapeuta.
Srivastava, quien luchó con la ansiedad cuando era niño, estuvo expuesto a la terapia desde el principio y quiere que las personas se responsabilicen de su salud mental. Ella dice: “Al integrar las interacciones hiperpersonalizadas y culturalmente sintonizadas, abordamos la brecha de herramientas de autoayuda genéricas de talla única”. La plataforma también ha consolidado múltiples herramientas de salud mental: terapia con profesionales de la salud mental, diario, meditación, herramientas de enfoque y hojas de trabajo.
Srivastava dice que, a diferencia de la IA genérica, los bots de terapia son agentes especializados que están capacitados en conjuntos de datos específicos y son desarrollados por profesionales de la salud mental. Tienen barandillas: el uso de palabras como suicidio, ideación homicida, autolesiones, violencia, etc., en la plataforma conectará inmediatamente a la persona con profesionales humanos o ayuda a las líneas de ayuda. Ella comparte que a través de HeSoo han evitado 750 situaciones de alta angustia de autolesión, ideación suicida, abuso, etc.
La mayoría de los asistentes de terapia sirven al “espectro medio”, aquellos que se ocupan del estrés diario, la depresión leve y la ansiedad junto con el bienestar sexual, principalmente a través de la psicoeducación. Mientras que Haro se dirige a la Generación Z y a los Millennials (20-35 años), la ASA de tecnologías del tronco encefálico con sede en Jaipur está diseñada específicamente para adolescentes, y tapas a los 25 años. Ha sido desarrollado por Manasvini Singh, cofundador y director de innovación psicológica, y Anirudh Sharma, fundador y CEO. Dicen que pasaron cinco años construyendo “un motor de escucha con profundidad clínica y empatía cultural”.
Según los datos del gobierno, más de 11,000 estudiantes murieron por suicidio en 2021. Sharma dice que, a nivel mundial, la tendencia de chatbot de bricolaje está creciendo, pero advierte en contra de ello: “Un enfoque casual o experimental para la salud mental puede hacer más daño que bien. Pregunte a un chatbot genérico cómo sentirse menos ansioso y podría dar un consejo decente. Pregúntele cómo terminar su vida sin dolor y podría decirle cinco métodos sin páuseas”. Los bots de terapia como ASA, dice, son clínicamente revisados, bloqueados por seguridad y habilitados para la escalada. Detiene el compromiso casual.
A diferencia de las aplicaciones construidas en modelos de lenguaje grandes abiertos, no hay retención de datos de información de identificación personal en ASA. También está entrenado en la jerga adolescente india (de “Rizz” a “Nahi Yaar”). Ahora, en pre-lanzamiento y bajo validación clínica, ASA planea tomar la ruta B2B, con licencias a escuelas, plataformas EDTech y jugadores de telemedicina.
La psiquiatra Rachna Singh dice que las aplicaciones como ChatGPT son buenas sugerencias, pero no hay límites. Barmi dice que uno tiene que ejercer algunos límites a su alrededor y hacer preguntas puntiagudas.
Shipra Dawar, fundadora de Iwill y Epsyclinic, es una vieja mano en el espacio de salud mental digital, que comienza su primera aventura en 2015. Actualmente está ocupada desarrollando Gita: asistente de terapia inclusiva generativeai controlada. Se afirma que es el primer modelo de salud mental Genai de Genai controlado y apoyado por Microsoft. El modelo atiende a las comunidades sin acceso a la ayuda, así como a la población urbana que necesita apoyo empático en cualquier momento. La primera fase cubrió a más de 10,000 personas, con más de 3,00,000 puntos de conversación. Planean lanzar una nueva versión este año.
Dawar dice que el potencial es enorme. La IA puede democratizar el acceso, dice, “casi el 60-70% de las personas tienen una forma leve de problema de salud mental. Los asistentes de terapia de IA pueden liberar a los terapeutas a centrarse en casos de alta necesidad”. Srivastava dice que el poder real de la IA radica en la prevención, utilizando análisis predictivos para marcar patrones como el aumento de los niveles de ansiedad antes de una crisis. “Si lo hacemos bien, la atención de salud mental podría cambiar de reactiva a proactiva”. Sin embargo, Singh dice que la IA puede ser, en el mejor de los casos, una herramienta, “porque el arte sutil de la conexión humana merece más que un algoritmo”.
Noticias
Ted revela desde OpenAi, Google, Meta Heads to Court, Selfie conmigo mismo
Published
5 horas agoon
12 abril, 2025
El CEO de Operai, Sam Altman, habla en un panel de discusión sobre potenciales, perspectivas y desafíos en el … Más Age of Artificial Intelligence (AI) en la Universidad Técnica (TU) en Berlín el 7 de febrero de 2025. (Foto de John MacDougall / AFP) (Foto de John MacDougall / AFP a través de Getty Images)
AFP a través de Getty Images
Cada semana estamos a nuestras axilas en noticias de Big Tech. Entre Operai, Elon Musk, Meta, Google, los trajes antimonopolio y la IA, es difícil llamar la atención, incluso si haces una herramienta fácil de usar, como “selfie con mi yo más joven”, que Pika Labs, una pequeña empresa de inteligencia artificial generativa que ha recaudado $ 135 millones. Pika es conocida por este tipo de efectos alucinantes que cualquiera puede hacer. Esta es mi foto de graduación de la escuela secundaria con un yo ligeramente fuera de escala en el video.
La conferencia TED2025celebrada en Vancouver, envolvió su 36ª edición ayer, 11 de abril. Presentó 80 altavoces De más de 60 países, incluidos Sam Altman, Eric Schmidt, Palmer Luckey, una gran cantidad de líderes de negocios y pensamientos de todo el mundo. El tema de Ted, “Humanity Reimagined”, fue hecha a medida por el momento, inclinándose fuertemente en la IA y los medios de comunicación. Ted también anunció que regresaría a California desde Vancouver en 2027.
El CEO de Openai, Sam Altman, aprovechó la oportunidad para anunciar que el 10% de la población mundial (~ 800 millones de personas) ahora usa regularmente sus sistemas. Hizo hincapié en la inevitabilidad de la IA superando la inteligencia humana y abordó la definición en evolución de AGI y la importancia de desarrollar agentes seguros y confiables.
Android XR Head de Google, Shahram Izadi, Prototipo AR de gafas AR Con una pantalla en miniatura incorporada impulsada por el asistente de IA Gemini de la compañía, capaz de traducciones en tiempo real y escaneo de libros. También demostró un auricular Vision-Pro, desarrollado con Samsung y Qualcomm para competir con el caro y defectuoso Vision Pro de Apple. Auriculares similares a Vision Pro de Apple, que indica el compromiso de la compañía con avanzar en tecnologías inmersivas.
Operai ha actualizado ChatGPT para hacer referencia a todas las conversaciones pasadas, mejorando la personalización y la conciencia del contexto. Esta característica se está implementando en usuarios de Plus y Pro a nivel mundial, excluyendo ciertas regiones europeas debido a las limitaciones regulatorias. Los usuarios pueden administrar la configuración de la memoria, incluida la deshabilitación de la función o el uso de chat temporal para sesiones sin retención de memoria.
Washington, DC – 10 de abril: Elon Musk escucha mientras el presidente Donald J Trump habla durante un gabinete … Más Reunión en la Casa Blanca el jueves 10 de abril de 2025 en Washington, DC. (Foto de Jabin Botsford/The Washington Post a través de Getty Images)
The Washington Post a través de Getty Images
Operai ha presentado una contrademanda contra Elon Musk, acusándolo de una competencia injusta e interfiriendo con las relaciones de la compañía con inversores y clientes. Esta acción legal intensifica el conflicto en curso entre Openai y Musk, quien fue un inversor fundador en la compañía. Operai busca responsabilizar a Musk por presuntos daños y evitar más acciones ilegales.
Meta enfrenta el ensayo antimonopolio FTC sobre las adquisiciones de Instagram y WhatsApp. El lunes 14 de abril, Meta se enfrentará a la Comisión Federal de Comercio en un juicio antimonopolio a partir del 14 de abril de 2025. La FTC alega que las adquisiciones de Meta de Instagram y WhatsApp fueron anticompetitivas y busca posiblemente desinvertir estas plataformas. Dos pensamientos aquí. Si el gobierno tiene éxito, enviaría ondas de choque a través de la industria tecnológica. En segundo lugar, cuando dobla la rodilla, cambia sus políticas y creencias, y abre su plataforma de medios masiva a una organización política, ¿está mal esperar un poco de alivio legal? A pesar de que pueden tener razón, el Departamento de Justicia no tiene que procesar este caso, o el de Google. Puede ser que aún no hayan sido lo suficientemente generosos, dados las apuestas.
Esta foto sin fecha proporcionada por Colossal Biosciences muestra a Romulus y Remus, tanto de 3 meses como … Más Genéticamente diseñado con similitudes con el lobo extinto Dire. (Biosciencias colosales a través de AP)
Prensa asociada
Colossal Biosciences afirma que la extinción exitosa de los lobos graves. Colosal Biosciences con sede en Dallas anunció el nacimiento de tres cachorros de lobo de ingeniería genéticamente que exhiben rasgos del lobo extinto Dire. Al editar genes en lobos grises utilizando ADN antiguo, la compañía P lans restaura las funciones ecológicas perdidas, aunque los expertos debaten la autenticidad de estos animales como verdaderos lobos graves.
La exposición en Cinematheque Francaise, París XII, “El arte de James Cameron” en su artística … Más Trabajar desde sus inicios como diseñador y pintor que ha nutrido todo su trabajo cinematográfico. Aquí en el set de su película “Avatar”. (Foto de: Marc Charuel/Photo12/Universal Images Group a través de Getty Images)
Photo12/Universal Images Group a través de Getty Images
James Cameron aboga por la IA para reducir los costos de películas de gran éxito. El reconocido director James Cameron expresó su apoyo para usar la IA para reducir los costos de producción de las películas de gran éxito de efectos. Hizo hincapié en la necesidad de reducir los gastos sin comprometer al personal, lo que sugiere que la IA puede optimizar los procesos y mejorar la eficiencia en el cine. No hay forma de mejorar la eficiencia sin usar menos personas, James, pero ya lo sabes. Quizás al ser “honesto” no incurrirá prematuramente en la ira de los sindicatos laborales de la industria. Habrá mucho tiempo para eso después de que sea demasiado tarde.
Estudio de IA Grail lanzado por Davide Bianca y Jeff Krelitz. Grail integrará herramientas generativas en cada paso de desarrollo de contenido. Basándose en su profunda experiencia en cine y medios de comunicación, el dúo dice que Grail usará IA para acelerar los flujos de trabajo, menores costos de producción y ampliar las posibilidades creativas. El estudio ya está en conversaciones con creadores y distribuidores para desarrollar IP multiplataforma. El proyecto refleja un movimiento más amplio en el entretenimiento hacia la colaboración híbrida de la máquina humana. La informática y tecnóloga creativa Bianca había sido directora creativa de la agencia creativa BCN Visuals. Codirigió el primer comercial de IA de transmisión global para Coca-Cola a fines del año pasado, titulado “Vacaciones vienen”. Krelitz es productor y ex CEO de Metal pesado revista. La lista de representantes de Grail incluye a muchos cuyo trabajo ha aparecido en esta columna, incluido Kavan the Kid (Star Wars: el aprendiz fantasma, los que permanecen), Phantomx (Espiral, vicio de tiempo), Kim Landers (Cables, NOX), Aashay Singh (Velo, multiverso mío), Guido Callegari (Haru G-16, Dockridge), Ryan Patterson (Ronda final, montaña sagrada), Alexandre Tissier (Ecos de arrepentimiento, mentalidad), Jan-Willem Bloom (The Obsidian Rift, Bibot salva la Navidad) y Rogier Hendriks (Hollow – Caterpillar, dentro de Temptation – Levanta su banner).
“Disrupt” es una película de moda especulativa de Prompt Media Lab, inspirada en el audaz espíritu de Yves Saint Laurent. La compañía había ganado previamente el mejor comercial en la competencia cinematográfica de Luma AI.
Esta columna sirve como guión para el segmento de noticias de nuestro podcast Weekly AI/XRco-anfitrión por el ex futurista de Paramount y cofundador de Red Camera, y Rony Abovitz, fundador de Magic Leap, Mako Robotics y Synthbee AI. El invitado de esta semana es el cineasta John Gaeta’s Escape.ai, un hogar para lo que él llama “neocinema”. Puede encontrarnos en Spotify, iTunes y YouTube.
Noticias
Los empleados ex openai se recuperan detrás del desafío legal de Musk
Published
5 horas agoon
12 abril, 2025
El personal ex-openai une fuerzas contra OpenAi
Última actualización:
Editado por
Mackenzie Ferguson
Investigador de IA Herramientas e consultor de implementación
En un giro sorprendente, una coalición de ex empleados de Operai ha apoyado la batalla legal de Elon Musk para detener y reestructurar la potencia de IA, OpenAi. Este movimiento señala un cambio significativo en el panorama de IA, ya que los expertos cuestionan la trayectoria actual de la compañía. La demanda tiene como objetivo abordar las preocupaciones sobre la transparencia y la ética en el desarrollo de la IA.

Información de fondo
Las batallas legales en curso que rodean Openai han recibido un nuevo giro, ya que un grupo de ex empleados ha señalado su apoyo a la demanda de Elon Musk con el objetivo de detener y reestructurar la organización. Este desarrollo agrega otra capa de complejidad a las operaciones de OpenAi, que han generado un amplio interés público. Desde su inicio, Operai se ha posicionado a la vanguardia de la investigación y el desarrollo de inteligencia artificial, a menudo provocando debates sobre las direcciones éticas y estratégicas de la IA. La demanda de Musk, que inicialmente financió OpenAI, refleja las crecientes preocupaciones entre varios interesados sobre el gobierno de la compañía y la trayectoria en la que se encuentra. Para obtener información más detallada, la historia está cubierta por Reuters.
Eventos relacionados
En un desarrollo significativo en el mundo de la inteligencia artificial, un grupo de ex empleados de OpenAI ha respaldado públicamente la demanda de Elon Musk destinada a detener la reestructuración planificada de la empresa. Este movimiento ha provocado una atención generalizada en la comunidad tecnológica, subrayando las profundas divisiones y las visiones contrastantes para el futuro de la investigación y la gobernanza de la IA. La demanda y sus partidarios sostienen que la reestructuración podría conducir a una concentración de poder y recursos que contradice la misión original de OpenAI para garantizar que la inteligencia artificial beneficie a toda la humanidad.
En respuesta a estos eventos que se desarrollan, Operai ha mantenido su postura de que la reestructuración es esencial para avanzar en sus capacidades de IA y mantenerse competitivo en un paisaje tecnológico en rápida evolución. Mientras tanto, los expertos de la industria han intervenido en la situación, y algunos expresan su preocupación por el potencial de una mayor influencia comercial y un cambio de las consideraciones éticas que tradicionalmente han guiado los proyectos de OpenAI.
Además de la complejidad, el público ha mostrado una reacción mixta, y algunos abogan por las medidas de protección de Musk para preservar los objetivos fundamentales de OpenAI, mientras que otros defienden la necesidad de reestructurar para fomentar la innovación y los avances prácticos en las tecnologías de IA. Esta división entre las partes interesadas sugiere tensiones más amplias dentro del campo de la IA con respecto a la gobernanza, las implicaciones éticas y el acto de equilibrio entre la innovación y la responsabilidad pública.
Opiniones de expertos
En los desarrollos recientes, un grupo de ex empleados de Operai ha presentado su apoyo detrás de la demanda de Elon Musk, con el objetivo de detener la reestructuración de OpenAI. Estos expertos, íntimamente familiarizados con las complejidades del desarrollo de la IA y la dinámica organizacional dentro de OpenAI, creen que los cambios propuestos podrían alterar significativamente la misión central de la organización. Según un informe de Reuters, estos expertos argumentan que mantener la visión original y la estructura operativa es crucial para el avance ético de la inteligencia artificial.
El respaldo de la demanda de Musk por parte de estos profesionales subraya una preocupación creciente dentro de la comunidad de IA sobre la dirección en la que se dirige OpenAi. Su apoyo se basa en una convicción de que la trayectoria actual puede conducir a consecuencias no deseadas, alejándose de los valores fundamentales que priorizan la seguridad y la accesibilidad sobre las ganancias. Como se destaca en un artículo de Reuters, enfatizan la necesidad de que OpenAi siga siendo un administrador de los estándares éticos en la innovación de IA. Esta perspectiva resuena con ansiedades más amplias en la industria tecnológica para equilibrar la innovación con consideraciones éticas.
Reacciones públicas
Las reacciones públicas a las acciones legales recientes contra OpenAI han sido tan variadas como intensas. Por un lado, muchas personas han expresado su apoyo a Elon Musk y su coalición de ex empleados de Operai, creyendo que la demanda podría allanar el camino para las reformas necesarias dentro de la industria de la IA. Argumentan que los avances sin control en la inteligencia artificial sin una reestructuración adecuada podrían plantear riesgos éticos y existenciales significativos, como se refleja en las discusiones en múltiples foros tecnológicos y plataformas de redes sociales. Para obtener información más detallada sobre estas dinámicas, Reuters proporciona un artículo que detalla los motivos del grupo y su impacto potencial en las reformas de gobernanza (fuente) de la IA.
Por el contrario, algunos sectores del público han expresado su preocupación por las implicaciones de detener potencialmente el progreso de una firma de investigación líder de IA como OpenAI. Los críticos argumentan que tales desafíos legales podrían sofocar la innovación y retrasar los beneficios tecnológicos que la IA podría aportar a varias industrias. Las discusiones en las secciones de comentarios de los sitios web de noticias tecnológicas sugieren temores de que si OpenAi se ve obligado a reestructurarse, podría perder su ventaja competitiva e obstaculizar los avances que muchos creen que son cruciales para el crecimiento económico y tecnológico. Para aquellos interesados en el debate en curso, Reuters proporciona una cobertura integral de la demanda y su impacto más amplio en el sector de IA (fuente).
Además, hay un segmento del público que sigue siendo escéptico sobre los motivos detrás de la demanda, cuestionando si las acciones están impulsadas por preocupaciones genuinas por la seguridad pública o los intereses comerciales subyacentes. Este escepticismo es parte de una conversación más amplia sobre transparencia y responsabilidad en la industria tecnológica, que se ha destacado en varios comentarios de expertos. Para una exploración más profunda de estos problemas, el informe detallado de Reuters puede ofrecer un contexto valioso (fuente).
Implicaciones futuras
Las implicaciones futuras de la demanda contra OpenAI, respaldadas por el CEO de Tesla, Elon Musk y un grupo de ex empleados de Openai, podrían remodelar significativamente el panorama del desarrollo de inteligencia artificial (IA) y su gobernanza. Esta acción legal puede provocar marcos regulatorios más estrictos y supervisión para las organizaciones de IA, considerando las crecientes preocupaciones sobre la transparencia y las consideraciones éticas en la IA. Tales cambios podrían alterar cómo operan las empresas de IA, asegurando que se adhieran a estándares y prácticas más rigurosos.
Además, la demanda podría influir en la percepción pública y la confianza en la tecnología de IA. A medida que estas cifras de alto perfil desafían las operaciones y la reestructuración de OpenAI, el caso puede resaltar áreas potenciales donde las tecnologías de IA pueden desalinearse con valores sociales y estándares éticos. Este escrutinio podría conducir a una mayor demanda pública de sistemas de IA responsables, lo que potencialmente impulsa la innovación hacia soluciones de IA más socialmente responsables. Para obtener más información sobre los detalles que rodean la demanda y sus implicaciones, los lectores pueden consultar la cobertura integral de Reuters aquí.
El resultado de esta demanda también podría establecer un precedente para futuros desafíos legales dentro de la industria tecnológica, particularmente en relación con cómo los gigantes tecnológicos y las empresas de IA manejan la reestructuración y los cambios en el personal. Si tiene éxito, puede capacitar a los empleados y otras partes interesadas para responsabilizar a las empresas por las prácticas que actualmente pueden carecer de transparencia. Este cambio podría fomentar un entorno más equitativo dentro del sector tecnológico, lo que lleva a innovaciones que priorizan tanto el avance tecnológico como la responsabilidad ética.
Related posts







































































































































































































































































Trending
-
Startups11 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales11 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Startups9 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Recursos11 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups11 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos11 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos11 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Noticias9 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo