Noticias
No Wi-Fi? Dial 1-800-ChatGPT for the AI assistance you need
Published
4 meses agoon

With the holiday season upon us, many companies are finding ways to take advantage through deals, promotions, or other campaigns. OpenAI has found a way to participate with its “12 days of OpenAI” event series.
On Wednesday, OpenAI announced via an X post that starting on Dec. 5, the company would host 12 days of live streams and release “a bunch of new things, big and small,” according to the post.
Also: I’m a ChatGPT power user – here’s why Canvas is its best productivity feature
Here’s everything you need to know about the campaign, as well as a round-up of every day’s drops.
What are the ’12 days of OpenAI’?
OpenAI CEO Sam Altman shared more details about the event, which kicked off at 10 a.m. PT on Dec. 5 and will occur daily for 12 weekdays with a live stream featuring a launch or demo. The launches will be both “big ones” or “stocking stuffers,” according to Altman.
starting tomorrow at 10 am pacific, we are doing 12 days of openai.
each weekday, we will have a livestream with a launch or demo, some big ones and some stocking stuffers.
we’ve got some great stuff to share, hope you enjoy! merry christmas.— Sam Altman (@sama) December 4, 2024
What’s dropped so far?
Wednesday, December 18
Have you ever wanted to use ChatGPT without a Wi-Fi connection? Now, all you have to do is place a phone call. Here’s what OpenAI released on the 10th day:
- By dialing 1-800-ChatGPT, you can now access the chatbot via a toll-free number. OpenAI encourages users to save ChatGPT in their contacts for easy access.
- Users can call anywhere in the US; in other countries, users can message ChatGPT on WhatsApp. Users get 15 minutes of free ChatGPT calls per month.
- In WhatsApp, users can enter a prompt via a text as they would with any other person in their contacts. In this experience, it is just a text message.
- The phone call feature works on any phone, from a smartphone to a flip phone — even a rotary phone.
- The presenters said it is meant to make ChatGPT more accessible to more users.
Tuesday, December 17
The releases on the ninth day all focus on developer features and updates, dubbed “Mini Dev Day.” These launches include:
- The o1 model is finally out of preview in the API with support for function calling, structured outputs, developer messages, vision capabilities, and lower latency, according to the company.
- o1 in the API also features a new parameter: “reasoning effort.” This parameter allows developers to tell the model how much effort is put into formulating an answer, which helps with cost efficiency.
- OpenAI also introduced WebRTC support for the Realtime API, which makes it easier for developers “to build and scale real-time voice products across platforms.”
- The Realtime API also got a 60% audio token price drop, support for GPT-4o mini, and more control over responses.
- The fine-tuning API now supports Preference Fine-Tuning, which allows users to “Optimize the model to favor desired behavior by reinforcing preferred responses and reducing the likelihood of unpreferred ones,” according to OpenAI.
- OpenAI also introduced new Go and Java SDKs in beta.
- An “AMA” (ask me anything) session will be held for an hour after the live stream on the OpenAI GitHub platform with the presenters.
Monday, December 16
The drops for the second Monday in the 12 days of OpenAI series all focused on Search in ChatGPT.
- The AI search engine is available to all users starting today, including all free users who are signed in anywhere they can access ChatGPT. The feature was previously only available to ChatGPT Plus users.
- The search experience, which allows users to browse the web from ChatGPT, got faster and better on mobile and now has an enriched map experience. The upgrades include image-rich visual results.
- Search is integrated into Advance Voice mode, meaning you can now search as you talk to ChatGPT. To activate this feature, just activate Advance Voice the same way you regularly would and ask it your query verbally. It will then answer your query verbally by pulling from the web.
- OpenAI also teased developers, saying, “Tomorrow is for you,” and calling the upcoming livestream a “mini Dev Day.”
Friday, December 13
One of OpenAI’s most highly requested features has been an organizational feature to better keep track of your conversations. On Friday, OpenAI delivered a new feature called “Projects.”
- Projects is a new way to organize and customize your chats in ChatGPT, meant to be a part of continuing to optimize the core experience of ChatGPT.
- When creating a Project, you can include a title, a customized folder color, relevant project files, instructions for ChatGPT on how it can best help you with the project, and more in one place.
- In the Project, you can start a chat and add previous chats from the sidebar to your Project. It can also answer questions using your context in a regular chat format. The chats can be saved in the Project, making it easier to pick up your conversations later and know exactly what to look for where.
- It will be rolled out to Plus, Pro, and Teams users starting today. OpenAI says it’s coming to free users as soon as possible. Enterprise and Edu users will see it rolled out early next year.
Thursday, December 12
When the live stream started, OpenAI addressed the elephant in the room — the fact that the company’s live stream went down the day before. OpenAI apologized for the inconvenience and said its team is working on a post-mortem to be posted later.
Then it got straight into the news — another highly-anticipated announcement:
- Advanced Voice Mode now has screen-sharing and visual capabilities, meaning it can assist with the context of what it is viewing, whether that be from your phone camera or what’s on your screen.
- These capabilities build on what Advanced Voice could already do very well — engaging in casual conversation as a human would. The natural-like conversations can be interrupted, have multi-turns, and understand non-linear trains of thought.
- In the demo, the user gets directions from ChatGPT’s Advanced Voice on how to make a cup of coffee. As the demoer goes through the steps, ChatGPT is verbally offering insights and directions.
- There’s another bonus for the Christmas season: Users can access a new Santa voice. To activate it, all users have to do is click on the snowflake icon. Santa is rolling out throughout today everywhere that users can access ChatGPT voice mode. The first time you talk to Santa, your usage limits reset, even if you have reached the limit already, so you can have a conversation with him.
- Video and screen sharing are rolling out in the latest mobile apps starting today and throughout next week to all Team users and most Pro and Plus subscribers. Pro and Plus subscribers in Europe will get access “as soon as we can,” and Enterprise and Edu users will get access early next year.
Wednesday, December 11
Apple released iOS 18.2 on Wednesday. The release includes integrations with ChatGPT across Siri, Writing Tools, and Visual Intelligence. As a result, the live stream focused on walking through the integration.
- Siri can now recognize when you ask questions outside its scope that could benefit from being answered by ChatGPT instead. In those instances, it will ask if you’d like to process the query using ChatGPT. Before any request is sent to ChatGPT, a message notifying the user and asking for permission will always appear, placing control in the user’s hands as much as possible.
- Visual Intelligence refers to a new feature for the iPhone 16 lineup that users can access by tapping the Camera Control button. Once the camera is open, users can point it at something and search the web with Google, or use ChatGPT to learn more about what they are viewing or perform other tasks such as translating or summarizing text.
- Writing Tools now features a new “Compose” tool, which allows users to create text from scratch by leveraging ChatGPT. With the feature, users can even generate images using DALL-E.
All of the above features are subject to ChatGPT’s daily usage limits, the same way that users would reach limits while using the free version of the model on ChatGPT. Users can choose whether or not to enable the ChatGPT integration in Settings.
Read more about it here: iOS 18.2 rolls out to iPhones: Try these 6 new AI features today
Tuesday, December 10
- Canvas is coming to all web users, regardless of plan, in GPT-4o, meaning it is no longer just available in beta for ChatGPT Plus users.
- Canvas has been built into GPT-4o natively, meaning you can just call on Canvas instead of having to go to the toggle on the model selector.
- The Canvas interface is the same as what users saw in beta in ChatGPT Plus, with a table on the left hand side that shows the Q+A exchange and a right-hand tab that shows your project, displaying all of the edits as they go, as well as shortcuts.
- Canvas can also be used with custom GPTs. It is turned on by default when creating a new one, and there is an option to add Canvas to existing GPTs.
- Canvas also has the ability to run Python code directly in Canvas, allowing ChatGPT to execute coding tasks such as fixing bugs.
Read more about it here: I’m a ChatGPT power user – and Canvas is still my favorite productivity feature a month later
Monday, December 9
OpenAI teased the third-day announcement as “something you’ve been waiting for,” followed by the much-anticipated drop of its video model — Sora. Here’s what you need to know:
- Known as Sora Turbo, the video model is smarter than the February model that was previewed.
- Access is coming in the US later today; users need only ChatGPT Plus and Pro.
- Sora can generate video-to-video, text-to-video, and more.
- ChatGPT Plus users can generate up to 50 videos per month at 480p resolution or fewer videos at 720p. The Pro Plan offers 10x more usage.
- The new model is smarter and cheaper than the previewed February model.
- Sora features an explore page where users can view each other’s creations. Users can click on any video to see how it was created.
- A live demo showed the model in use. The demo-ers entered a prompt and picked aspect ratio, duration, and even presets. I found the live demo video results to be realistic and stunning.
- OpenAI also unveiled Storyboard, a tool that lets users generate inputs for every frame in a sequence.
Friday, December 6:
On the second day of “shipmas,” OpenAI expanded access to its Reinforcement Fine-Tuning Research Program:
- The Reinforcement Fine-Tuning program allows developers and machine learning engineers to fine-tune OpenAI models to “excel at specific sets of complex, domain-specific tasks,” according to OpenAI.
- Reinforcement Fine-Tuning refers to a customization technique in which developers can define a model’s behavior by inputting tasks and grading the output. The model then uses this feedback as a guide to improve, becoming better at reasoning through similar problems, and enhancing overall accuracy.
- OpenAI encourages research institutes, universities, and enterprises to apply to the program, particularly those that perform narrow sets of complex tasks, could benefit from the assistance of AI, and perform tasks that have an objectively correct answer.
- Spots are limited; interested applicants can apply by filling out this form.
- OpenAI aims to make Reinforcement Fine-Tuning publicly available in early 2025.
Thursday, December 5:
OpenAI started with a bang, unveiling two major upgrades to its chatbot: a new tier of ChatGPT subscription, ChatGPT Pro, and the full version of the company’s o1 model.
The full version of o1:
- Will be better for all kinds of prompts, beyond math and science
- Will make major mistakes about 34% less often than o1-preview, while thinking about 50% faster
- Rolls out today, replacing o1-preview to all ChatGPT Plus and now Pro users
- Lets users input images, as seen in the demo, to provide multi-modal reasoning (reasoning on both text and images)
ChatGPT Pro:
- Is meant for ChatGPT Plus superusers, granting them unlimited access to the best OpenAI has to offer, including unlimited access to OpenAI o1-mini, GPT-4o, and Advanced Mode
- Features o1 pro mode, which uses more computing to reason through the hardest science and math problems
- Costs $200 per month
Where can you access the live stream?
The live streams are held on the OpenAI website, and posted to its YouTube channel immediately after. To make access easier, OpenAI will also post a link to the live stream on its X account 10 minutes before it starts, which will be at approximately 10 a.m. PT/1 p.m. ET daily.
You may like
Noticias
Google Cloud Next 2025: Gemini y actualizaciones de AI de Agente, nuevas TPUS
Published
3 horas agoon
10 abril, 2025
Pichai destacó que Géminis ahora impulsa cada uno de GoogleLos productos de medio billón de usuarios, incluidos siete con más de dos mil millones de usuarios, y se burlaron de la llegada de Gemini 2.5 Flash, un nuevo modelo de baja latencia optimizado para un razonamiento rápido y una rentabilidad.
Thomas Kurian, CEO de Google Cloudexpandido en esta visión: “Lo que alguna vez fue una posibilidad es ahora la realidad vibrante que estamos construyendo colectivamente”.
Kurian reveló que más de cuatro millones de desarrolladores ahora están construyendo con Gemini, mientras que el uso de Vertex Ai ha crecido 20 veces año tras año, impulsado por la creciente adopción de modelos como Gemini, Imagen y VEO.
Este aumento en el uso está respaldado por la vasta infraestructura de Google: 42 regiones, más de dos millones de millas de fibra submarina y terrestre, y más de 200 puntos de presencia a nivel mundial, todos accesibles para las empresas a través del nuevo servicio WAN en la nube.
En todos los modelos de IA, sistemas de agente, redes y seguridad, el mensaje de Google Cloud fue claro: esta no es solo una plataforma de IA; Es un motor de transformación de pila completa para la empresa.
Estos son todos los anuncios principales de Google Cloud Next 2025:
El CEO de Alphabet, Pichai, subió a la etapa de apertura para provocar el próximo modelo en el arsenal Ai de HyperScaler: Géminis 2.5 Flashun modelo de razonamiento de baja latencia. No se reveló un marco de tiempo de lanzamiento específico, pero el CEO dijo que representa una evolución de su popular modelo de caballo de batalla.
Google Cloud también proporcionó una actualización en VEO 2, Un modelo de generación de videos desarrollado por Google DeepMind, revelando que ahora está “listo para la producción” en la API de Géminis.
El modelo puede seguir instrucciones simples y complejas, así como simular la física del mundo real en videos de alta calidad que abarcan una amplia gama de estilos visuales.
Los primeros usuarios incluyen Wolf Games, que está utilizando VEO 2 para construir “experiencias cinematográficas” para su plataforma de juego de historia interactiva personalizada.
https://www.youtube.com/watch?v=-uqle4fmvka
Conozca el nuevo hardware de hipercomutadores: Ironwood
AI HyperComuter de Google Cloud es el caballo de batalla detrás de casi todas las cargas de trabajo de IA en su plataforma en la nube. El sistema de supercomputación integrado ahora presenta el Última iteración de su línea de hardware personalizadaUnidades de procesamiento de tensor (TPU).
Madera de hierroLa TPU de la 7ª generación ofrece 5 veces más capacidad de cómputo pico y 6x la capacidad de memoria de alto ancho de banda (HBM) en comparación con la generación previa, Trillium.
Las nuevas TPU de Ironwood vienen en dos configuraciones: 256 chips o 9,216 chips, cada una disponible como una cápsula de una sola escala, con la vaina más grande que ofrece 42.5 exafultos de cómputo.
El hardware HyperComuter está diseñado para ser 2 veces más eficiente de energía en comparación con Trillium, al tiempo que ofrece más valor por vatio.
Los desarrolladores ahora pueden acceder a Ironwood a través de la pila optimizada de Google Cloud en Pytorch y Jax.
Google Cloud vio al hiperscaler duplicar su AI agente Ofertas, presentando nuevas herramientas para permitir que las empresas construyan, implementen y escalaran sistemas de múltiples agentes.
En el corazón de las actualizaciones estaba la nueva Kit de desarrollo de agentes (ADK)-Un marco de código abierto que permite a los desarrolladores construir agentes de IA sofisticados en menos de 100 líneas de código. Ya está siendo utilizado por marcas como Renault y Revionics para automatizar los flujos de trabajo y la toma de decisiones.
Para implementar estos agentes en producción, Google introdujo Motor de agenteun tiempo de ejecución totalmente administrado en Vertex AI. Admite memoria a corto y largo plazo, herramientas de evaluación incorporadas e integración nativa con la plataforma Agentspace de Google para un intercambio interno seguro.
El segundo gran anuncio de agente fue el Protocolo de Agente2Agent (A2A) – Un estándar de interoperabilidad abierto que permite a los agentes comunicarse y colaborar en diferentes marcos como ADK, Langgraph y Crew.ai. Ya están a bordo más de 50 socios, incluidos Box, ServiceNow, Uipath y Deloitte.
Actualizaciones de redes: Cloud Wan, Reducciones de costos de servicio Gen AI
Las redes en el próximo 2025 se centraron en la escala para la IA y la mejora del rendimiento de la nube.
Un nuevo Interconexión de nube de 400 g e interconexión de nubellegando a finales de este año, promete 4X el ancho de banda para la incorporación de datos más rápidos y el entrenamiento de modelos de múltiples nubes.
Google Cloud también se introdujo Soporte para grupos de IA de hasta 30,000 GPU En una configuración sin bloqueo, ahora disponible en la vista previa, dirigida a sobrealimentar la capacitación y el rendimiento de inferencia.
Se han reducido los costos generativos de servicio de IA hasta hasta un 30%, con mejoras de rendimiento de hasta el 40%, gracias a innovaciones como GKE Inference Gateway.
Google también debutó Nube wanuna columna vertebral empresarial totalmente administrada que abre su infraestructura de red global para redes de área amplia. Diseñado para simplificar y asegurar arquitecturas WAN Enterprise, ofrece un rendimiento hasta un 40% más rápido en comparación con Internet público.
En el borde, Google anunció Programabilidad y rendimiento mejoradoscon extensiones de servicio ahora GA para equilibrio de carga en la nube. Cloud CDN Support está en camino, lo que permite a los desarrolladores personalizar el comportamiento de la aplicación en el borde utilizando estándares abiertos como WebAssembly.
https://www.youtube.com/watch?v=xzgu02ycsvc
Actualizaciones de seguridad: Google Unified Security, agentes de Géminis
La infraestructura empresarial está creciendo en complejidad, ampliando la superficie de ataque y sobrecargando a los equipos de seguridad aislados. ¿La respuesta de Google? Seguridad unificada de Google (Gus), que ahora está generalmente disponible.
Gus está diseñado para unificar la inteligencia de amenazas, las operaciones de seguridad, la seguridad en la nube y la navegación segura en una sola plataforma con IA, integrando la experiencia de la empresa. Mandante Subsidiaria para ofrecer una protección más escalable y eficiente.
La nueva solución de seguridad crea un tejido de datos de seguridad de búsqueda en toda la superficie de ataque, que ofrece visibilidad, detección y respuesta en tiempo real en redes, puntos finales, nubes y aplicaciones. Las señales de seguridad se enriquecen automáticamente con la inteligencia de amenazas de Google, y cada flujo de trabajo se simplifica con sus modelos insignia de IA Gemini.
Google también introdujo Agentes de seguridad con Géminis. Entre las nuevas herramientas de AI de agente incluyen un agente de triaje de alerta en las operaciones de seguridad de Google, que investiga automáticamente alertas, compila evidencia y realiza veredictos.
Un nuevo agente de análisis de malware en Google Amenazing Intelligence evalúa un código potencialmente malicioso, ejecuta scripts de deobfuscación y entrega veredictos con plena explicación. Ambos están previsamente en la Q2.
Asociaciones: Equipo Ups con Nvidia, Juniper, SAP y más
No sería una nube de Google a continuación sin una serie de asociaciones golpeadas o extendidas, y este año no fue diferente.
El hiperscaler amplió su asociación con Lumen Para mejorar las soluciones de nube y de red. El equipo se centrará en integrar WAN en la nube con los servicios de Lumen, proporcionar acceso directo a la fibra a las regiones de Google Cloud y ofrecer conexiones seguras y obtenidas de aire a Google Distributed Cloud.
Google Cloud también unió fuerzas con Nvidia Para llevar su familia Géminis de modelos de IA a los sistemas Blackwell del fabricante de chips. La medida ve que los modelos de Géminis están disponibles en el momento, lo que permite a los clientes bloquear la información confidencial, como los registros de pacientes, las transacciones financieras e información del gobierno clasificada.
“Al llevar nuestros modelos de Géminis en las instalaciones con el rendimiento innovador de Nvidia Blackwell y las capacidades informáticas confidenciales, estamos permitiendo a las empresas desbloquear todo el potencial de la IA agente”, dijo Sachin Gupta, vicepresidente y gerente general de infraestructura y soluciones en Google Cloud.
Sus modelos Géminis también están llegando a SAVIAEl centro de IA generativo en su plataforma de tecnología comercial. La hiperescala también agregó sus capacidades de video e inteligencia del habla para apoyar la generación (RAG) de recuperación multimodal para el aprendizaje basado en video y el descubrimiento de conocimiento en los productos SAP.
También anunciado fue una colaboración con Redes de enebro para acelerar los nuevos despliegues de campus y ramas empresariales. Los clientes podrán usar la solución WAN Cloud WAN de Google junto con Juniper Mist Wired, Wireless, NAC, Firewalls y Secure SD-WAN Solutions, lo que les permite conectar aplicaciones críticas y cargas de trabajo de IA, ya sea en Internet, en nubes o dentro de los centros de datos.
El hiperscaler se asoció con Oráculo Para presentar un programa de socios diseñado para permitir a Oracle y Google Cloud Partners ofrecer Oracle Database@Google Cloud a sus clientes.
Firma de almacenamiento de datos DataDirect Reds (DDN) también se unió a Google Cloud en su servicio de sistema de archivos paralelo de Luster Administrado, que proporciona hasta 1 TB/s de rendimiento para servicios de acceso rápido para empresas y startups que construyen AI y aplicaciones de computación de alto rendimiento (HPC).
Acentuar También amplió su asociación estratégica con Google Cloud, con la pareja comprometida a trabajar juntos para desarrollar soluciones de IA específicas de la industria.
Estas últimas asociaciones se suman a las que se escriben a principios de este año, como con Deutsche Telekom, con la pareja trabajando juntos en AI Avancement and Cloud Integration en la infraestructura de red del operador.
Google Cloud para impulsar la modernización de red de Deutsche Telekom con IA, Cloud
Google Cloud, Infovista unen fuerzas en la planificación de la red de RF
Google Cloud admite DT y Vodafone Italia con Ran-Driven AI y una revisión de datos
Noticias
Operai golpea a Elon Musk con contador • El registro
Published
6 horas agoon
10 abril, 2025
Operai ha contrarrestado al cofundador Elon Musk, acusándolo de tácticas ilegales e injustas para descarrilar sus planes de reestructuración y exigir que un juez lo responsabilice por el daño presuntamente infligido en la AI Super-Lab.
El contador considerable [PDF] y la respuesta a las afirmaciones de Musk se presentó ayer en el Tribunal Federal de California. Si bien acusa al magnate de Tesla de una amplia gama de comportamientos destinados a socavar las operaciones de OpenAI, incluido “acoso, interferencia y información errónea”, las dos reclamaciones de alivio de la Contadora se concentran en el intento de febrero de Musk para comprar el fabricante de ChatGPT por $ 97.375 mil millones. Si bien el equipo de Musk ha retratado la oferta como genuina, los abogados de OpenAi lo llaman algo completamente diferente.
En lugar de una oferta de adquisición seria, OpenAI afirma que la medida de Musk fue una “simulada” diseñada “para interferir con la reestructuración corporativa contemplada de OpenAI”. Musk ya no está involucrado en OpenAi y dirige un atuendo de inteligencia artificial rival, Xai, entre otros negocios.
“La carta no incluía evidencia de financiamiento para pagar el precio de compra de casi $ 100 mil millones”, dijo Openai en su presentación de contadores, y agregó que ninguno de los inversores enumerados en la carta de intención de Musk había hecho ninguna diligencia debida. Más tarde, un inversor admitió, según los registros de la corte, que la intención de Musk era obtener acceso a los materiales internos de Openi a través de los procedimientos legales y “detrás de la pared” en el Super Lab de respaldo de Microsoft.
“Aunque OpenAi reconoció la oferta como una finta, su mera existencia, y la tormenta de fuego de los medios que lo rodean, requirió OpenAi para gastar recursos significativos en la respuesta”, dijo el gigante de la IA.
Es ese esfuerzo, y la llamada “oferta simulada”, lo que llevó a OpenAi a acusar a Musk de prácticas comerciales injustas y fraudulentas, así como una interferencia tortuosa con prospectivo ventaja económica (es decir, cuando un tercero interrumpe un posible acuerdo en detrimento del demandante).
Operai está buscando un alivio cautelar para detener la supuesta interferencia y restitución de Musk por los recursos que, según los que afirma, respondieron a su oferta.
Le preguntamos a OpenAi qué esperaba lograr, y nos dirigió a la presentación de la corte y a sus comentarios realizados en la X de Musk, donde el negocio AI dijo que el contador estaba destinado a detener sus “tácticas de mala fe para reducir la velocidad de OpenAi y aprovechar el control de las innovaciones principales de la IA para su beneficio personal”.
[Musk] Intenté confiscar el control de OpenAi y fusionarlo con Tesla como un fin de lucro: sus propios correos electrónicos lo demuestran. Cuando no se salió con la suya, se quedó
“Elon nunca ha sido sobre la misión. Siempre ha tenido su propia agenda”, continuó Openai. “Trató de confiscar el control de OpenAi y fusionarlo con Tesla como una con fines de lucro: sus propios correos electrónicos lo demuestran. Cuando no se salió con la suya, se fue”.
La muy breve historia de una disputa multimillonaria
Para aquellos que han hecho todo lo posible para ignorar la disputa del jefe de Musk y Operai, Sam Altman, puede ser necesaria un poco de historia.
Musk fue uno de los cofundadores de OpenAi, pero se asaltó en 2018 luego de desacuerdos internos sobre el control y la dirección estratégica. Operai alega que el Oligarch SpaceX propuso fusionarse OpenAi con Tesla (que tiene objetivos autónomos impulsados por IA) o buscó un control total, que el equipo de Altman rechazó, lo que llevó a su salida.
En un momento, el liderazgo de Openi temía que Musk se convertiría en un “dictador” de AGI, o poderosa inteligencia general artificial, si se le permitiera un control completo sobre el laboratorio, a juzgar por correos electrónicos surgió durante esta batalla legal.
“Usted declaró que no desea controlar el AGI final, pero durante esta negociación, nos ha demostrado que el control absoluto es extremadamente importante para usted”, escribió Musk, cofundador y mega-boffin Ilya Sutskever. “El objetivo de OpenAi es hacer el futuro el futuro y evitar una dictadura AGI”.
En marzo de 2024, Musk demandó a Openai y Altman alegando incumplimiento de contrato, prácticas comerciales injustas y fallas fiduciarias relacionadas con la estrecha asociación de OpenAI con Microsoft y el establecimiento de una subsidiaria con fines de lucro. (Openai comenzó como una organización sin fines de lucro).
Musk retiró esta demanda en junio del año pasado sin proporcionar una razón pública, pero presentó una casi idéntica un par de meses después. Afirmó el cambio de OpenAi hacia un modelo con fines de lucro contradecía su misión original de desarrollar IA en beneficio de la humanidad.
El equipo legal de Openai describió la queja de Musk como “Lurch[ing] De la teoría a la teoría, distorsione[ing] sus propias exhibiciones y comercio[ing] De principio a fin en conclusiones sin hechos y a menudo ad hominem “.
Operai niega que se esté convirtiendo en una empresa única con fines de lucro, afirmando en su contratación que su plan de reestructuración solo vería que su subsidiaria con fines de lucro se convirtió en una corporación de beneficios público. Ese movimiento es necesario, afirmado Openai, para permitir que el equipo compita mejor por el capital “al servicio de la misión de desarrollar AGI en beneficio de la humanidad”. Dicho esto, Operai continúa recaudando decenas de miles de millones de dólares en fondos, $ 40 mil millones tan recientemente como finales de marzo.
Un portavoz de Operai le dijo además El registro No tenía intención de abandonar su núcleo sin fines de lucro.
“Nuestra junta ha sido muy clara de que tenemos la intención de fortalecer la organización sin fines de lucro para que pueda cumplir su misión a largo plazo”, nos dijo Openai. “No lo estamos vendiendo, estamos duplicando su trabajo”.
Operai también nos señaló el anuncio de la semana pasada de una comisión que comprende expertos en salud, ciencia, educación y servicios públicos para guiar la evolución planificada de las ORG.
“Esperamos los aportes y los consejos de los líderes que tienen experiencia en organizaciones comunitarias sobre cómo podemos ayudarlos a lograr sus misiones”, dijo Openai en un comunicado enviado por correo electrónico.
Sin embargo, OpenAi tiene que completar su transición a una entidad con fines de lucro a fines de 2025 para asegurar que los $ 40 mil millones mencionados anteriormente en fondos dirigidos por SoftBank.
Es probable que la demanda de Musk solo desacelere, especialmente porque el juicio, según una orden previa al juicio esta semana, no se debe comenzar hasta marzo de 2026.
Ni Musk, famoso ahora, la grasa Eminence del presidente Trump, ni su equipo legal respondieron a preguntas para esta historia. ®
Noticias
La generación de imágenes en chatgpt se ha mejorado mucho
Published
6 horas agoon
10 abril, 2025
Resumen
-
La generación de imágenes 4O en ChatGPT ofrece imágenes fotorrealistas con una consistencia mejorada y sigue con precisión las instrucciones.
-
Los usuarios pueden convertir imágenes en diferentes estilos y refinarlas a través de indicaciones.
-
Las imágenes cargadas se pueden emplear como referencias, o ChatGPT puede utilizar su propia base de conocimiento.
Cuando Operai deja una nueva característica, a menudo hay una pequeña cantidad de zumbido entre las personas interesadas, pero rara vez rompe Internet. Sin embargo, con el lanzamiento de un modelo actualizado de generación de imágenes, ChatGPT hizo exactamente eso.
La generación de imágenes 4O ha reemplazado a Dall-E como la herramienta de generación de imágenes predeterminada en ChatGPT, y los resultados son muy impresionantes. Ha llevado a que las personas inundan Internet con imágenes que han generado utilizando la herramienta, y su popularidad parece haber tomado por sorpresa por sorpresa.
La generación de imágenes 4O está integrada en GPT-4O
Como su nombre indica, 4O Generación de imágenes está integrada en el modelo GPT-4O. Mientras esté utilizando ese modelo, no necesita hacer nada más que pedirle a ChatGPT que cree una imagen, y la generación de imágenes 4O llegará a funcionar. Algunos modelos, como O1, no le permiten crear imágenes, pero parece que 4O Generation de imágenes no se limita a GPT-4O. Intenté crear una imagen en GPT-4, y todavía usaba la generación de imágenes 4O en lugar del modelo Dall-E que se usaba anteriormente.
Si prefiere usar Dall-E por algún motivo, todavía hay un Dall-E GPT dedicado disponible en la tienda pública GPT. Puede usar esto para generar imágenes utilizando el modelo más antiguo y menos capaz. Hay poco uso para eso ahora, aparte de ver cuán mejor se ha vuelto la generación de imágenes.
Crear excelentes imágenes fotorrealistas
Una de las mejoras más obvias sobre Dall-E es que la generación de imágenes 4O puede producir algunas imágenes fotorrealistas excelentes, sin que tenga que preocuparse demasiado por la elaboración rápida. Mientras que las imágenes tardan un poco en generarse y revelan lentamente de arriba hacia abajo de una manera que recuerda cómo las imágenes se solucionan lentamente sobre el acceso telefónico, los resultados son muy superiores a lo que Dall-E podría producir.

Relacionado
La nueva generación de imágenes de Chatgpt se siente como un acceso telefónico de nuevo
Ver mis imágenes aparecer lentamente de arriba hacia abajo me lleva de regreso a los viejos tiempos.
Le pedí a Dall-E una imagen fotorrealista de un mono con un sombrero de copa, y esto es lo que me dio:

Esta es una imagen generada por la generación de imágenes 4O utilizando el mismo aviso:

La diferencia es asombrosa y, francamente, un poco aterradora. Hasta ahora, generalmente es posible saber si una imagen era generada por AI si parecía lo suficientemente fuerte para dedos adicionales o texto destrozado. Sin embargo, las imágenes que genera ChatGPT son muy difíciles de distinguir de lo real, y como se dice comúnmente sobre los nuevos desarrollos de IA, este es lo peor que jamás sean.
Puedes convertir imágenes en diferentes estilos
Una de las cosas que ha incorporado Internet desde el lanzamiento de 4O Generation de imágenes es la capacidad de pedirle a ChatGPT que convierta sus imágenes en diferentes estilos. Por ejemplo, puede subir una foto tuya y pedirle a ChatGPT que la cambie al estilo de Van Gogh. Esto no es algo nuevo, pero la calidad de los resultados es un gran paso adelante de Dall-E.

Esto hizo que muchas personas comenzaran a subir imágenes de sí mismas o de la cultura popular que se habían transformado en el estilo de Studio Ghibli, el popular estudio de animación detrás de películas clásicas como Enérgico y Mi vecino Totoro. Los resultados suelen ser impresionantes, pero provocó un debate en línea sobre cuán ético es usar AI para robar esencialmente el estilo de un artista sin su permiso. En el momento de escribir, sin embargo, todavía podía hacer imágenes al estilo de Studio Ghibli sin problemas.
Es fácil refinar imágenes a través de indicaciones
Otra mejora importante es que la generación de imágenes 4O tiene una excelente consistencia. Esto significa que si hay una pequeña cosa mal con su imagen, puede pedirle a ChatGPT que lo arregle, y dejará solo el resto de la imagen. Dall-E a menudo hará cambios importantes en el resto de la imagen cuando intente arreglar una parte de ella.
Esto hace que sea mucho más fácil obtener la imagen exacta que desea, que a menudo es una gran fuente de frustración con Dall-E. Tendría que probar varias veces incluso para acercarse a la imagen que quería, y a veces fallaría por completo. Ahora, por ejemplo, puede pedir tener el sombrero de copa del mono en un ángulo diferente, y el sombrero cambiará, pero el resto de la imagen permanecerá igual.

Esta consistencia también lo hace excelente para producir múltiples imágenes de la misma persona o carácter. Puede pedir que el mismo personaje aparezca en una configuración diferente, y ChatGPT preservará la apariencia del personaje en su nueva imagen.
Chatgpt finalmente puede manejar el texto
Este es uno de los mayores cambios en la generación de imágenes 4O. Dall-E podría agregar texto a las imágenes, pero realmente, realmente luchó por hacerlo. Por lo general, recibirías un mensaje de texto que se parecía principalmente a las palabras que querías, pero que estaban muy ligeramente apagados. Suficiente para arruinar sus imágenes, al menos. Usando la generación de imágenes 4O, puede crear el texto exacto que desea, y genera sin problemas.

Esto, combinado con la consistencia mejorada, significa que puede crear cosas usando la generación de imágenes 4O que simplemente no eran posibles antes. Bosquejé un terrible dibujo de un alienígena de dibujos animados y pude crear una caricatura de cuatro paneles que usó ese personaje, completo con burbujas de habla con texto perfecto. Tomó más tiempo escribir el aviso que para generar mi dibujos animados completos.
4O La generación de imágenes seguirá las instrucciones
Esto es enorme. Uno de los mayores problemas que tuve con Dall-E es que a menudo se negaría a seguir una instrucción, especialmente si esa instrucción involucraba un negativo. Pasé horas tratando de generar una imagen de Santa con bigote pero sin barba (solo para ver cómo se vería, obviamente), y no importa lo que intentara, obtendría una barba completa cada vez.
La única forma en que logré acercarme al éxito fue pedirle que generara una imagen de Hercule Poirot disfrazada de Santa, e incluso entonces, tomó múltiples intentos antes de obtener una imagen sin la barba y un bigote blanco. Ahora, sin embargo, puedo obtener una imagen de Santa sin barba en el primer intento.

Sin embargo, la adhesión de instrucciones es aún más impresionante. Puede definir hasta 20 objetos diferentes, describiendo cada uno, y la generación de imágenes 4O seguirá las instrucciones para cada objeto. El ejemplo que ofrece OpenAI es para una cuadrícula 4×4 de emoji con formas y colores específicos, y ChatGPT puede crear una imagen con los 16 emoji exactamente como se describe.
Puede usar imágenes cargadas como referencias
Una desventaja de generar imágenes a partir de indicaciones es que describir lo que desea en una imagen puede ser difícil, pero describir el estilo de la imagen puede ser aún más difícil. Decirle a ChatGPT que produzca el aspecto exacto que tiene en la cabeza no siempre es tan fácil.
Afortunadamente, no solo necesitas usar texto. Puede cargar imágenes para indicar el tipo de estilo que desea para sus imágenes. CHATGPT usará estas imágenes para informar la imagen final que genera a partir de su mensaje.

Si desea un elemento específico en su imagen, por ejemplo, puede cargar una imagen de él en ChatGPT. Si desea que las personas se encuentren en una pose específica, puede subir una imagen de personas que se encuentran en esa pose. Si encuentra una ilustración que desea que fuera una imagen fotorrealista, puede cargarla y pedirle a ChatGPT que lo convierta en una fotografía.
Incluso puede dibujar un bosquejo aproximado de cómo quiere que se vea la imagen, tomar una foto y subirlo a Chatgpt. Luego puede generar una imagen fotorrealista basada en su terrible boceto. Hace que sea mucho más fácil generar la imagen exacta que desea.
Las imágenes pueden llamar al conocimiento de Chatgpt.
La generación de imágenes 4O no se limita a la información en su mensaje o los archivos que carga. GPT-4O tiene su propia base de conocimiento a la que puede recurrir, para ayudarlo a crear las imágenes que desea. Las imágenes Studio Ghibli son un excelente ejemplo; No necesitas explicar cómo se ve Studio Ghibli Animation; Chatgpt ya lo sabe.

Sin embargo, esto va mucho más allá de conocer diferentes estilos artísticos. Cualquier conocimiento que ChatGPT tenga se puede aplicar a sus imágenes. Por ejemplo, puede solicitar un diagrama que explique el ciclo del agua, y no necesita explicar cuál es el ciclo del agua; ChatGPT extraerá la información clave de su propio conocimiento.
4O La generación de imágenes no es perfecta (todavía)
4O La generación de imágenes es increíblemente buena. De hecho, es tan bueno que Sam Altman, el CEO de OpenAI, tuviera que agregar límites de tarifa porque las GPU de la compañía comenzaban a derretirse.
Inicialmente, puede crear tantas imágenes como quisiera, pero ahora a menudo verá un mensaje que le dice que debe esperar unos minutos antes de crear otra imagen. No es el único problema que puede encontrar con la generación de imágenes 4O.

También hay limitaciones en la creación de ciertos tipos de contenido. En teoría, al menos, no debería poder generar nada ofensivo o inapropiado. Si intenta crear imágenes con caracteres con derechos de autor, ChatGPT también puede rechazar. Las líneas están un poco borrosas aquí. Por lo general, puede crear personajes de un estilo similar, si no los personajes en sí, o evitar las restricciones utilizando indicaciones ligeramente vagas.
El seguimiento de las instrucciones no siempre funciona perfectamente, y todavía ocasionalmente también tengo problemas con el texto. Ahora es muy raro, pero ocasionalmente, arrojará una letra adicional, especialmente si agregar esa letra todavía hace que el texto sea una palabra válida. Sin embargo, generalmente puede corregir fácilmente estos errores con la próxima generación.
La generación de imágenes 4O es un salto considerable en la generación de imágenes de IA, con un fotorrealismo mejorado, una mejor consistencia y una instrucción significativamente mejor. Ahora es increíblemente fácil crear imágenes fotorrealistas que se ven exactamente como quieres.
Sin embargo, hay muchas preguntas éticas que esto plantea. Si eres un diseñador gráfico o un fotógrafo, esta actualización enviará escalofríos por la columna vertebral. Lo que no se puede negar es que esta actualización ha hecho que sea mucho más fácil para los usuarios de ChatGPT crear imágenes muy impresionantes, sean cuales sean los dilemas éticos.
Related posts




































































































































































































































































Trending
-
Startups11 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales11 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Startups9 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Recursos11 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups11 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos11 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos11 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Noticias9 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo