Connect with us

Noticias

Dentro de la sede de chatgpt de Sam Altman, están cambiando el mundo, otra vez

Published

on

SAM Altman no tiene una respuesta a la pregunta de que cada vez más personas hacen: a medida que la inteligencia artificial avanza con una velocidad aterradora, ¿qué les decimos a nuestros hijos? ¿Cómo preparamos la próxima generación para un mundo donde ninguno de ellos será mejor que una máquina en cualquier tarea cognitiva?

“Ha sido esta cosa muy popular a lo largo de la historia predecir que todos trabajaremos cuatro horas a la semana o lo que sea. Pero parece que estamos bastante cableados para querer crear, para ser útiles para otras personas, para hacer cosas, para que me gusten, sentimos que estamos haciendo algo significativo “, dijo el director ejecutivo de Operai en una exclusiva Entrevista la semana pasada con The Times Tech Podcast. “No creo que nos quedemos sin cosas que hacer y tendremos esta existencia miserable donde nos sentamos y simplemente tomamos drogas y jugamos videojuegos”.

Uno escucha alguna versión de su respuesta, un hombro encogiéndose de hombros que es a la vez refrescantemente honesto y profundamente inquietante, de las personas en toda la industria, y en su compañía, mientras corren para construir máquinas súper inteligentes. El Sunday Times recientemente obtuvo un raro acceso al círculo interno de ejecutivos y codificadores de Altman en la sede de la compañía en San Francisco, antes de pasar por Londres camino a la Cumbre de Acción de AI de París de París de la semana pasada.

Sam Altman en el Sunday Times Building en Londres

Fotógrafo del Sunday Times Richard Pohle

La reunión en la capital francesa, de líderes, ejecutivos y científicos de más de 100 países, se anunció como una oportunidad para finalmente unir al mundo en cuestiones clave de gobernanza sobre una tecnología preparada para devolver a la economía y la sociedad. Al final, se logró poco más allá de una fotografía. Ni América ni Gran Bretaña incluso firmaron una declaración que era notable solo por lo poco notable y sin dientes que era.

Mientras que los políticos juegan, Altman y Co funcionan lo más rápido que pueden para ofrecer inteligencia general artificial (AGI), un término utilizado para describir un sistema que es mejor que los mejores humanos en cualquier tarea, para 2030, si no antes. Parecen ser impulsados ​​por un optimismo de la costa oeste: una convicción de que están construyendo un futuro donde se curarán las enfermedades, se resolverán el cambio climático y se abrirán nuevos horizontes de posibilidades, todo con la magia de la inteligencia artificial.

Y, sin embargo, junto con el optimismo de la gasa, viene una admisión poco quirúrgica de que, para llegar allí, primero debemos pasar por un período de transición que, como lo expresó Altman, será muy “doloroso” y “desordenado” a medida que los trabajos se vaporizan, las picos de desigualdad y las puntas de desigualdad y Los gobiernos reaccionan. “Creo que habrá mucho bien y mucho mal. Mi esperanza y mi creencia genuina es que habrá órdenes de magnitud más buenas que malas de esto “, dijo Altman, y agregó:” Pero habrá muy mal, y creo que estás viendo algunas de ellas ahora “.

Escondido a la vista

Lo extrañarías si no supieras que estaba allí. La sede de San Francisco de Openai se encuentra en un almacén no notable en un área llena de almacenes: vestigios del pasado industrial de la ciudad. No hay letrero afuera, ni rascacielos que arroje una sombra sobre el horizonte, solo una gran caja gris.

Un tren de tren ligero pasa los modernos edificios de oficinas en San Francisco.

La sede de Operai en San Francisco

David Paul Morris/Bloomberg/Getty Images

En el interior, todo es pisos de concreto pulido, madera rubia, una cocina replante de agua y café, y una profusión de plantas bañadas en sol difundidas a través de ventanas esmeriladas. En resumen, se parece a cualquier otra nueva empresa, pero para el reluciente piano negro Yamaha en el área de recepción principal y una silla de aguacate, un mueble inspirado en una imagen temprana de Dall-E, el generador de texto a imagen de OpenAi. Eso, hace solo tres años, sorprendió al mundo pero ahora parece bastante pasada.

Había un frisson de energía en el aire el día de la visita del Sunday Times; Las acciones tecnológicas de EE. UU. Habían entrado en caída libre después de que Deepseek, una compañía china previamente poco conocida, lanzó un modelo de IA gratuito que estaba a la par con ChatGPT de OpenAI. La revelación puesta pagada a la noción de que Estados Unidos, dirigido por la compañía de Altman, había abierto una gran ventaja en China.

Nick Turley, jefe de Chatgpt, no era sorprendido, principalmente. “Una compensación de ser la primera es que verás a la gente ponerse al día”, dijo. Pero Turley no estaba pensando en eso porque el mundo, en su opinión, está a punto de cambiar de nuevo, al igual que lo hizo cuando él y su equipo desataron a Chatgpt en noviembre de 2022. “Es el año de los agentes, en mi opinión”, agregó .

Los agentes son herramientas de IA que se liberan de un sitio web o el cuadro de búsqueda de la aplicación para salir a la web para llevar a cabo tareas por sí mismos, desde reservar boletos y enviar correos electrónicos, hasta realizar investigaciones profundas y fundamentales sobre el nivel de un doctorado o una ciudad Analista financiero.

“El mercado total direccionable para un agente general sorprendente, el conjunto total de problemas de los usuarios, es todo lo que hace en el navegador hoy”, dijo Turley. “Esto es lo que siempre se suponía que era cuando nos propusimos construir chatgpt. Nunca se suponía que fuera un chatbot. Internamente, lo llamamos el ‘Super Asistente’ “.

Operai ha lanzado dos agentes en las últimas semanas: operador, que puede hacer tareas básicas como compras en línea; e investigación profunda, que puede realizar investigaciones y generar informes. El operador, en particular, es bastante torpe, pero eso es parte del enfoque de implementación “iterativo” de OpenAi: expulsar los productos defectuosos para que el público pueda usarlos y proporcionar comentarios como una forma de acelerar su mejora.

Tyler Cowen, el prominente economista, se quedó atónito por las capacidades de Deep Research. “Lo he hecho escribir varios documentos de diez páginas para mí, cada uno de ellos sobresalientes. Pienso que la calidad es comparable a tener un buen asistente de investigación a nivel de doctorado, y enviar a esa persona con una tarea por una semana o dos, o tal vez más ”, escribió. “Excepto que la investigación profunda hace el trabajo en cinco o seis minutos”.

Altman agregó: “Con este lanzamiento, mucha gente ha dicho: ‘Este es mi momento AGI personal: está haciendo un trabajo real y económicamente valioso y no pensé que un sistema iba a hacer esto'”.

Estando atento al peligro

Los agentes se han convertido en el foco central de la mayoría de los principales desarrolladores de IA. De hecho, Anthrope, un rival de OpenAI, ha lanzado una función similar de “uso de computadora”, mientras que Google lanzó su agente Mariner a un pequeño grupo de personas en diciembre.

Para Johannes Heidecke, el jefe de sistemas de seguridad de OpenAi, desatar miles, y, en última instancia, miles de millones, de agentes cada vez más capaces en la web hace que su trabajo sea dramáticamente más duro. Pero, dijo, Openai había ideado un “marco de preparación” para evaluar los “riesgos catastróficos planteados por modelos cada vez más poderosos”.

Probamos Chatgpt contra Deepseek. Cuidado con Sam Altman

Esto incluye un sistema de calificación sobre las habilidades de un modelo para, por ejemplo, evadir los controles impuestos por OpenAI o lanzar ataques cibernéticos, y un requisito para dejar de entrenar un modelo por completo si se vuelve demasiado peligroso. Y hay una ventaja, dijo, en modelos cada vez más poderosos: son mejores en la vigilancia de sí mismos.

“Vemos que, por ejemplo, nuestro [latest reasoning models]donde pasan un tiempo pensando antes de responder, se han vuelto mucho más robustos para los descansos en la cárcel “, dijo Heidecke, refiriéndose cuando las herramientas de IA calculan cómo evitar las limitaciones incorporadas. “Todavía hay mucho trabajo por hacer aquí, pero vemos muchos signos prometedores de que los modelos se vuelven más inteligentes y también lo que lleva a las victorias de seguridad”.

Y, sin embargo, solo días retirados de la cumbre húmeda de Squib en París, uno no puede escapar de la realidad de que tales medidas son en su mayoría voluntarias. No se ha aprobado una regulación significativa en Gran Bretaña o América, donde JD Vance, el vicepresidente, advirtió la semana pasada contra reglas “excesivas” que podrían “matar una industria transformadora”. La Ley de IA de la Unión Europea ha impuesto algunas restricciones básicas de “seguridad del producto”, pero se concibió en gran medida antes de que ChatGPT se lanzara en 2022.

Mientras tanto, las capacidades de IA se agravan con una velocidad increíble. Mark Chen, jefe de investigación de Openai, dijo: “Solíamos poder lanzar evaluaciones diseñadas para humanos en los modelos, ¿verdad? Los humanos compiten en concursos de matemáticas. Puedes tomar esas mismas competiciones de matemáticas y darlas a los modelos. Una de las cosas realmente notables durante el último año es que hemos roto esa barrera: hay muy pocos concursos o evaluaciones que podría diseñar para los humanos que aún son desafiantes para los modelos “.

Y, sin embargo, en estas primeras entradas de la Revolución AI, estas herramientas, para toda su capacidad de asombrosa, todavía hacen algunas cosas notablemente tontas. Google se avergonzó este mes cuando un anuncio de Super Bowl por su insignia Ai Gemini mostró un factoid erróneo sobre cuánto queso Gouda come el mundo. En diciembre, la IA de Apple reescribió un titular de la BBC sobre Luigi Mangione, alegando que el presunto asesino de un ejecutivo de atención médica de los Estados Unidos se había disparado.

Sam Altman, creador de OpenAi, en un podcast de tecnología.

Altman es entrevistado para el podcast Times Tech por Katie Prescott y Danny Fortson

Fotógrafo del Sunday Times Richard Pohle

Batalla por el dominio

A pesar de los pasos en falso, las fuerzas financieras y geopolíticas que empujan a la IA solo están creciendo. Operai es utilizado por más de 300 millones de personas cada semana, y está recaudando una nueva ronda de financiamiento, dirigida por SoftBank, que lo valoraría en $ 300 mil millones (£ 240 mil millones), 15 veces su valor en 2022. Los siete principales tecnologías estadounidenses Las empresas, Meta, Alphabet, Amazon, Microsoft, Nvidia, Tesla y Apple, están juntas gastando $ 560 mil millones en infraestructura de IA entre 2024 y finales de este año. Elon Musk, quien dirige su propia compañía de IA, Grok, ha tratado de reducir la velocidad de Openai a través de los tribunales, ha comenzado varias demandas, y la semana pasada anunció una oferta hostil de $ 97 mil millones para hacerse cargo de la compañía. Fue rechazado rápidamente.

SoftBank sufre una pérdida trimestral sorpresa

Los puñetazos son parte de la batalla por el dominio de una tecnología que podría absorber billones de dólares, ya que automatiza las franjas de la economía. Geopolíticamente, la IA ha tomado el centro del escenario, como las grandes potencias de China, América y Europa se empeñan por la supremacía. Todos los líderes estadounidenses de IA, incluido OpenAI, han comenzado a trabajar recientemente con el establecimiento de defensa.

Altman dijo: “Creo que sería muy malo si el gobierno de los Estados Unidos no entiende la IA y el impacto que tendrá, por lo que nos gustaría tratar de ayudar”. Añadió: “Una cosa que creo que no es tan fácil de resolver es, ¿nos dirigimos hacia una IA más autoritaria o una IA más democrática? Obviamente, estoy muy en el lado democrático de la IA, pero eso viene con algunas compensaciones y eso vendrá con algunas cosas malas en la sociedad, como nunca hemos empoderado a las personas tanto como estamos a punto de hacerlo “.

En la sede de OpenAI, esas preocupaciones son, para la mayoría, no frontales. En cambio, la fuerza laboral se centra en construir un producto que funcione, y que las personas y las empresas pagarán. Joanne Jang, jefa de comportamiento modelo en la compañía, ha creado un equipo completo dedicado a lo que podría describirse libremente como la “personalidad” de Chatgpt. En términos prácticos, eso significa ajustar la especificación para que el modelo no sea demasiado sycofántico, pero no demasiado predicador, no para alucinar, sino para minimizar los tiempos que dice, en efecto, “no sé”.

Jang es, en cierto modo, construir la personalidad de nuestro futuro jefe. Ella dijo: “Creo que a largo plazo, definitivamente queremos tener múltiples personalidades predeterminadas y presets que los usuarios puedan explorar”.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

DeepSeek-V3 now runs at 20 tokens per second on Mac Studio, and that’s a nightmare for OpenAI

Published

on

Join our daily and weekly newsletters for the latest updates and exclusive content on industry-leading AI coverage. Learn More


Chinese AI startup DeepSeek has quietly released a new large language model that’s already sending ripples through the artificial intelligence industry — not just for its capabilities, but for how it’s being deployed. The 641-gigabyte model, dubbed DeepSeek-V3-0324, appeared on AI repository Hugging Face today with virtually no announcement, continuing the company’s pattern of low-key but impactful releases.

What makes this launch particularly notable is the model’s MIT license — making it freely available for commercial use — and early reports that it can run directly on consumer-grade hardware, specifically Apple’s Mac Studio with M3 Ultra chip.

“The new DeepSeek-V3-0324 in 4-bit runs at > 20 tokens/second on a 512GB M3 Ultra with mlx-lm!” wrote AI researcher Awni Hannun on social media. While the $9,499 Mac Studio might stretch the definition of “consumer hardware,” the ability to run such a massive model locally is a major departure from the data center requirements typically associated with state-of-the-art AI.

DeepSeek’s stealth launch strategy disrupts AI market expectations

The 685-billion-parameter model arrived with no accompanying whitepaper, blog post, or marketing push — just an empty README file and the model weights themselves. This approach contrasts sharply with the carefully orchestrated product launches typical of Western AI companies, where months of hype often precede actual releases.

Early testers report significant improvements over the previous version. AI researcher Xeophon proclaimed in a post on X.com: “Tested the new DeepSeek V3 on my internal bench and it has a huge jump in all metrics on all tests. It is now the best non-reasoning model, dethroning Sonnet 3.5.”

This claim, if validated by broader testing, would position DeepSeek’s new model above Claude Sonnet 3.5 from Anthropic, one of the most respected commercial AI systems. And unlike Sonnet, which requires a subscription, DeepSeek-V3-0324‘s weights are freely available for anyone to download and use.

How DeepSeek V3-0324’s breakthrough architecture achieves unmatched efficiency

DeepSeek-V3-0324 employs a mixture-of-experts (MoE) architecture that fundamentally reimagines how large language models operate. Traditional models activate their entire parameter count for every task, but DeepSeek’s approach activates only about 37 billion of its 685 billion parameters during specific tasks.

This selective activation represents a paradigm shift in model efficiency. By activating only the most relevant “expert” parameters for each specific task, DeepSeek achieves performance comparable to much larger fully-activated models while drastically reducing computational demands.

The model incorporates two additional breakthrough technologies: Multi-Head Latent Attention (MLA) and Multi-Token Prediction (MTP). MLA enhances the model’s ability to maintain context across long passages of text, while MTP generates multiple tokens per step instead of the usual one-at-a-time approach. Together, these innovations boost output speed by nearly 80%.

Simon Willison, a developer tools creator, noted in a blog post that a 4-bit quantized version reduces the storage footprint to 352GB, making it feasible to run on high-end consumer hardware like the Mac Studio with M3 Ultra chip.

This represents a potentially significant shift in AI deployment. While traditional AI infrastructure typically relies on multiple Nvidia GPUs consuming several kilowatts of power, the Mac Studio draws less than 200 watts during inference. This efficiency gap suggests the AI industry may need to rethink assumptions about infrastructure requirements for top-tier model performance.

China’s open source AI revolution challenges Silicon Valley’s closed garden model

DeepSeek’s release strategy exemplifies a fundamental divergence in AI business philosophy between Chinese and Western companies. While U.S. leaders like OpenAI and Anthropic keep their models behind paywalls, Chinese AI companies increasingly embrace permissive open-source licensing.

This approach is rapidly transforming China’s AI ecosystem. The open availability of cutting-edge models creates a multiplier effect, enabling startups, researchers, and developers to build upon sophisticated AI technology without massive capital expenditure. This has accelerated China’s AI capabilities at a pace that has shocked Western observers.

The business logic behind this strategy reflects market realities in China. With multiple well-funded competitors, maintaining a proprietary approach becomes increasingly difficult when competitors offer similar capabilities for free. Open-sourcing creates alternative value pathways through ecosystem leadership, API services, and enterprise solutions built atop freely available foundation models.

Even established Chinese tech giants have recognized this shift. Baidu announced plans to make its Ernie 4.5 model series open-source by June, while Alibaba and Tencent have released open-source AI models with specialized capabilities. This movement stands in stark contrast to the API-centric strategy employed by Western leaders.

The open-source approach also addresses unique challenges faced by Chinese AI companies. With restrictions on access to cutting-edge Nvidia chips, Chinese firms have emphasized efficiency and optimization to achieve competitive performance with more limited computational resources. This necessity-driven innovation has now become a potential competitive advantage.

DeepSeek V3-0324: The foundation for an AI reasoning revolution

The timing and characteristics of DeepSeek-V3-0324 strongly suggest it will serve as the foundation for DeepSeek-R2, an improved reasoning-focused model expected within the next two months. This follows DeepSeek’s established pattern, where its base models precede specialized reasoning models by several weeks.

“This lines up with how they released V3 around Christmas followed by R1 a few weeks later. R2 is rumored for April so this could be it,” noted Reddit user mxforest.

The implications of an advanced open-source reasoning model cannot be overstated. Current reasoning models like OpenAI’s o1 and DeepSeek’s R1 represent the cutting edge of AI capabilities, demonstrating unprecedented problem-solving abilities in domains from mathematics to coding. Making this technology freely available would democratize access to AI systems currently limited to those with substantial budgets.

The potential R2 model arrives amid significant revelations about reasoning models’ computational demands. Nvidia CEO Jensen Huang recently noted that DeepSeek’s R1 model “consumes 100 times more compute than a non-reasoning AI,” contradicting earlier industry assumptions about efficiency. This reveals the remarkable achievement behind DeepSeek’s models, which deliver competitive performance while operating under greater resource constraints than their Western counterparts.

If DeepSeek-R2 follows the trajectory set by R1, it could present a direct challenge to GPT-5, OpenAI’s next flagship model rumored for release in coming months. The contrast between OpenAI’s closed, heavily-funded approach and DeepSeek’s open, resource-efficient strategy represents two competing visions for AI’s future.

How to experience DeepSeek V3-0324: A complete guide for developers and users

For those eager to experiment with DeepSeek-V3-0324, several pathways exist depending on technical needs and resources. The complete model weights are available from Hugging Face, though the 641GB size makes direct download practical only for those with substantial storage and computational resources.

For most users, cloud-based options offer the most accessible entry point. OpenRouter provides free API access to the model, with a user-friendly chat interface. Simply select DeepSeek V3 0324 as the model to begin experimenting.

DeepSeek’s own chat interface at chat.deepseek.com has likely been updated to the new version as well, though the company hasn’t explicitly confirmed this. Early users report the model is accessible through this platform with improved performance over previous versions.

Developers looking to integrate the model into applications can access it through various inference providers. Hyperbolic Labs announced immediate availability as “the first inference provider serving this model on Hugging Face,” while OpenRouter offers API access compatible with the OpenAI SDK.

DeepSeek’s new model prioritizes technical precision over conversational warmth

Early users have reported a noticeable shift in the model’s communication style. While previous DeepSeek models were praised for their conversational, human-like tone, “V3-0324” presents a more formal, technically-oriented persona.

“Is it only me or does this version feel less human like?” asked Reddit user nother_level. “For me the thing that set apart deepseek v3 from others were the fact that it felt more like human. Like the tone the words and such it was not robotic sounding like other llm’s but now with this version its like other llms sounding robotic af.”

Another user, AppearanceHeavy6724, added: “Yeah, it lost its aloof charm for sure, it feels too intellectual for its own good.”

This personality shift likely reflects deliberate design choices by DeepSeek’s engineers. The move toward a more precise, analytical communication style suggests a strategic repositioning of the model for professional and technical applications rather than casual conversation. This aligns with broader industry trends, as AI developers increasingly recognize that different use cases benefit from different interaction styles.

For developers building specialized applications, this more precise communication style may actually represent an advantage, providing clearer and more consistent outputs for integration into professional workflows. However, it may limit the model’s appeal for customer-facing applications where warmth and approachability are valued.

How DeepSeek’s open source strategy is redrawing the global AI landscape

DeepSeek’s approach to AI development and distribution represents more than a technical achievement — it embodies a fundamentally different vision for how advanced technology should propagate through society. By making cutting-edge AI freely available under permissive licensing, DeepSeek enables exponential innovation that closed models inherently constrain.

This philosophy is rapidly closing the perceived AI gap between China and the United States. Just months ago, most analysts estimated China lagged 1-2 years behind U.S. AI capabilities. Today, that gap has narrowed dramatically to perhaps 3-6 months, with some areas approaching parity or even Chinese leadership.

The parallels to Android’s impact on the mobile ecosystem are striking. Google’s decision to make Android freely available created a platform that ultimately achieved dominant global market share. Similarly, open-source AI models may outcompete closed systems through sheer ubiquity and the collective innovation of thousands of contributors.

The implications extend beyond market competition to fundamental questions about technology access. Western AI leaders increasingly face criticism for concentrating advanced capabilities among well-resourced corporations and individuals. DeepSeek’s approach distributes these capabilities more broadly, potentially accelerating global AI adoption.

As DeepSeek-V3-0324 finds its way into research labs and developer workstations worldwide, the competition is no longer simply about building the most powerful AI, but about enabling the most people to build with AI. In that race, DeepSeek’s quiet release speaks volumes about the future of artificial intelligence. The company that shares its technology most freely may ultimately wield the greatest influence over how AI reshapes our world.

Continue Reading

Noticias

4 formas en que los creadores de contenido pueden usar chatgpt

Published

on

He sido un creador de contenido a tiempo completo durante cuatro años y una cosa que no vi fue que usaría herramientas de IA diariamente o semanalmente en 2025. ChatGPT fue una de las primeras herramientas de IA que experimenté en 2024. Después de chatear y aprender cómo otros creadores de contenido y amigos influyentes estaban usando ChatGPT, decidí ver cómo integrarlo en mis procesos de trabajo.

¿Qué es chatgpt?

Si aún no ha oído hablar de ChatGPT, esta herramienta AI toma su entrada (una pregunta o una solicitud) y genera una respuesta. Esta herramienta de IA generativa puede ayudarlo a resumir información compleja, organizar sus ideas e incluso escribir sus subtítulos de redes sociales. ChatGPT incluso puede ayudarlo a codificar.

Una cosa a considerar es que, si bien esta herramienta de IA relativamente nueva puede acceder a grandes cantidades de información, es posible que no pueda responder temas o actualizaciones de hiper-nicho y cambios a industrias y campos específicos. Como creador de contenido, estoy usando ChatGPT, pero también sé que no es mi única fuente de investigación cuando escribo publicaciones de blog, artículos o planeo mi contenido. Estoy usando ChatGPT como punto de partida para habilitar la creatividad y ayudarme a pensar fuera de la caja.

Me sorprendió cómo ChatGPT me ha permitido trabajar más rápido, ahorrar tiempo y probar nuevas ideas. Desde ideas de lluvia de ideas hasta lanzar un programa de televisión local, ChatGPT está transformando cómo dirijo mi negocio como influencer.

Aquí hay 4 formas de usar ChatGPT como creador de contenido:

Use chatgpt para elaborar sus lanzamientos

Puede usar ChatGPT para ayudarlo a escribir un lanzamiento como creador de contenido. Muchos creadores de contenido e influencers pasan una buena parte del tiempo enviando lanzamientos. Algunos presentan posibles socios de marca, mientras que otros influyentes pueden presentar para reuniones de negocios, hablar en eventos o incluso comenzar un nuevo negocio.

Usé ChatGPT para elaborar un correo electrónico para presentar un programa de estación de noticias local para un segmento. Fui muy específico en el aviso que ingresé en ChatGPT.

Aquí está el mensaje exacto que dije:

¡Hola! Necesito ayuda para crear un lanzamiento para una red de noticias local. Mi objetivo es contribuir a los programas de red local como un host recurrente o regular.

Mi nombre es Emma, ​​y ​​soy una creadora local de contenido de Seattle. Comparto el contenido de estilo de vida y estilo de Seattle en mis canales de redes sociales, la edición de Emma. También comparto cosas que hacer/lugares para explorar en Seattle por vecindario en mi canal de YouTube. Investigo en profundidad y muestro cafeterías de Seattle, tiendas de plantas y negocios locales. También documento y comparto los puntos de referencia de Seattle. ¿Qué debo incluir en mi campo? “

Personalicé la respuesta que ChatGPT recomendó, y mi segmento con New Day Northwest de King 5 se emitió el jueves 6 de marzo.

Cómo comenzar a usar chatgpt para lanzar:

Puede comenzar preguntando: “¿Puedes ayudarme a escribir un correo electrónico de presentación para un socio de marca?”

Luego, proporcione información relevante a ChatGPT. Cuanto más contexto le dé a ChatGPT, mejor respuesta recibirá. En su mensaje (su pregunta o solicitud), asegúrese de compartir cuáles son sus objetivos del campo. También recomiendo compartir quién eres y el tipo de contenido que creas.

Use chatgpt para hacer una lluvia de ideas y reutilizar contenido

Ya sea que cree videos de YouTube, episodios de podcasts o publique en Sustack, ChatGPT puede ayudarlo a generar nuevas ideas, desarrollar series para sus plataformas y reutilizar contenido.

Si es un creador de contenido que quiere planificar su contenido con anticipación o si es un influencer atrapado en una rutina creativa, ChatGPT puede ayudarlo a hacer una lluvia de ideas. Así es como puede comenzar a hacer una lluvia de ideas con chatgpt:

  • “Soy un [insert niche, age, demographic, etc.] Creador de contenido basado en [city or state]. Como creador de contenido, creo contenido [insert niches]. Necesito ayuda para hacer una lluvia de ideas sobre ideas [social media platform]. ¿Puedes escribir una lista de ideas de contenido? “

Si es un creador de contenido que desea reutilizar su contenido, puede pedirle a ChatGPT a:

  • Tome una publicación de blog anterior y conviértala en Ideas de Reel o Tiktok de Instagram.
  • Tome contenido de temporada del año pasado y cree nuevas formas de usar esas publicaciones de Instagram para este año.
  • Mire su contenido de mejor desempeño del año pasado y pregunte cómo reutilizar todo ese gran contenido nuevamente para este año.

ChatGPT unidireccional me ha ayudado con mi contenido es que me ha ayudado a desarrollar una serie de firmas. Como creador de contenido de Seattle, constantemente comparto cosas que hacer en Seattle, incluidas las cafeterías y librerías de Seattle.

Esto es lo que incluí en mi aviso para chatgpt:

“¿Puedes ayudarme a elaborar una serie exclusiva sobre Tiktok? Estoy buscando desarrollar una serie centrada en Seattle. Desde que exhibo vecindarios, cafeterías, librerías y cosas de Seattle, espero que pueda empaquetar una serie que la gente quiera ver más y todos los videos. Me encantaría la serie para que también tenga un título atrapado y algo que pueda recrear sobre y otra vez”.

Chatgpt respondió con: “La lista de éxitos de Seattle, su guía de fin de semana de Seattle y Seattle en 60 segundos”.

Me encantó la idea de Seattle en 60 segundos y desde entonces he presentado vecindarios como el centro de Seattle, Capitol Hill y Pioneer Square en Tiktok e Instagram.

Use chatgpt para ayudarlo a planificar eventos en su ciudad

Si eres un creador de contenido o un influencer que quiere conectarse con otros en tu ciudad, puedes usar ChatGPT para ayudarte a organizar el evento.

Estoy buscando organizar una reunión de Seattle Creator, y usé ChatGPT para ayudarme a crear los formularios RSVP. Esto es lo que ingresé en chatgpt:

Quiero planificar un evento de reunión de Coffee Coffee de Seattle Creator. Obtuve más de 50 personas para responderme en hilos, diciendo que estaban interesados. ¿Cómo debo proceder? Cincuenta personas es muchas personas, por lo que me gustaría recopilar las direcciones de correo electrónico de todos usando los formularios de Google y comenzar a construir un directorio. ¿O debo planificar un lugar más grande frente a una cafetería?

Chatgpt respondió con un proceso paso a paso para ayudarme a comenzar a planificar el evento. Seguí y pregunté qué incluir en el formulario de Google, y dio una lista de preguntas detalladas para incluir en el formulario.

Use chatgpt para recibir comentarios

Muchos creadores de contenido e influencers son solopreneurs. Como creador a tiempo completo, trabajo principalmente de forma independiente para escribir artículos, episodios de podcasts de grabación y filmar y editar contenido de video de forma corta. ChatGPT ha sido útil para obtener comentarios sobre todas mis plataformas de redes sociales, YouTube y boletín de correo electrónico.

Aquí hay algunas formas en que puede usar ChatGPT para obtener comentarios y mejorar su contenido:

  • Pida comentarios a ChatGPT sobre sus miniaturas de YouTube. He subido mis miniaturas de YouTube a ChatGPT y me pregunté si debía ajustar títulos, colores, alineación, etc.
  • Pregúntele a Chatgpt qué ganchos funcionarían mejor en los carretes de Tiktok e Instagram.
  • Pregunte a Chatgpt sobre lo que falta en su publicación de blog o esquema de podcast.

ChatGPT puede ser una excelente herramienta de IA para los creadores de contenido que buscan trabajar más rápido, ahorrar tiempo y desarrollar un nuevo contenido para sus plataformas. Lleva algún tiempo jugar con ChatGPT y descubrir cómo puede funcionar para su marca y negocio. Pero ChatGPT y otras herramientas de IA están aquí para quedarse y continuarán ayudando a los creadores de contenido e influyentes a avanzar.

Continue Reading

Noticias

Operai sacude la voz de voz con nuevos modelos de discurso |

Published

on

Opadai anunció el lanzamiento de nuevos modelos Para el reconocimiento automático de voz (ASR) y el texto a la voz (TTS), marcando otra evolución en la tecnología de voz impulsada por la IA. Sus nuevos modelos prometen no solo una precisión superior, sino también a mejorar la asequibilidad, lo que los convierte en una opción atractiva para las empresas que buscan desplegar agentes de voz con AI.

Capacidades mejoradas de reconocimiento de voz

Los nuevos modelos ASR, GPT-4O-Transcribe y GPT-4O-Mini-Transcribe, representan un salto notable más allá de Whisper, el modelo de transcripción de última generación de OpenAi. Estos modelos ofrecen tasas de error de palabras mejoradas y un mejor manejo de idiomas, acentos y ruido de fondo. La introducción de la versión “mini” es particularmente notable, ya que tiene un precio competitivo para hacer que la transcripción de alta calidad sea más accesible para las empresas que requieren soluciones escalables.

Tecnología avanzada de texto a voz

Operai también ha mejorado significativamente sus capacidades TTS. Los nuevos modelos pueden generar voces altamente realistas, con entonaciones y expresividad de sonido natural. Una característica destacada es la capacidad de dar forma al tono, la emoción y la entrega de una voz utilizando indicaciones de lenguaje natural. Esto significa que las empresas pueden crear voces de IA adaptadas a escenarios específicos, ya sea un representante de servicio al cliente amigable y empático, una voz formal y autorizada para llamadas relacionadas con el cumplimiento, o un narrador dinámico para demostraciones de productos. Esta flexibilidad hace que los modelos TTS de OpenAI sean algunas de las herramientas más versátiles disponibles para construir interacciones de voz atractivas.

Arquitectura del agente de voz: dos enfoques

Otro aspecto interesante de Anuncio de Openai es su enfoque para la arquitectura de agente de voz impulsada por la IA. Actualmente, ha habido dos enfoques principales:

  • Modelo de voz a voz (S2S): Traduce directamente la entrada hablada en discurso generado con una latencia mínima
  • Enfoque encadenado: Divide el proceso en pasos discretos:
    • ASR transcribe el discurso al texto
    • Un modelo de lenguaje grande (LLM) procesa el texto para generar una respuesta
    • TTS convierte la respuesta nuevamente en discurso

Operai está distinguiendo entre estos enfoques, reconociendo que, si bien S2S ofrece una latencia más baja, proporciona menos control. El enfoque encadenado, que ahora es compatible con OpenAI, es más robusto para los casos de uso empresarial, como el servicio al cliente, donde el control, la precisión y el cumplimiento son críticos.

Implicaciones del mercado para plataformas sin código

Con este lanzamiento, Operai ahora ofrece una pila completa de modelos para apoyar el desarrollo de sofisticados agentes de voz de Genai. Esto tiene implicaciones para el mercado, particularmente para las empresas que construyen soluciones sin código para la IA de voz empresarial. Estas plataformas, que permiten a las empresas crear e implementar agentes de voz impulsados ​​por la IA sin una programación extensa, ahora tienen un nuevo conjunto de modelos de alta calidad para integrarse en sus ofertas.

Sin embargo, esto también plantea la cuestión de la diferenciación: si la mayoría de los proveedores sin código terminan utilizando los modelos de OpenAI, el principal factor competitivo cambia de la calidad de la IA subyacente a la usabilidad de la plataforma misma.

Para los proveedores de agentes de voz sin código, esto podría significar que la diferenciación debe venir en otras áreas, como la amplitud de las integraciones, la intuición del diseño y la fuerza de las características críticas como las pruebas, la evaluación y el monitoreo.

La usabilidad, el cumplimiento y el análisis robusto probablemente se convertirán en las características definitorias que distinguen las plataformas en un paisaje donde los modelos de IA fundamentales son en gran medida las mismas. Por supuesto, los modelos de audio competitivos de las compañías rivales también podrían proporcionar diferenciación si ofrecen un rendimiento significativamente mejor a un costo comparable o menor.

Estrategia empresarial de Openai

Este anuncio también señala el movimiento continuo de OpenAi hacia la infraestructura de IA empresarial. Al ofrecer modelos ASR, LLM y TTS de alta calidad, OpenAi se está posicionando como el proveedor fundamental de las interacciones de voz impulsadas por la IA. La compañía no ofrece un constructor de agentes de voz sin código, sino que proporciona los componentes del desarrollador necesarios para construir dichos sistemas.

Este enfoque es similar a cómo los LLM de OpenAI se han convertido en la columna vertebral para varias aplicaciones con IA en todas las industrias. Sugiere que OpenAI ve a la voz de voz de grado empresarial como un área creciente de demanda y quiere establecerse como el proveedor de referencia para organizaciones que buscan modelos de IA robustos para las interacciones con los clientes.

Impacto en las soluciones del centro de contacto

Para los proveedores de CCAA, los nuevos modelos Operai crean oportunidades y desafíos. Los proveedores de soluciones ahora tienen modelos de vanguardia nuevos y asequibles para proporcionar habilidades de automatización de voz mejoradas en sus productos. Sin embargo, la competencia intensificada entre los proveedores que utilizan capacidades de IA similares medias Es posible que las compañías de CCAA necesiten encontrar nuevas formas de diferenciar sus ofertas de agentes de voz. Por lo menos, el conjunto de modelos de OpenAI ejerce presión sobre los proveedores de CCAA para garantizar que ofrezcan plataformas de agentes de voz sin código al menos tan robustos y capaces como aquellas que pueden ser fácilmente creadas por programadores novatos que utilizan modelos y herramientas de desarrolladores de OpenAI.

La experiencia del cliente y los proveedores de CCAA también pueden agregar un valor estratégico mucho más allá de la conexión de modelos ASR, LLM y TTS. Por ejemplo, en campañas salientes, el éxito depende de los datos del cliente, los objetivos comerciales y el cumplimiento. Las plataformas CX pueden ofrecer herramientas para el diseño de la campaña, la ejecución y el análisis.

Para el apoyo, incluso los grandes agentes virtuales necesitan un conocimiento fresco y preciso. Los proveedores pueden ayudar a administrar y actualizar bases de conocimiento para garantizar respuestas confiables alineadas en políticas.

El monitoreo del rendimiento también es vital. Análisis en tiempo real, seguimiento de sentimientos y herramientas de retroalimentación ayudan a ajustar las conversaciones. Las ideas de ROI también son esenciales: los líderes quieren rastrear los ahorros, los impulso de CSAT y el rendimiento en los equipos.

El futuro de la adopción de la voz de la voz de la empresa

En última instancia, el anuncio de OpenAI representa un cambio en cómo las empresas construirán e implementarán agentes de voz impulsados ​​por la IA. Con mejores modelos, menores costos y más flexibilidad, es probable que veamos una aceleración en la adopción de agentes de voz de IA en el servicio al cliente y más allá. Las compañías que tienen éxito en este nuevo panorama probablemente serán las que van más allá de los modelos de IA y se centrarán en ofrecer soluciones perfectas, escalables y diferenciadas a los clientes empresariales.

‹Cognigy muestra la innovación y el valor de AI en Nexus 2025 Summit

Categorías: artículos

Continue Reading

Trending