Noticias
Confluencia para 3.2.2025 – por CRA

Bienvenido a Confluence. Ha estado muy ocupado en el mundo de la IA generativa, con nuevos modelos sustantivos de Operai, Anthrope y XAI en las últimas semanas. Tenemos mucho de qué hablar, más de lo que podemos llegar a todos a la vez. Dicho esto, esto es lo que tiene nuestra atención esta semana en la intersección de la IA generativa y la comunicación corporativa:
-
Chatgpt Deep Investigación ahora disponible para usuarios más
-
Amazon anuncia Alexa+, impulsado por Claude
-
Cómo un INSIDER AI usa LLMS
-
Nuestra pila de modelos actual
La frontera continúa siendo más barata y más accesible.
Hace menos de un mes, escribimos sobre la investigación profunda de Chatgpt. Nos sorprendió. Sentimos que habíamos cruzado otro umbral en las capacidades generativas de IA, ya que ahora teníamos “un agente que [we] Puede asignar a la investigación e informar sobre un tema, dejar por un tiempo y volver a tener un trabajo que sea igual o superior a la mayoría de los estándares humanos “. La única investigación para una investigación profunda fue que solo estaba disponible para los usuarios de ChatGPT Pro que pagaron $ 200 por mes.
Este ya no es el caso. Esta semana, Openai hizo una investigación profunda a disposición de todos los usuarios de ChatGpt Plus, Team, Enterprise y EDU. Los usuarios de estos niveles reciben 10 consultas por usuario por mes, lo cual es suficiente para tener una idea de cuán poderosa puede ser esta herramienta. Lo pensamos de esta manera: por $ 20 por mes, puede obtener 10 informes de investigación personalizados que están en o superiores al nivel que muchos humanos producirían, y solo tomará aproximadamente 10 minutos generar cada uno. Aún mejor, puede solicitar estos informes cuando lo desee, sobre cualquier tema que atraiga su interés, sin alejar a nadie de su otro trabajo. Hace que sea mucho más fácil y menos costoso, en términos de tiempo, energía y atención, explorar los temas que elija, incluso si es un interés pasajero.
Si es escéptico sobre exactamente cuán inteligente es la investigación profunda, Timothy Lee realizó un experimento que vale la pena su tiempo para leer. Le pidió a 19 de sus lectores, que trabajan como maestros, abogados, ingenieros y más, que usen investigaciones profundas y evalúen su producción. De estos 19 profesionales, 17 creía que la producción se comparaba favorablemente con al menos Los trabajadores de nivel de entrada en su campo con siete lo comparan favorablemente con el trabajo de profesionales experimentados. Y produce estas salidas en minutos, en lugar de horas o días.
Hacemos nuestro mejor esfuerzo en Confluencia para señalarlo a los desarrollos en IA generativa que tienen nuestra atención (y creemos que deberían tener el suyo). Si aún no ha utilizado investigaciones profundas, sugerimos probarlo ahora. Creemos que estarás atónito, como hemos estado.
Una nueva oportunidad para la adopción masiva de IA generativa.
Esta semana, Amazon dio a conocer Alexa+, su asistente virtual de próxima generación impulsado por IA generativo a través de una asociación con antrópico y basado en el modelo de lenguaje grande Claude muy poderoso de Anthrope (el modelo que usamos más día a día). Amazon pronostica que el nuevo Alexa participará en conversaciones “expansivas y naturales”, y que será más capaz de ayudar a los usuarios a realizar tareas diarias. Amazon planea desplegar Alexa+ en los Estados Unidos en las próximas semanas durante un período de acceso temprano (Puede solicitar ser considerado para el acceso temprano aquí), priorizando a los propietarios de dispositivos Alexa más sofisticados. El servicio será gratuito para todos los miembros de Amazon Prime, y costará a los no miembros $ 19.99/mes. El despliegue planificado potencialmente traerá capacidades de IA avanzadas a millones de hogares en un futuro muy cercano.
Esta integración podría fomentar un nuevo nivel de comprensión pública del valor práctico de la IA. Cuando Amazon lanzó Alexa por primera vez en 2014, creó una nueva categoría de productos que rápidamente ingresó a millones de casas. Hoy, más de 600 millones de dispositivos Alexa operan en todo el mundo, con muchos usuarios que los incorporan a las rutinas diarias: verificar el clima, tocar música, controlar otros dispositivos inteligentes en todo el hogar. La presencia establecida y la familiaridad de Alexa proporcionan una plataforma única para la adopción de IA que requiere un cambio de comportamiento mínimo o el aprendizaje de interfaz de los usuarios. Si Anthrope y Amazon se ejecutan bien, esta asociación podría demostrar las capacidades de IA de una manera accesible que resuena más allá de la multitud experta en tecnología.
Pero ese es un considerable “si”. Escribimos el año pasado con optimismo Sobre la inteligencia de Apple de Apple poniendo el poder de la IA en los bolsillos en todo el mundo, pero la tecnología se ha decepcionado. Una búsqueda rápida de Google para “¿Por qué la inteligencia de Apple es tan mala?“Produce páginas de explicadores tratando de responder esa pregunta.
No asumimos que Alexa+ revolucionará inmediatamente la adopción generativa de IA. Dicho esto, el desarrollo merece atención. Amazon afirma haber creado avances técnicos, incluidos “expertos” (sistemas, capacidades e instrucciones para tareas específicas) y “capacidades de agente”, permitiendo que Alexa naveguen de Internet de forma independiente para completar las tareas. La verdadera prueba para Alexa+ no se encuentra en la ambiciosa presentación de Amazon, sino en si ofrece utilidad genuina en salas de estar cuando el centro de atención de marketing se desvanece. Estaremos mirando con interés.
El nuevo video fundador de Operai, Andrej Karpathy, proporciona una valiosa descripción general del estado actual de herramientas y capacidades.
Primero señalamos Confluencia lectores de uno de Andrej Karpathyvideos en Noviembre de 2023. El video en ese caso fue su charla de “Introducción a modelos de idiomas grandes”, que mostró la capacidad de Karpathy para traducir su profunda experiencia en explicaciones accesibles para los no tecnólogos. En las últimas semanas, ha publicado dos nuevos videos, nuevamente dirigidos a una audiencia general no técnica. Esta semana vimos a uno de ellos “Cómo uso LLM”y recomiende que cualquier persona que quiera ponerse al día o profundice en el estado actual de las herramientas y capacidades de LLM hagan lo mismo. Es largo, a poco más de dos horas, pero si lo divides en trozos (como lo hicimos), es manejable.
Quizás la mayor fuerza del video es su enfoque práctico. Es “un tutorial práctico y impulsado por el ejemplo de modelos de idiomas grandes y su creciente lista de características relacionadas”. Al igual que lo hacemos en nuestros seminarios y en sesiones con clientes, Karpathy gasta casi todo el video demostrando estas herramientas y capacidades en lugar de explicarlas. Igualmente valioso es la cobertura de Karpathy de una amplia gama de herramientas, incluidos ChatGPT, Claude, Gemini, Grok, Perpleity, NotebookLM y Cursor. Muchos videos de descripción general como este se centran en una herramienta específica, por lo que ver la karpathy trabajar a través de todos estos y demostrar sus similitudes y diferencias en tiempo real es particularmente valioso.
Para proporcionar una sensación de cuánto cubre, en términos de herramientas y características, esta es la lista de segmentos con estampado de tiempo en el video:
Los “capítulos” que se muestran arriba se mueven de más simples a más complejos y sofisticados a medida que avanza el video, que es otra fuerza del enfoque de Karpathy. En el transcurso del video, Karpathy construye una visualización del estado actual de LLMS, lo que finalmente resulta en la imagen a continuación. Al principio, el lienzo está en blanco. En cada capítulo, Karpathy agrega una nueva pieza a esto, proporcionando descripciones y demostraciones accesibles de cada uno como él.
Para cualquiera que quiera ponerse al día, no solo en las últimas herramientas y capacidades, sino en cómo funcionan y cómo se comparan entre sí, el video de Karpathy sería dos horas bien gastadas. Este video seguramente tendrá una vida útil limitada; de hecho, Claude 3.7 fue lanzado mientras Karpathy estaba filmando el videoy GPT-4.5 fue lanzado el día después de su publicación. Por ahora, sin embargo, podría decirse que es la descripción general más completa y accesible del panorama actual que conocemos. Y hablando de lo rápido que se mueven las cosas …
Las cosas están cambiando rápidamente, pero esto es lo que estamos usando y para lo que, en los principales modelos generativos de IA generativos de hoy.
En las últimas semanas, parece que los poderosos nuevos modelos de IA generativos han estado volando de los estantes como … lo que sea que salga de los estantes en su parte del mundo. Incluso tenemos dificultades para mantenernos al día, y tenemos mucho trabajo por hacer para descubrir dónde sobresale cada modelo. Dicho esto, aquí está la pila actual de modelos que usamos diariamente para fines particulares, en caso de que sea de ayuda. Su uso puede variar.
-
Nuestro controlador diario: Claude Sonnet 3.7 (antrópico). Esta es nuestra opción. Lo usamos para análisis, escritura, asociación de pensamiento, codificación, casi todo lo que no sean los casos de uso específicos a continuación. Hemos preferido a Claude durante más de un año, y Sonnet 3.7 sigue siendo nuestra mejor opción para la mayor parte de nuestro trabajo. Encender su opción de “pensamiento” trae razonamiento a sus respuestas, lo que las hace aún más poderosas. Sonnet 3.7 es increíble.
-
Informes de investigación: Investigación profunda de Openai. Esta herramienta crea largos documentos informativos o informes de investigación (de cinco a 20 páginas o más, a menudo con más de 100 citas) en temas específicos. Todavía no es realmente confiable en la revisión de la literatura académica, ya que gran parte de la literatura permanece detrás de los paredes de pago, y a veces puede superar sobre algunas fuentes, pero si desea ser razonablemente inteligente sobre algo en poco tiempo, esta herramienta es increíble. Asegúrese de verificar cualquier hecho que pueda causar un riesgo de reputación si están equivocados, y solicite a otro modelo que critique el resultado para asegurarse de tener una perspectiva equilibrada. Consulta de ejemplo:
Research the concept of resilience. Consider what the published academic literature has to say about resilience in organizations, teams, communities, and individuals. Apply those findings to a leadership context, extrapolating reasonable conclusions that leaders should draw about fostering resilience in the people they lead in organizations and professional settings. Avoid cliches, tropes, and consultant mythology. Ground your search in what the literature has to say about the best ways to foster resilience in organizations, teams, and people. Pay particular attention to specific behaviors, routines, and actions that leaders can incorporate into their daily practice to foster resilience in others.
-
Pensamiento profundo de un colega brillante: OpenAi O1. Usamos este modelo cuando queremos un pensamiento muy profundo y particular sobre un tema. ¿Por qué “en particular”? ” Hemos llegado a la opinión de que los modelos de idiomas grandes son una forma de inteligencia alienígena. No estamos diciendo que sean sensibles, pero claramente piensan de manera diferente a lo que hacemos (de hecho, nadie sabe realmente cómo piensan), y son claramente inteligentes. O1 es “muy” en ambas dimensiones. Así que lo consideramos como un colega brillante que ve las cosas de manera diferente a lo que hacemos. No le damos muchas consultas, pero cuando tenemos un problema sobre el cual nos gustaría una perspectiva inteligente y diferente con mucho razonamiento detrás de esto, O1 es nuestra opción. Consultas de ejemplo:
Research the time management practice of time boxing or time blocking. Consider how Cal Newport and Oliver Burkeman use this strategy. Offer specific strategies for how to apply it in my life, knowing that my calendar is often pre-planned in advance by my Executive Assistant. Consider the effects of the planning fallacy. Consider how I could best implement this knowing that my primary planning tools are Outlook Calendar and a remarkable 2 digital notebook. Make your thinking practical. As context, note that I lack deep work time, and I sense that I don't focus as much as I should on priorities and big rocks day-to-day. Ideal outcome is better throughput of priority items at work and home. I have blocks of time I can protect. I use the remarkable for notes and reflection, but can also use it for planning. Tasks are kept in a set of next action categories in a to-do app (for now at least).
Write your best case study to create a conversation about judgement among a group of mid-career strategic communication consultants in our firm. Don’t be beholden to popular forms like that of Harvard B School. Use your own intellect to create the content and design however you see fit with the goal of fostering a credible dialogue in which our consultants develop their professional judgment.
-
Generación de imágenes: Midjourney. Hay otras herramientas de generación de imágenes, pero para nosotros, MidJourney sigue siendo la mejor herramienta. Lo usamos para crear las imágenes de encabezado en Confluenciay ahora que puede usarlo como sitio web y no a través de Discord, no hay razón para no usar MidJourney. Al igual que cualquier herramienta de IA generativa, lo que obtienes depende mucho de cómo se indique, por lo que es útil pasar un tiempo para aprender sus entresijos. Incluso hemos creado un proyecto de Claude que hemos hecho una lluvia de ideas de ideas e indicaciones para nosotros. Ejemplo de indica (y la salida):
Mark Rothko-inspired abstract expressionist painting, horizontal rectangular color fields transitioning from earth browns at bottom to vibrant reds and oranges at top, subtle digital texture embedded in the color transitions, corporate silhouettes at bottom edge, 4:3 aspect ratio, oil painting texture --ar 4:3 --v 6
-
Actualizaciones sobre eventos actuales: Grok 3. No mucha gente está hablando de eso, pero Grok 3 es un modelo sorprendentemente bueno, y es sorprendente si consideras que X lo desarrolló en meses. Definitivamente es diferente de los otros modelos, en parte porque casi cualquier cosa sucede en Grok. Puede ser divertido, extraño, crudo … y muy efectivo, especialmente para resumir los eventos actuales, ya que es un modelo de razonamiento que busca tanto la web como X. Nuevamente, verifique cualquier hecho que planifique citar. Consulta de ejemplo (y en este caso, salida, ya que no hemos escrito mucho sobre Grok; al crear su respuesta, Grok pensó durante 18 segundos y leí 11 x publicaciones y 15 páginas web):
Us: The NASCAR race at COTA is today. Bring me up to speed on what's new with it over the past 24 hours. Grok: The NASCAR Cup Series race at the Circuit of the Americas (COTA) is happening today, Sunday, March 2, 2025, at 3:30 p.m. ET. Here’s a rundown of what’s new and noteworthy over the past 24 hours as you get ready for the event. New Track Layout and Race Format This year, NASCAR has switched to a shorter version of the COTA circuit, dubbed the "National" circuit. It’s 2.4 miles long with 20 turns, a big shift from the full 3.4-mile layout used in previous years. The new design eliminates the long straightaways and introduces a sharp, acute left-hander at Turn 6A, which should open up more passing zones—and potentially lead to some on-track chaos. To adjust for the shorter track, the race has been extended to 95 laps, up from 68 laps in prior years. This means more racing action for fans and a fresh strategic challenge for teams. Key Driver and Team Updates William Byron, last year’s winner, is chasing consecutive victories at COTA but will start from 15th today. Tyler Reddick, the 2023 COTA winner, grabbed pole position and looks like a top contender. Shane van Gisbergen, a road course ace and three-time Supercars champion, has been fast in practice and is pegged as a favorite. Connor Zilisch, an 18-year-old phenom, is making his NASCAR Cup Series debut. He’s already won big races like the Rolex 24 at Daytona and the 12 Hours of Sebring, so all eyes are on him. On the team front, 23XI Racing dominated qualifying, locking out the front row, while Trackhouse Racing has three cars in the top 10, promising a fierce fight up front. Technical Changes to Watch Repaved Track Surface: Sections of the track, particularly Turns 2-8, have been freshly paved. This could shake up grip levels and tire wear, making adaptability key. New Goodyear Tires: A new tire compound is in play this year, adding another layer of intrigue to race strategy. Teams will likely lean toward a three-stop strategy, though some might risk a two-stop gamble with the longer race. Fan Experience and Weather NASCAR’s keeping fans entertained with extras like dance troops from America’s Got Talent and pig races. Weather’s looking ideal: sunny skies, 70s temperatures, and just a 5% chance of rain. Future Uncertainty There’s a question mark hanging over COTA’s NASCAR future. The rental deal between Speedway Motorsports and COTA expires this year, and while a 2026 return is anticipated, nothing’s locked in yet. With a revamped track, a longer race, and a stacked field of veterans and rising stars, today’s event is gearing up to be a wild one. Enjoy the show!
Hay otros modelos que son buenos en la generación de videos (VEO 2 de Google) y la música (Suno AI), pero no los usamos mucho día a día. No sabemos mucho sobre a dónde va todo esto, pero sí lo sabemos: nuestra lista será diferente en seis meses. Así que continuaremos publicando esta lista de vez en cuando.
Te dejaremos con algo genial: más allá de los puntos de referencia técnicos, hay algunos en Anthrope que miden las capacidades de Claude de una manera diferente … ¿Qué tan lejos puede llegar a jugar Pokémon Red?. Incluso puedes ver una transmisión en vivo de Claude jugando el juego en Twitch.
AI Disclosure: We used generative AI in creating imagery for this post. We also used it selectively as a creator and summarizer of content and as an editor and proofreader.