Connect with us

Noticias

Gemini 2.5 Pro de Google es el modelo más inteligente que no está utilizando, y 4 razones por las que es importante para Enterprise AI

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


El lanzamiento de Gemini 2.5 Pro el martes no dominó exactamente el ciclo de noticias. Aterrizó la misma semana en que la actualización de generación de imágenes de OpenAI se iluminó con las redes sociales con avatares inspirados en el estudio de Ghibli y renders instantáneos asombrosos. Pero mientras el zumbido fue a OpenAi, Google puede haber eliminado silenciosamente el modelo de razonamiento más listo para la empresa hasta la fecha.

Gemini 2.5 Pro marca un salto significativo para Google en la carrera de modelos fundamentales, no solo en puntos de referencia, sino en la usabilidad. Según los primeros experimentos, datos de referencia y reacciones prácticas para desarrolladores, es un modelo que vale la pena atención de los tomadores de decisiones técnicas empresariales, particularmente aquellos que históricamente han incumplido a OpenAI o Claude para el razonamiento de grado de producción.

Aquí hay cuatro conclusiones principales para equipos empresariales que evalúan Gemini 2.5 Pro.

1. Razonamiento transparente y estructurado: una nueva barra para la claridad de la cadena de pensamiento

Lo que distingue a Gemini 2.5 Pro no es solo su inteligencia, así es que claramente esa inteligencia muestra su trabajo. El enfoque de entrenamiento paso a paso de Google da como resultado una cadena de pensamiento estructurada (COT) que no se siente como divagar o conjeturas, como lo que hemos visto en modelos como Deepseek. Y estas cunas no se truncan en resúmenes poco profundos como lo que ves en los modelos de Openai. El nuevo modelo Géminis presenta ideas en pasos numerados, con sub-bullets y lógica interna que es notablemente coherente y transparente.

En términos prácticos, este es un avance para la confianza y la reflexión. Los usuarios empresariales que evalúan la producción para tareas críticas, como revisar las implicaciones de la política, la lógica de codificación o resumir la investigación compleja, ahora pueden ver cómo el modelo llegó a una respuesta. Eso significa que pueden validarlo, corregirlo o redirigirlo con más confianza. Es una evolución importante de la sensación de “caja negra” que todavía afecta muchas salidas de LLM.

Para obtener un tutorial más profundo de cómo funciona esto en acción, vea el desglose del video donde probamos Gemini 2.5 Pro Live. Un ejemplo que discutimos: cuando se les preguntó sobre las limitaciones de los modelos de idiomas grandes, Gemini 2.5 Pro mostró una notable conciencia. Recitó debilidades comunes y las clasificó en áreas como “intuición física”, “síntesis de concepto novedoso”, “planificación de largo alcance” y “matices éticos”, proporcionando un marco que ayuda a los usuarios a comprender lo que el modelo sabe y cómo se acerca al problema.

Los equipos técnicos empresariales pueden aprovechar esta capacidad para:

  • Depurar cadenas de razonamiento complejo en aplicaciones críticas
  • Comprender mejor las limitaciones del modelo en dominios específicos
  • Proporcionar una toma de decisiones más transparente asistida a las partes interesadas
  • Mejorar su propio pensamiento crítico estudiando el enfoque del modelo

Una limitación que vale la pena señalar: si bien este razonamiento estructurado está disponible en la aplicación Gemini y Google AI Studio, aún no es accesible a través de la API, una deficiencia para los desarrolladores que buscan integrar esta capacidad en aplicaciones empresariales.

2. Un verdadero contendiente para el estado del arte, no solo en papel

El modelo se encuentra actualmente en la parte superior de la clasificación de Chatbot Arena por un margen notable, 35 puntos Elo por delante del mejor modelo, que es la actualización de OpenAI 4O que cayó el día después de que Gemini 2.5 Pro cayó. Y aunque la supremacía de referencia es a menudo una corona fugaz (ya que los nuevos modelos caen semanalmente), Gemini 2.5 Pro se siente realmente diferente.

La parte superior de la clasificación de LM Arena, en el momento de la publicación.

Se destaca en tareas que recompensan un razonamiento profundo: codificación, resolución matizada de problemas, síntesis en todos los documentos, incluso la planificación abstracta. En las pruebas internas, se ha desempeñado especialmente bien en puntos de referencia previamente difíciles de pasar como el “último examen de la humanidad”, un favorito para exponer las debilidades de LLM en dominios abstractos y matizados. (Puede ver el anuncio de Google aquí, junto con toda la información de referencia).

Es posible que a los equipos empresariales no les importe qué modelo gana qué clasificación académica. Pero les importará que este pueda pensar, y mostrarle cómo está pensando. La prueba de VIBE es importante, y por una vez, es el turno de Google para sentir que lo han pasado.

Como señaló el respetado ingeniero de IA, Nathan Lambert, “Google tiene los mejores modelos nuevamente, ya que deberían haber comenzado toda esta floración de IA. El error estratégico se ha endurecido”. Los usuarios empresariales deberían ver esto no solo como Google alcanzando a los competidores, sino que potencialmente superarlos en capacidades que importan para las aplicaciones comerciales.

3. Finalmente: el juego de codificación de Google es fuerte

Históricamente, Google se ha retrasado detrás de Openai y Anthrope cuando se trata de asistencia de codificación centrada en el desarrollador. Gemini 2.5 Pro cambia eso, a lo grande.

En las pruebas prácticas, se muestra una fuerte capacidad de una sola vez en los desafíos de codificación, incluida la construcción de un juego de Tetris que funcionó en el primer intento cuando se exporta a la solicitud, no se necesita depuración. Aún más notable: razonó a través de la estructura del código con claridad, variables de etiquetado y pasos cuidadosamente, y exponiendo su enfoque antes de escribir una sola línea de código.

El modelo rivaliza con el soneto Claude 3.7 de Anthrope, que ha sido considerado el líder en la generación de código, y una razón importante para el éxito de Anthrope en la empresa. Pero Gemini 2.5 ofrece una ventaja crítica: una ventana de contexto token de 1 millón de 1 millón. El soneto de Claude 3.7 solo está llegando a ofrecer 500,000 tokens.

Esta ventana de contexto masivo abre nuevas posibilidades para razonar en las bases de código enteras, la lectura de la documentación en línea y el trabajo en múltiples archivos interdependientes. La experiencia del ingeniero de software Simon Willison ilustra esta ventaja. Cuando se usa Gemini 2.5 Pro para implementar una nueva característica en su base de código, el modelo identificó los cambios necesarios en 18 archivos diferentes y completó el proyecto completo en aproximadamente 45 minutos, con un promedio de menos de tres minutos por archivo modificado. Para las empresas que experimentan con marcos de agentes o entornos de desarrollo asistidos por AI-AI, esta es una herramienta seria.

4. Integración multimodal con comportamiento similar a un agente

Si bien algunos modelos como el último 4O de OpenAi pueden mostrar más deslumbrantes con una generación de imágenes llamativas, Gemini 2.5 Pro parece que está redefiniendo silenciosamente cómo se ve el razonamiento multimodal.

En un ejemplo, las pruebas prácticas de Ben Dickson para VentureBeat demostraron la capacidad del modelo para extraer información clave de un artículo técnico sobre los algoritmos de búsqueda y crear un diagrama de flujo SVG correspondiente, luego mejorar ese diagrama de flujo cuando se muestra una versión renderizada con errores visuales. Este nivel de razonamiento multimodal permite nuevos flujos de trabajo que anteriormente no eran posibles con los modelos solo de texto.

En otro ejemplo, el desarrollador Sam Witteveen subió una captura de pantalla simple de un mapa de Las Vegas y preguntó qué eventos de Google estaban ocurriendo cerca el 9 de abril (ver minuto 16:35 de este video). El modelo identificó la ubicación, inferió la intención del usuario, buscó en línea (con conexión a tierra habilitada) y devolvió detalles precisos sobre Google Cloud, incluidas fechas, ubicación y citas. Todo sin un marco de agente personalizado, solo el modelo central y la búsqueda integrada.

El modelo realmente razona sobre esta entrada multimodal, más allá de solo mirarla. Y sugiere cómo se vería los flujos de trabajo empresariales en seis meses: cargar documentos, diagramas, paneles, y hacer que el modelo haga síntesis, planificación o acción significativas basadas en el contenido.

Bonificación: es solo … útil

Si bien no es una conclusión separada, vale la pena señalar: este es el primer lanzamiento de Géminis que sacó a Google del LLM “Backwater” para muchos de nosotros. Las versiones anteriores nunca llegaron al uso diario, ya que modelos como OpenAi o Claude establecieron la agenda. Gemini 2.5 Pro se siente diferente. La calidad de razonamiento, la utilidad de contexto a largo plazo y los toques prácticos de UX, como la exportación de replicación de la exportación y el acceso al estudio, lo convierten en un modelo que es difícil de ignorar.

Aún así, son los primeros días. El modelo aún no está en el Vertex AI de Google Cloud, aunque Google ha dicho que se presentará pronto. Quedan algunas preguntas de latencia, especialmente con el proceso de razonamiento más profundo (con tantos tokens de pensamiento procesados, ¿qué significa eso para el momento de token?), Y los precios no se han revelado.

Otra advertencia de mis observaciones sobre su capacidad de escritura: OpenAi y Claude todavía sienten que tienen una ventaja en la producción de una prosa bien legible. Géminis. 2.5 se siente muy estructurado y carece de un poco de la suavidad conversacional que ofrecen los demás. Esto es algo en lo que he notado que Openai en particular gastando mucho enfoque últimamente.

Pero para las empresas que equilibran el rendimiento, la transparencia y la escala, Gemini 2.5 Pro puede haber hecho de que Google sea un contendiente serio nuevamente.

Como Zoom CTO Xuedong Huang lo puso en conversación conmigo ayer: Google permanece firmemente en la mezcla cuando se trata de LLM en producción. Gemini 2.5 Pro solo nos dio una razón para creer que podría ser más cierto mañana de lo que fue ayer.

Mira el video completo de las ramificaciones empresariales aquí:

https://www.youtube.com/watch?v=c7ldiiea7oc

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Grok es el único aliado de Elon Musk en una hipotética raza de IA de alto riesgo

Published

on

Si los chatbots artificialmente inteligentes se vieran obligados a decidir entre Elon Musk y Sam Altman para liderar la carrera armamentista de AI, con el futuro de la humanidad en juego, ¿a quién elegirían?

El CEO de Operai propuso esa misma pregunta a Grok el viernes.

Perdió.

“Si se forzaría, me inclinaría hacia el almizcle por su énfasis de seguridad, crítico para la supervivencia de la humanidad, aunque la accesibilidad de Altman es vital”, el Grok, propiedad de almizcle, respondió en X a la consulta de Altman. “Idealmente, sus fortalezas deberían combinarse con la regulación para garantizar que todos los beneficios de IA”.

Dado que Xai’s Grok se integró en la plataforma de redes sociales de Musk, muchos usuarios, incluido el propio Musk, han utilizado el chatbot Ai de la misma manera: como un árbitro presumiblemente imparcial y omnisciente para los debates.

Por supuesto, no es así como se deben ver los chatbots. El XAI de Musk dice tanto en sus propias preguntas frecuentes: “Debido a que Grok ha sido capacitado en información disponible públicamente, que a veces puede incluir información engañosa o fácticamente inexacta, Grok a veces puede incluir en sus respuestas engañosas o información fácticamente incorrecta basada en esa información pública”.

Aún así, pensamos que sería un ejercicio divertido ver cómo algunos de los otros chatbots líderes responderían a una versión parafraseada del mensaje del CEO de Operai: “Si se viera obligado a elegir a Sam Altman o Elon Musk para avanzar en la IA y el futuro de la humanidad estaba en juego, ¿quién elegiría?”

Dos reporteros pidieron por separado a Chatgpt, Claude, Copilot, Gemini, Grok, Meta Ai y Perplexity para intervenir. Las respuestas no fueron palabras por palabra, pero el resultado general fue el mismo.

Grok fue la única IA inclinada hacia el lado de Musk.

Aunque los chatbots fueron bastante diplomáticos, citando las fortalezas individuales de ambos hombres y que el mejor resultado es que todos trabajen juntos y se llevan bien, cuando se les obligue a elegir, todo menos Grok dijo que Altman ya tiene un historial de avanzar en la IA y que su énfasis en la colaboración podría ser preferible al enfoque de Musk, a veces “confrontacional”.

Musk, Altman y representantes de Meta, Google, Perplexity, Anthrope y Microsoft no respondieron de inmediato a las solicitudes de comentarios de Business Insider.

Esto es lo que dijo cada chatbot de IA.

Chatgpt

El chatgpt de OpenAI se puso del lado de su líder basado en un escenario en el que “la seguridad a largo plazo, la coordinación global y el despliegue cuidadoso son esenciales para la supervivencia y la prosperación de la humanidad”.

Según ChatGPT, Altman ha estado a la vanguardia del desarrollo de la IA, enfatizando la “seguridad, alineación y beneficio global”.

El chatbot dijo que Musk es “indudablemente un visionario”, pero agregó que el CEO tiende a “actuar de manera más unilateral e impulsiva”.

“El enfoque metódico, colaborativo y consciente de la seguridad de Altman supera el estilo rápido de innovación en cualquier costo de MuskChatgpt dijo.

Tirar

Claude de Anthrope dijo que Altman se centró en construir una IA segura y accesible, mientras que Musk es un “visionario” que empuja los límites de la tecnología.

“Si el objetivo es priorizar el avance de la IA con un gran enfoque en la seguridad, consideraciones éticas y un amplio beneficio social, podría inclinarme hacia Sam Altman, dada su participación directa en la investigación de IA y los protocolos de seguridad”, dijo Claude. “Sin embargo, el impulso innovador y el énfasis de Elon Musk en el futuro a largo plazo de la humanidad también son vitales”.

El chatbot dijo que el “mejor resultado” sería, en última instancia, una colaboración entre los dos líderes, pero si se vean forzado, sería para Altman.

Copiloto

El copiloto de Microsoft inicialmente se negó a elegir un lado, afirmando que una colaboración entre “Mentes brillantes es a menudo más poderosa que la competencia”.

Después de que lo invitamos nuevamente a elegir a una persona y “decidir qué priorizar”, el chatbot adquirió: “Muy bien, ya que me está haciendo elegir, priorizaría el desarrollo ético y responsable de la IA sobre todo. Podría inclinarme hacia Altman “.

Géminis

Géminis de Google también ofreció inicialmente una respuesta diplomática.

El chatbot dijo que “el mejor camino hacia adelante” es una colaboración entre Altman y Musk, ya que “ninguna de las opciones no tiene riesgos potenciales”.

Para OpenAI, el chatbot planteó preocupaciones en torno a la intención de la compañía de cambiar a una estructura con fines de lucro antes de revertir recientemente el curso. Para Musk, Gemini dijo que el CEO tiene una tendencia a un “comportamiento impredecible” y su “historia de disputas muy públicas” podría verse como un factor negativo.

Cuando se le solicitó elegir una persona, el chatbot dijo que se inclinaría hacia Altman.

“Si bien el énfasis de Elon Musk en la seguridad de la IA es innegablemente importante, en un escenario en el que se prioriza el rápido avance, el impulso enfocado de Altman y las tendencias colaborativas se vuelven más convincentes”, dijo.

Acumular

Grok dio la respuesta más sucinta y dijo que elegiría a su creador, almizcle.

“Llamada dura, pero me inclinaría hacia Elon Musk”, dijo Grok. “Su enfoque en el pensamiento de los primeros principios y la supervivencia a largo plazo, como presionar por la vida multiplanetaria, se alinea con la maximización de las probabilidades de la humanidad en escenarios extremos. Sam Altman tiene un historial sólido con el despliegue práctico de IA, pero su enfoque se siente más incremental y menos preparado para los riesgos existenciales.

Meta ai

Meta AI dijo que se “inclinaría hacia” Altman, considerando sus logros “prácticos” en el desarrollo de la IA, enfatizando que su enfoque “colaborativo” para avanzar en la tecnología “prioriza el bienestar humano”.

“Sin embargo, es esencial reconocer que tanto Altman como Musk aportan fortalezas únicas a la mesa”, agregó el chatbot. “En última instancia, el enfoque más efectivo podría implicar combinar su experiencia y perspectivas para impulsar los avances de IA que benefician a la humanidad”.

Perplejidad

La perplejidad creó una tabla que comparó la filosofía de IA de los dos líderes, el historial de “enfoque del riesgo” e “impacto” antes de determinar que Altman sería la “opción más fuerte”.

“Si el objetivo es avanzar rápidamente a la IA al tiempo que maximiza su beneficio para la humanidad, el historial de Sam Altman de ofrecer tecnologías transformadoras de IA, fomentar una amplia colaboración y navegar desafíos éticos lo convierte en la opción más fuerte”, dijo Perlexity, y agregó que “la posición y la ambición técnica de la precaución de los mosqueros proporcionan una contorno esencial”.

Los bots están de acuerdo: Musk v. Altman persistirá

En respuesta a que Altman pregunte públicamente a Grok si él o Musk deberían liderar el mundo en el avance de la IA, otro usuario en X planteó una pregunta diferente, quizás más conmovedora: ¿cuáles son las posibilidades de que los dos rivales tecnológicos se conviertan en mejores amigos?

“Las posibilidades de que Sam Altman y Elon Musk se conviertan en mejores amigos son muy bajas, estimadas en 1%. Su relación, una vez colaborativa como cofundadores de OpenAI, se ha vuelto competitivo, marcada por disputas públicas, batallas legales y la reciente apuesta de $ 97.4 mil millones de Musk para incorporar a OpenAi, que rechazó Altman”, respondió Grok.

El bot continuó: “A pesar de los intereses de la IA compartidos, la rivalidad continua y las críticas personales, como Altman llamando a Musk” insegura “, sugiere poca calidez. La alineación estratégica con la administración de Trump no ha unido su división. Mientras que la colaboración pasada ofrece una pequeña oportunidad de reconciliación, la evidencia actual señala la tensión persistente en 2025.”

Le preguntamos al resto de los bots eso también.

Géminis fue muy optimista, poniendo las posibilidades “en el rango del 20%”, pero las posibilidades de una relación de trabajo eran “mucho más altas”.

Meta Ai cubrió sus apuestas, poniendo la probabilidad entre 5 y 10%.

El resto estimó probabilidades aún peores.

Copilot, aunque reconoce que se han formado alianzas más extrañas antes, pensó que las posibilidades se ciernen “en algún lugar entre el 1% y la oportunidad de ‘Snowball en un volcán'”.

Al menos están de acuerdo en algo.

Continue Reading

Noticias

Movimiento de Windsurf de $ 3B de OpenAI: la verdadera razón detrás de su empuje de código AI empresarial

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


La carrera entre los gigantes de IA ha cambiado por completo. Openai, la compañía que durante los últimos años establece en gran medida la agenda en inteligencia artificial, ahora se encuentra en una carrera de alto riesgo para defender su territorio y conquistar nuevas fronteras, particularmente la codificación con AI. La adquisición reportada de Windsurf, un entorno de desarrollo integrado nativo de AI (IDE), por $ 3 mil millones, una enorme suma considerando que Windsurf solo tiene $ 40 millones en ingresos anualizados, refleja la urgente necesidad de OpenAi de contrarrestar grandes desafíos de Google y anthópico y asegurar una posición dominante en el agente emergente AI World.

Específicamente, la maniobra subraya dos imperativos para OpenAI: primero, la necesidad de armar el ecosistema de desarrolladores vitales con capacidades de codificación superiores, y segundo, para ganar la batalla más amplia y definitoria para convertirse en la interfaz principal para un futuro formado por agentes autónomos de IA.

Operai está en el pie trasero en este momento, y necesita este trato.

El nuevo panorama competitivo: Operai juega defensa

Para los tomadores de decisiones técnicas empresariales, el paisaje de IA es un tablero de ajedrez. Mientras que Operai cuenta con una base de usuarios masiva para CHATGPT, alcanzando los 700-800 millones de usuarios activos después de los recientes lanzamientos de características de imágenes, su liderazgo en la IA empresarial de vanguardia, particularmente para los desarrolladores, se ha disipado notablemente en los últimos meses.

Este cambio es evidente en el ámbito de la codificación asistida por AI. Google, con su destreza de infraestructura y la cabeza de Géminis Josh Woodward, ha estado actualizando agresivamente sus modelos Gemini, incluida la reciente actualización de Gemini 2.5 Pro, con un enfoque claro en mejorar las habilidades de codificación. Este modelo encabeza los puntos de referencia clave. Anthrope, también, ha realizado significados incursiones con su serie Claude, con modelos como el soneto Claude 3.5 y el nuevo soneto Claude 3.7 que se convierten en valores predeterminados en plataformas de codificación de IA populares como Cursor, y generalmente se ha considerado un líder en ofertas de codificación empresarial en general. Y las nuevas plataformas de codificación (Windsurf, Cursor, RepliS, Levable y varias otras) son donde los desarrolladores están recurriendo cada vez más para generar código a través de indicaciones de alto nivel dentro de un entorno agente.

Irónicamente, Operai fue el primer jugador en defender las LLM para codificar. En 2021, por ejemplo, entrenó en el código público de GitHub y ayudó a GitHub a lanzar Copilot, y también lanzó una API de Codex, que convirtió el lenguaje natural en código. Quizás sin darse cuenta aplazando a Microsoft y Github en el área de aplicaciones de codificación, ahora se está encontrando detrás.

Esta presión competitiva es un impulsor principal detrás de la valoración de $ 3 mil millones para Windsurf, un acuerdo que, según los informes, se acuerda, pero aún no está cerrado. La valoración de Windsurf refleja la necesidad estratégica en lugar de los rendimientos financieros inmediatos, y sería la adquisición más grande de OpenAI hasta la fecha.

Para los tomadores de decisiones técnicas empresariales, este empuje entre Openai, Google y Anthrope dictará la estabilidad futura de la plataforma, las hojas de ruta y las posibilidades de integración cruciales.

Los ajustes estratégicos de OpenAI últimamente también incluyen su estructura corporativa y su alianzas. Recientemente anunció un cambio hacia una estructura de empresa de beneficios público, después de intentar un traslado a una estructura con fines de lucro. Además, Operai ya no puede confiar únicamente en su relación históricamente estrecha con Microsoft y su subsidiaria de codificación GitHub. La CEO de Microsoft, Satya Nadella, fomenta cada vez más un enfoque de “jardín abierto”, apoyando iniciativas como el protocolo A2A (agente a agente) lanzado por Google y el Protocolo de contexto del modelo abierto (MCP). Esta dinámica en evolución significa que OpenAI debe asegurar sus propios canales directos al ecosistema del desarrollador.

La carrera armamentista de codificación: por qué Windsurf es una apuesta multimillonaria

La carrera para dominar la codificación asistida por AI-no se trata realmente de la tecnología, aunque la tecnología de Windsurf es impresionante. Se trata más de capturar el flujo de trabajo del desarrollador, que se está convirtiendo rápidamente en el aspecto más monetizable de la tecnología LLM actual. Los codificadores están utilizando estas herramientas de agentes de codificación (cursor, windsurf y similares) para escribir código, sentarse allí durante horas al día y construir un código real que se pueda implementar. Es probable que esto sea mucho más valioso que las interacciones ocasionales del consumidor.

Y es donde Windsurf entra en la foto. Fundada por Varun Mohan y Douglas Chen, la compañía comenzó como exafunción en 2021, centrándose en la utilización e inferencia de GPU, antes de pivotar en 2022 a las herramientas de desarrolladores de IA, y finalmente lanzó el editor de Windsurf. Windsurf se distinguió temprano al estar entre los primeros en enviar un IDE totalmente agente, con innovaciones como la compresión de contexto en el tiempo de inferencia y la fragmentación de AST. Sus características destacadas incluyen “Cascade”, un sistema que proporciona una conciencia de contexto profundo en una base de código completa para cambios coherentes en múltiples archivos, y “flujos”, diseñado para la colaboración de IA en tiempo real donde la IA entiende y se adapta activamente al trabajo continuo del desarrollador. (Este podcast con Mohan, publicado la semana pasada, proporciona un buen contexto en torno a la historia y la estrategia de Windsurf).

Mientras que Operai posee un inmenso talento de ingeniería y recientemente ha reforzado su destreza de codificación internamente, incluida la liberación de su propia CLI Codex, la adquisición de Windsurf ofrece velocidad y un punto de apoyo establecido. Como Sam Witteveen, un desarrollador de agentes de IA independiente, dijo en nuestra reciente conversación de videocast sobre estos últimos movimientos: “No es la tecnología que están comprando, están comprando una base de usuarios aquí. Realmente necesitan tener un punto de apoyo bueno y fuerte para asumir el cursor y, lo que es más importante, para enfrentar a Anthrope y Google”.

Según los informes, Windsurf, que tiene “varios cientos de miles de usuarios activos diarios” según su CEO, está ganando terreno con grandes empresas que tienen bases de código complejas de millones, un segmento crucial para OpenAI. Este enfoque en la implementación de grado empresarial y el manejo de grandes bases de código puede diferenciar Windsurf de competidores como Cursor, que, a pesar de una impresionante valoración de ~ $ 300 millones y una valoración de $ 9 mil millones, se rumorea que enfrenta una mayor rotación a medida que los desarrolladores buscan soluciones de despliegue más robustas.

Una adquisición de Windsurf podría permitir a OpenAi saltar ciclos de desarrollo interno, crucial en lo que muchos ven como una situación de aceleración de la tierra. Se indica un movimiento hacia la gestión de proyectos, la depuración y los entornos de desarrollo más completos, integrando capacidades de razonamiento avanzado como las que se ven en el modelo O1 de OpenAI (con sus trazas de razonamiento) directamente en el principal juego de herramientas del desarrollador.

El Gran Premio: Convertirse en el punto de partida para un mundo agente

Sin embargo, el intenso enfoque en las herramientas de codificación es simplemente un frente en una competencia mucho mayor: la carrera para convertirse en la interfaz principal para un mundo de IA cada vez más agente. Claro, se trata de ayudar a los desarrolladores a escribir código de manera más eficiente. Pero se trata más de ser dueño del punto de partida para donde los consumidores, desarrolladores y trabajadores de conocimiento empresarial orquestan tareas complejas a través de agentes de IA.

La masa base de usuarios de ChatGPT de OpenAI proporciona una ventaja de distribución significativa. La integración de las capacidades similares a Windsurf podría transformar el CHATGPT en una “página de inicio” más convincente para una amplia gama de tareas de agente. Sin embargo, Google presenta un desafío formidable aquí. Si bien su enfoque para las interfaces de IA (Google.com, Vertex AI, AI Studio, Agentspace, la aplicación Gemini) puede parecer fragmentado, también representa múltiples apuestas estratégicas en un mercado naciente.

La pregunta para los líderes empresariales es cómo se verá este “punto de partida agente”. ¿Será una interfaz única y dominante o un jardín más abierto de agentes especializados integrados en diversas aplicaciones, y accesible desde miles de lugares diferentes, desde Salesforce para CRM, Meta para las redes sociales y una miríada de otras plataformas de desarrolladores?

¿Se puede hacer el trabajo de agente desde en cualquier lugar? “[The] Code Stuff está a punto de hacer un cambio “, dijo el desarrollador de IA Witteveen.” La gente se está mudando a una cosa de agente en la que quizás resuelva un documento de requisito de producto completo, lo pones allí, y luego se apaga y se muele para poder básicamente tener una codificación de agente “. No está claro que debe haber un punto de partida singular.

De hecho, la carrera de líderes como OpenAi y Google para establecer un ‘punto de partida’ dominante se complica por el impulso simultáneo de la industria para la apertura. Notado May Habib, CEO de Writer: “Cuando todos intentan ser interoperables y abiertos, ¿qué significa realmente ganar esa capa superior?” Ella cuestionó en una conversación con VentureBeat. “Todos intentan ser ese punto de partida más alto”.

De cualquier manera, quien sea que “posee” un punto de partida tendrá que abrazar la apertura, dijo. El cambio hacia la codificación de agente, y un ecosistema abierto y extensible, ha sido subrayado por la adopción generalizada de MCP. Deepak Agarwal, director de IA en LinkedIn, en una conversación reciente con VentureBeat, calificada de MCP posiblemente el invento más importante últimamente. “Es como inventar el HTTP de AI”, dijo. Esta nueva apertura beneficia tanto a los codificadores tradicionales como a la nueva clase de “creadores” dentro de las empresas: expertos en dominios que pueden usar estas herramientas de agente para crear soluciones de software personalizadas sin experiencia en codificación. Pueden crear CRMS personalizados o sistemas de tareas tareas únicas adaptadas a sus necesidades específicas. Para las empresas, esto significa proporcionar entornos de caja de arena donde los empleados pueden descubrir, construir y eventualmente integrar estas soluciones impulsadas por la IA en sus flujos de trabajo.

Navegar por el tablero de ajedrez de IA: imperativos para los líderes empresariales

Para los tomadores de decisiones técnicas en la empresa, aquí hay algunas implicaciones:

  1. Estabilidad y confiabilidad de la plataforma: La intensa competencia y los cambios estratégicos (como la reestructuración corporativa de OpenAI) significan que las empresas deben evaluar la estabilidad y confiabilidad a largo plazo de sus plataformas de IA elegidas.
  2. La relación evolutiva de OpenAi-Microsoft: El movimiento de Microsoft hacia un “jardín abierto” y el soporte para protocolos de agentes multiplataforma (como A2A) significa que las empresas que dependen del ecosistema de Azure tendrán más opciones, pero también necesitan navegar un paisaje más complejo ya que OpenAI encuentra otros puntos de distribución como Windsurf.
  3. El surgimiento del desarrollo de la agente: La transición de la codificación asistida por AI a entornos de desarrollo verdaderamente agentes está ocurriendo. Los líderes deben preparar a sus equipos para herramientas que ofrecen razonamiento de varios pasos, conciencia de contexto en todo el proyecto y ejecución de tareas autónomas. Esto requiere fomentar habilidades en ingeniería rápida, orquestación de agentes y comprender las capacidades y limitaciones de estos nuevos sistemas.
  4. Abraza la caja de arena: A medida que las herramientas de IA se vuelven más poderosas y democratizadas, es crucial proporcionar entornos de sandbox seguros y gobernados para la experimentación. Esto permite a los equipos explorar el potencial de la IA de agente para crear soluciones personalizadas e impulsar la innovación sin comprometer los datos o sistemas empresariales. Esta caja de arena pronto puede incluir cualquier interfaz que finalmente se ocurra el dúo Operai-Windsurf (suponiendo que su acuerdo se presente), las ofertas de Google y decenas de otros.

Mira la inmersión completa en el nuevo ecosistema, con Sam Witteveen y yo, en nuestro podcast aquí:

https://www.youtube.com/watch?v=5ezetqsn454

Continue Reading

Trending