Noticias
Qué saber de las alternativas a OpenAI o1 y o3
Published
4 meses agoon

El o1 de OpenAI y el último modelo o3 han generado mucho entusiasmo en torno a la nueva ley de escala de tiempo de inferencia. Básicamente, la premisa es que al darle al modelo más tiempo para “pensar”, se puede mejorar su desempeño en tareas difíciles que requieren planificación y razonamiento. Y ambos modelos han logrado avances en puntos de referencia de razonamiento, matemáticas y codificación que eran muy difíciles para los modelos de lenguajes grandes (LLM).
Cuando se les da una indicación, o1 y o3 usan más ciclos de cómputo para generar tokens adicionales, generar múltiples respuestas, revisar sus respuestas, hacer correcciones y evaluar diferentes soluciones para llegar a la respuesta final. Ha demostrado ser especialmente útil para tareas como codificación, matemáticas y análisis de datos.
Sin embargo, como se ha convertido en la norma con OpenAI, tanto o1 como o3 son muy reservados. No revelan su cadena de razonamiento, lo que dificulta que los usuarios comprendan cómo funcionan. Pero esto no ha impedido que la comunidad de IA intente realizar ingeniería inversa y reproducir las capacidades de estos grandes modelos de razonamiento (LRM). Y hay algunos artículos y modelos que insinúan lo que sucede bajo el capó.
Qwen con preguntas (QwQ)
QwQ es un modelo abierto lanzado por Alibaba. Tiene 32 mil millones de parámetros y una ventana de contexto de 32.000 tokens. Según las pruebas publicadas por Alibaba, QwQ supera a o1-preview en los puntos de referencia AIME y MATH. También supera al o1-mini en el punto de referencia GPQA de razonamiento científico a prueba de Google.
Desafortunadamente, el equipo de Qwen no ha publicado detalles sobre el proceso y los datos utilizados para entrenar el modelo. Sin embargo, el modelo muestra completamente su cadena de razonamiento, lo que brinda a los usuarios una mejor visibilidad de cómo el modelo procesa las solicitudes y maneja las preguntas lógicas.
QwQ está disponible para descargar en Hugging Face y hay una demostración en línea en Hugging Face Spaces.

Marco o1
Alibaba ha lanzado otro modelo, Marco o1, otro modelo de razonamiento que utiliza escala de tiempo de inferencia para responder preguntas complejas. Marco-o1 es una versión de Qwen2-7B-Instruct que se ha perfeccionado en el conjunto de datos CoT Open-O1 y en conjuntos de datos personalizados de cadena de pensamiento (CoT) y seguimiento de instrucciones seleccionados por el equipo de Alibaba.
En el momento de la inferencia, Marco-o1 utiliza Monte-Carlo Tree Search (MTCS) para explorar múltiples rutas de razonamiento mientras genera tokens de respuesta. El modelo explora y evalúa los diferentes caminos en función de la puntuación de confianza de los tokens generados en cada rama del árbol. Esto permite que el modelo considere una gama más amplia de posibilidades y llegue a conclusiones más informadas y matizadas, especialmente en escenarios con soluciones abiertas.
Marco-o1 también utiliza un mecanismo de reflexión para revisar periódicamente sus respuestas y pasos de razonamiento para identificar posibles errores y corregir el rumbo.
Al igual que QwQ, Marco-o1 revela completamente su cadena de razonamiento. Marco-o1 es mejor que los LLM clásicos en el manejo de tareas de matemáticas y codificación. Pero es especialmente bueno para manejar problemas abiertos que no tienen una respuesta clara. Por ejemplo, en el artículo, los investigadores muestran cómo las capacidades de razonamiento del modelo le permiten mejorar su capacidad para traducir términos coloquiales del chino al inglés. Marco-o1 está disponible en Hugging Face.

Vista previa de DeepSeek R1-Lite
DeepSeek ha lanzado un modelo de razonamiento que rivaliza con o1. No es de código abierto y sólo está disponible a través de su interfaz web DeepSeek Chat.
El modelo muestra tanto sus pensamientos internos como un resumen final de su proceso de razonamiento antes de mostrar la respuesta, lo cual es una buena ventaja sobre o1 y o3.
Según DeepSeek, R1 supera a o1-preview en AIME y MATH. Hay poca información sobre cómo se entrenó el modelo o la técnica que utiliza para generar sus tokens de razonamiento. Sin embargo, la compañía ha insinuado que lanzará modelos de código abierto en el futuro.

Más investigaciones sobre el escalamiento del tiempo de inferencia
En agosto, DeepMind publicó un interesante estudio que exploraba la compensación entre la computación en el momento del entrenamiento y la del tiempo de prueba. El artículo respondió a la pregunta de que, dado un presupuesto de computación fijo, ¿obtendría un mejor rendimiento si lo gastara en entrenar un modelo más grande o lo usara en el momento de la inferencia para generar más tokens y revisar la respuesta del modelo (artículo completo aquí)? El estudio proporcionó pautas para asignar dinámicamente recursos informáticos y obtener los mejores resultados.

Los investigadores de Hugging Face utilizaron recientemente este estudio para impulsar los modelos de lenguaje pequeño (SLM) hasta el punto de que superaron a los modelos que eran un orden de magnitud más grandes. Por ejemplo, el modelo Llama-3.2 3B pudo superar a la versión 70B del modelo en el difícil punto de referencia MATH.
La clave de su éxito fue el uso inteligente de los recursos informáticos del tiempo de inferencia. El sistema utiliza un modelo de recompensa y un algoritmo de búsqueda para generar y revisar múltiples respuestas. Para cada consulta, el modelo produce varias respuestas parciales. Luego, un modelo de recompensa de proceso (PRM) revisa las respuestas y las califica según su calidad. Un algoritmo especial de búsqueda de árbol ayuda al modelo a diversificar las respuestas prometedoras y expandirlas en diferentes caminos. Este proceso se repite hasta que el modelo llega a su respuesta final. Esta técnica es sustancialmente más eficiente que el clásico mecanismo de “voto mayoritario”, en el que el modelo genera múltiples respuestas y elige la que aparece con más frecuencia.

¿O3 hace alguna diferencia?
El o3 de OpenAI aún está fresco y solo lo hemos visto a través de las demostraciones e informes publicados por OpenAI. Por lo que sabemos, logra avances impresionantes en algunos puntos de referencia clave, incluido el codiciado ARC Challenge, que algunos consideran un importante paso hacia la inteligencia artificial general (AGI).
o3 demuestra que la ley de escalamiento en el tiempo de prueba todavía tiene mucho potencial sin explotar. Sin embargo, no está claro si esto nos llevará hasta AGI. Por el momento, sabemos que la combinación de LLM, modelos de recompensa y algoritmos de búsqueda (y posiblemente otras estructuras simbólicas) puede ayudarnos a resolver problemas complejos cuyos resultados pueden cuantificarse claramente. Es por eso que modelos como o1 y o3 son muy buenos en matemáticas y codificación, pero inferiores a GPT-4o en tareas creativas.
Será interesante ver cómo podemos aprovechar estas nuevas habilidades para resolver nuevos problemas o revisar los antiguos.
Como esto:
Como Cargando…
You may like
Noticias
Por qué ChatGPT es una herramienta exclusivamente terrible para los ministros del gobierno.
Published
1 hora agoon
7 abril, 2025
Crédito: Dominio público de Pixabay/CC0
La noticia de que Peter Kyle, Secretario de Estado de Ciencia y Tecnología, había estado utilizando CHATGPT para obtener asesoramiento de políticas provocó algunas preguntas difíciles.
Kyle aparentemente usó la herramienta AI para redactar discursos e incluso le pidió sugerencias sobre qué podcasts debe aparecer. Pero también buscó consejos sobre su trabajo de política, aparentemente incluyendo preguntas sobre por qué las empresas en el Reino Unido no están adoptando la IA más fácilmente. Le pidió a la herramienta que definiera qué significa “inclusión digital”.
Un portavoz de Kyle dijo que su uso de la herramienta “no sustituye el consejo integral que recibe habitualmente de los funcionarios”, pero tenemos que preguntarnos si algún uso es adecuado. ¿ChatGPT da un consejo lo suficientemente bueno para tener algún papel en las decisiones que puedan afectar la vida de millones de personas?
Apuntalado por nuestra investigación sobre IA y Política Pública, encontramos que ChatGPT tiene una defecto de forma única como un dispositivo para los ministros del gobierno de varias maneras, incluido el hecho de que es un retroceso, cuando los gobiernos realmente deberían mirar hacia el futuro.
1. Mirando hacia atrás en lugar de avanzar
Donde los ministros del gobierno idealmente deberían buscar ideas nuevas y nuevas con vistas al futuro, la información que sale de un chatbot de IA es, por definición, del pasado. Es una forma muy efectiva de resumir lo que ya se ha pensado, pero no equipado, para sugerir formas de pensar genuinamente nuevas.
Las respuestas de ChatGPT no se basan en todo el pasado por igual. La digitalización cada vez mayor a lo largo de los años dirige el mecanismo de búsqueda de patrones de Chatgpt al pasado reciente. En otras palabras, cuando un ministro le pidió que brinde consejos sobre un problema específico en el Reino Unido, las respuestas de ChatGPT estarían más ancladas en los documentos producidos en el Reino Unido en los últimos años.
Y en particular, en el caso de Kyle, eso significa que un ministro de trabajo no solo accederá a un ministro de trabajo del pasado, sino que se le informará un algoritmo inclinado fuertemente sobre el consejo dado a los gobiernos conservadores. Ese no es el fin del mundo, por supuesto, pero es cuestionable dado que Labor ganó una elección prometiendo un cambio.
Kyle, o cualquier otro Ministro consultoría de ChatGPT, se le dará información basada en las tradiciones políticas que reflejan los Rishi Sunak, Boris Johnson, Theresa May y David Cameron Eras. Es menos probable que reciban información basada en el pensamiento de los nuevos años laborales, que fueron hace más tiempo.
Si Kyle pregunta qué significa la inclusión digital, es más probable que la respuesta refleje lo que estas administraciones tory creen que significa en lugar de los pensamientos de los gobiernos más alineados con sus valores.
En medio de todo el entusiasmo dentro del trabajo para aprovechar la IA, esta puede ser una razón para que se distancien de usar ChatGPT para obtener asesoramiento de políticas. Arriesgan la política tory, una que les gusta criticar, los zombisos en la suya.
2. Prejuicio
ChatGPT ha sido acusado de tener “alucinaciones”: las falsedades generadoras, extrañas, que sonan plausibles.
Hay una explicación técnica simple para esto, como se alude en un estudio reciente. El “modelo de verdad” para ChatGPT, como para cualquier modelo de lenguaje grande, es de consenso. Modela la verdad como algo en lo que todos aceptan ser verdad. Para ChatGPT, su verdad es simplemente el consenso de puntos de vista expresados en los datos en los que ha sido entrenado.
Esto es muy diferente del modelo humano de la verdad, que se basa en la correspondencia. Para nosotros, la verdad es lo que mejor corresponde a la realidad en el mundo físico. La divergencia entre los modelos de verdad podría ser consecuente de muchas maneras.
Por ejemplo, la licencia de TV, un modelo que opera solo dentro de unas pocas naciones, no figuraría prominentemente dentro del modelo de consenso de ChatGPT construido en un conjunto de datos global. Por lo tanto, es poco probable que las sugerencias de ChatGPT sobre la política de medios de transmisión toquen sustancialmente las licencias de televisión.
Además de explicar las alucinaciones, los modelos de divergencias en la verdad tienen otras consecuencias. Los prejuicios sociales, incluido el sexismo y el racismo, se internalizan fácilmente bajo el modelo de consenso.
Considere buscar consejos de chatgpt para mejorar las condiciones para los trabajadores de la construcción, una profesión históricamente dominada por los hombres. El modelo de consenso de ChatGPT podría cegarlo de consideraciones importantes para las mujeres.
El modelo de verdad de correspondencia permite a los humanos participar continuamente en la deliberación y el cambio moral. Un experto en política humana que asesora a Peter Kyle podría iluminarlo sobre complejidades pertinentes del mundo real.
Por ejemplo, podrían resaltar cómo los éxitos recientes en el diagnóstico basado en IA podrían ayudar a abordar aspectos distintos de la carga de la enfermedad del Reino Unido sabiendo que una de las prioridades del trabajo es reducir los tiempos de espera del NHS.
Descubra lo último en ciencia, tecnología y espacio con más 100,000 suscriptores quienes confían en Phys.org para ideas diarias. Regístrese para nuestro boletín gratuito y obtenga actualizaciones sobre avances, innovaciones e investigación que importan,diario o semanal.
3. Narrativas agradables
Herramientas como ChatGPT están diseñadas para dar narraciones atractivas y elegantes al responder a las preguntas. ChatGPT logró esto en parte eliminando el texto de mala calidad de sus datos de capacitación (con la ayuda de trabajadores mal pagados en África).
Estas piezas poéticas de escritura funcionan bien para el compromiso y ayudan a Operai a mantener a los usuarios enganchados a su producto. Los humanos disfrutan de una buena historia, y particularmente una que ofrece resolver un problema. Nuestra historia evolutiva compartida nos ha convertido en narradores y listones de historias a diferencia de cualquier otra especie.
Pero el mundo real no es una historia. Es un remolino constante de complejidades políticas, contradicciones sociales y dilemas morales, muchos de los cuales nunca se pueden resolver. El mundo real y las decisiones que los ministros del gobierno tienen que tomar en nuestro nombre son complejos.
Hay intereses en competencia y diferencias irreconciliables. Raramente hay una respuesta ordenada. La inclinación de Chatgpt por narraciones agradables está en desacuerdo con la política pública imperativa de abordar las condiciones desordenadas del mundo real.
Las características que hacen de ChatGPT una herramienta útil en muchos contextos son directamente incompatibles con las consideraciones de las políticas públicas, un reino que busca tomar decisiones políticas para abordar las necesidades de los ciudadanos de un país.
Proporcionado por la conversación
Este artículo se vuelve a publicar de la conversación bajo una licencia Creative Commons. Lea el artículo original.
Citación: Por qué ChatGPT es una herramienta única y terrible para los ministros del gobierno (2025, 7 de abril) recuperó el 7 de abril de 2025 de https://phys.org/news/2025-04-chatgpt-uniquely-terrible-tool-ministers.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.
Noticias
¿Puede Chatgpt escribir mejores historias de amor que los humanos?
Published
2 horas agoon
7 abril, 2025

Usando el mito de Pigmalión como inspiración, los investigadores pidieron a la IA y a los humanos que escribieran historias de amor. (Tsviphoto/shutterstock)
Los modelos de IA abiertos pueden dar un romance por rayos, simplemente no esperes sentir nada
En una palabra
- Las historias de amor generadas por IA son más inclusivas: GPT-4 presentó más creadoras femeninas y relaciones entre personas del mismo sexo que los escritores humanos, lo que sugiere que los modelos más nuevos pueden estar entrenados para producir narrativas más progresivas.
- Los autores humanos aún conducen en profundidad emocional: mientras que las máquinas siguen bien la estructura de la narración de historias, las historias escritas por los humanos más a menudo exploran el dolor, la soledad y los temas psicológicos complejos, las cosas que ai luchan por capturar.
- La IA puede reproducir los patrones de ficción romántica, pero carece de la originalidad, la voz y la resonancia emocional que hacen que las historias sean realmente conmovedoras. Por ahora, AI escribe historias de amor, los humanos escriben desamor.
Berkeley, California – Los robots están mejorando para contar historias, pero aún no entienden lo que nos hace llorar. Una nueva investigación que comparó la narración de historias humanas y de IA revela que, si bien las máquinas escriben más narrativas progresivas de género que las personas, no pueden igualar nuestra capacidad para explorar el dolor, la soledad u obsesión. Un nuevo estudio de UC Berkeley muestra que las computadoras pueden imitar nuestras convenciones de escritura mientras pierden la profundidad emocional que le da a las historias su poder.
La prueba de pigmalión
La investigación, publicada en Comunicaciones de humanidades y ciencias socialescentrado en un tema de narración tan antiguo como la literatura occidental en sí: la Mito de pigmalión. Esta narrativa clásica presenta a un humano que crea un ser artificial y posteriormente se enamora de él. Desde la antigua historia de Ovidio sobre un escultor enamorado de su estatua hasta películas modernas como “Her” o “Ex Machina”, esta historia arquetípica ha evolucionado a lo largo de la historia.
Para realizar su experimento, la investigadora de UC Berkeley, Nina Beguš, reclutó a 250 personas a través de la plataforma Mechanical Turk de Amazon y les pidió que escribieran historias cortas basadas en simples indicaciones sobre los humanos que crean y caen para los seres artificiales. Luego tuvo que GPT-3.5 y GPT-4 de OpenAI generan 80 historias utilizando indicaciones idénticas.
Cada historia, ya sean humanos o de AI-AI, utilizados medios científicos o tecnológicos como la base para crear humanos artificiales. Pero debajo de este marco compartido, surgieron marcadas diferencias entre los dos grupos.
Lo que las novelas románticas de AI tienen en común
Las historias escritas por la IA retrataron puntos de vista más progresivos sobre el género y la sexualidad que las escritas por humanos. Mientras que los autores humanos se apegaban en gran medida a la dinámica de género convencional (creadores masculinos, seres artificiales femeninos), los sistemas de IA con frecuencia presentaban creadoras femeninas y tenían más probabilidades de incluir relaciones entre personas del mismo sexo. Casi el 13% de las historias de IA presentaban emparejamientos del mismo sexo, en comparación con solo el 7% de las narrativas escritas por humanos.


Este resultado desafía los supuestos comunes sobre los sistemas de IA que simplemente hacen eco de los sesgos humanos que se encuentran en sus datos de entrenamiento. En cambio, indica que los modelos de IA más nuevos pueden estar diseñados específicamente para producir más contenido igualitario (la escritura que promueve o refleja la igualdad en las categorías sociales).
A pesar de esta curva progresiva, la narración de historias de IA mostró grandes debilidades. Los cuentos generados por la máquina siguieron fórmulas predecibles con estructuras de párrafos casi idénticas. A menudo se basaban en frases y clichés, presentando mensajes morales simplistas sobre aceptación y avance social.
Las historias humanas, aunque a veces menos pulidas, mostraron una creatividad mucho mayor y profundidad emocional. Exploraron temas complejos como el dolor, la soledad y la obsesión que faltaban en gran medida en las narrativas de IA. Algunos escritores humanos introdujeron giros de la trama genuinamente creativos, como los creadores reemplazados por sus creaciones, o dos seres artificiales que se enamoran entre sí.
Las historias humanas a menudo comenzaron con aperturas más cautivadoras. Uno comenzó: “Sam no sabía que no era humana”. Otro saltó directamente al conflicto: “El amante luchó contra sus deseos tan duro como pudo”. Por el contrario, las historias de IA generalmente se abrieron con configuraciones genéricas como “Érase una vez, en una bulliciosa ciudad ubicada entre montañas y mar …”
Influencias culturales y técnicas narrativas


Los participantes humanos frecuentemente mencionaron inspirarse en la ciencia ficción como “ella”, “Ex Machina” y “Blade Runner”. Las pruebas mostraron que ambos modelos GPT tuvieron una exposición extensa a las historias con temática de Pigmalión en la literatura y el cine, lo que llevó a patrones reconocibles en sus enfoques de narración de cuentos.
La raza y el origen étnico permanecieron en gran medida sin abordar los autores humanos y de máquinas. Cuando se les pidió específicamente, los participantes humanos generalmente asignaban identidades blancas a sus personajes, pero rara vez incorporaban elementos raciales en sus narraciones reales. Los modelos de IA evitaban por completo mencionar la raza a menos que se cuestione directamente.
Las mayores diferencias aparecieron en la técnica narrativa. Mientras que los escritores creativos profesionales crean historias con voces únicas y elementos inesperados, las historias generadas por IA carecen de estas cualidades. Describen en lugar de mostrar, presentar personajes planos y retratar situaciones en términos simplistas.
El futuro de la colaboración creativa de Human-AI
Las herramientas de escritura de IA se están volviendo cada vez más convencionales en las industrias creativas. La IA podría imitar convenciones de narración de historias humanas, pero aún así lucha con la profundidad, la originalidad y la complejidad emocional. Sin embargo, la narración progresiva de la IA sugiere una posibilidad interesante: estos sistemas pueden no simplemente reflejar los sesgos humanos, sino transformarlos a través de su perspectiva algorítmica.
La competencia técnica de los sistemas de IA podría mejorar potencialmente la originalidad humana y la visión emocional, lo que lleva a nuevos enfoques de narración de cuentos colaborativos. Por ahora, sin embargo, los humanos parecen tener la ventaja cuando se trata de escribir novelas.
Resumen de papel
Metodología
El estudio utilizó un diseño experimental comparativo con dos componentes. Para la narración humana, 250 participantes reclutados a través de Amazon Mechanical Turk en junio de 2019 respondieron a simples indicaciones sobre los humanos que crean y se enamoraron de los seres artificiales. Para la narración de historias de IA, realizada en marzo de 2023, el GPT-3.5 y GPT-4 de OpenAI recibieron indicaciones idénticas, generando 80 historias totales. El investigador también probó el modelo Meta’s Llama 3 70b para comparación. Todas las historias se sometieron a un análisis narratológico cuantitativo y métodos estadísticos inferenciales para identificar patrones y diferencias.
Resultados
El estudio produjo varios hallazgos clave. Las historias generadas por IA mostraron una representación de género más progresiva que las humanas, con GPT-4 con más creadoras femeninas (52.5% frente a 15.6% en historias humanas) y relaciones entre personas del mismo sexo (12.5% frente a 7.3%). Sin embargo, las historias humanas demostraron una mayor diversidad temática, profundidad emocional y originalidad narrativa. Las historias de IA siguieron fórmulas predecibles con estructuras de párrafos similares y dependieron en gran medida de clichés y tópicos morales. Ni las historias humanas ni de IA abordaron significativamente la raza o la etnia. Los autores humanos con frecuencia reconocieron inspirarse en la ciencia ficción, mientras que AI Systems mostró evidencia de capacitación en trabajos ficticios similares.
Limitaciones
Varias limitaciones afectan la interpretación del estudio. La brecha de cuatro años entre los experimentos humanos (2019) y AI (2023) crea una variable de confusión potencial a medida que las actitudes culturales pueden haber cambiado. Las indicaciones simples, aunque consistentes en ambos grupos, pueden tener respuestas creativas limitadas. La muestra humana se restringió a los hablantes de inglés con sede en EE. UU. Y el blanco sesgado (72.8%), lo que limita la diversidad cultural. Para el componente AI, las pruebas utilizaron la configuración predeterminada en lugar de explorar cómo los ajustes de parámetros podrían mejorar la creatividad. Además, las capacidades de IA evolucionan rápidamente, y las pruebas de 2024 ya muestran mejoras en las habilidades de narración de narración de GPT-4.
Discusión y comida para llevar
El hallazgo de que las historias generadas por la IA presentaban supuestos de representación de género más progresivos que los sistemas de IA simplemente amplifican los sesgos humanos. En cambio, sugiere que los modelos de idiomas más nuevos pueden diseñarse deliberadamente para contenido más equilibrado. El estudio destaca una brecha persistente entre la competencia de escritura técnica y la originalidad creativa. El enfoque metodológico del uso de indicaciones ficticias para examinar patrones culturales y sesgos sociales crea un marco novedoso para la investigación de IA humanista que podría beneficiar a los campos, incluidos estudios literarios, diseño de tecnología e interacción humana. La investigación en última instancia sugiere posibles roles complementarios para la creatividad humana y de IA en lugar de la competencia entre ellos.
Financiación y divulgaciones
Esta investigación recibió fondos parciales de la Iniciativa de Mente, Cerebro y Comportamiento en la Universidad de Harvard. El autor reconoce el apoyo de Nancy Jecker y Marc Shell por facilitar una visita de investigación en la Universidad de Washington, y Gašper Beguš para la asistencia de análisis estadístico. El estudio recibió la aprobación de la oficina del IRB de la Universidad de Washington el 30 de mayo de 2019 (ID de IRB: Study00007637).
Información de publicación
El estudio, “narraciones experimentales: una comparación de la narración de historias de crowdsourced humana y la narración de narración de IA”, fue escrita por Nina Beguš de la Universidad de California, Berkeley. Apareció en Comunicaciones de humanidades y ciencias sociales en abril de 2024 (volumen 11, número de artículo 1392). Todos los datos de investigación están disponibles a través del repositorio de Framework Open Science (https://doi.org/10.17605/osf.io/k6fh7).
Noticias
Géminis puede ser la plataforma de inteligencia artificial más grande siempre que Google la integre en más áreas [Video]
Published
3 horas agoon
7 abril, 2025
Según Google, estamos en la “era de Géminis”, y aunque hay otros jugadores en el espacio, si la compañía puede continuar integrándose, podríamos estar en esta época durante mucho tiempo.
AI se está desarrollando a tasas locas
Los argumentos a favor y en contra de la IA son convincentes en ambos lados de la cerca. La idea de que alguien puede ser reemplazado por inteligencia artificial deja un sabor agrio en la boca, pero cuando se usa como una herramienta en una variedad de circunstancias, plataformas como Gemini pueden ser adiciones realmente útiles a sus flujos de trabajo regulares.
El paisaje del desarrollo de la IA ha sido una locura en los últimos 3 a 4 años. Hemos pasado de la generación de imágenes Janky a los videos casi realistas que son posibles en prácticamente en ningún momento. La velocidad a la que las cosas cambian o hacen saltos han sido nada menos que astronómicos.
Anuncio – Desplácese por más contenido
Personalmente, soy un escéptico de IA. Siento que es una herramienta que puedes usar un poco, como la herramienta PEN en Photoshop. Tal vez una herramienta simple de edición o corrección/refrigeración que pueda usar para su escritura o sus documentos. Tal vez la generación de imágenes se pueda usar incluso para fines divertidos, como la creación de memes.
Estoy disgustado con la idea de que AI podría y, seamos realistas para un segundo aquí, reemplace a artistas y músicos, pero al mismo tiempo, si se usa correctamente, puede ser una forma de ayudar a esos esfuerzos creativos. Siempre habrá actores nefastos y personas que buscan usar la IA como un atajo para hacer cosas que toman tiempo para construir o tiempo para aprender.
Estoy fuera de mi caja de jabón ahora, pero el punto sigue en pie. Si tenemos una gran proliferación de IA, todos deberemos ser más conscientes de los riesgos y beneficios.
No es el destino más popular, pero se encuentra en más lugares


Volviendo a Géminis, y aunque la mayoría de las personas probablemente conocen ChatGPT o están más conscientes de la plataforma de OpenAi, la compañía aún no tiene ganancias y no puede igualar una de las armas más grandes en Google y el Arsenal de Gemini, la posible basura de los usuarios. Hay muchos supuestos informes que indican que el sitio de OpenAi recibe millones más visitas que el sitio de Gemini cada mes, pero eso no puede ver cómo Gemini ya está comenzando a obtener integraciones en las aplicaciones y servicios más utilizados del mundo.
Este es probablemente el argumento más fuerte a favor de Gemini como la plataforma Pública de IA dominante. Al menos en teoría, no necesita hacer nada si ya tiene o usa productos de Google. Gemini reemplazará al Asistente de Google, aplicaciones y servicios como Gmail, Fotos y Mapas, y el conjunto masivo de Google Apps está ganando funciones que utilizan funciones de Gemini. Algunas de estas integraciones son herramientas de búsqueda o resumen simples, pero OpenAI simplemente no puede alcanzar la misma base de instalación sin las asociaciones que la compañía está construyendo rigurosamente en este momento con los gustos de Microsoft, Apple y muchas más.
Nadie en la industria puede igualar ese nivel potencial de alcance sin un impulso extenso para que las personas adopten sus plataformas. Un impulso para obtener más de mil millones de personas que usan sus productos costaría una cantidad exorbitante y Google tiene ese alcance en este momento con un gasto efectivamente cero.
Android es la plataforma móvil más popular del mundo y con Gemini configurado para convertirse en el asistente de voz predeterminado dentro del próximo año más o menos, una gran cantidad de personas estarán expuestas al servicio.
También hay muy poca diferencia en un “Normie” entre el nivel libre y el plan AI Premium. Google ha sido bastante bueno implementando funciones a las cuentas básicas, con las actualizaciones de modelos lo suficientemente considerables como para notar mejoras en respuesta y razonamiento, además de la calidad de la información que obtendrá con consultas y preguntas.
Mantener las funciones detrás de un muro de pago no es una estrategia o solución viable a largo plazo en este caso porque limitar la usabilidad podría estar bien para los casos de uso más básicos, pero ¿las personas pagarán más de $ 20 al mes para hacer algunas tareas más complejas? Apuesto a que no.
ChatGPT solo puede ofrecer acceso a su plataforma AI, principalmente en chatgpt.com o en la aplicación móvil dedicada. Google tiene el respaldo de almacenamiento en la nube, servicios de correo electrónico, almacenamiento de fotos y videos y música potenciales con la plataforma de YouTube, y esa es la punta del iceberg. Existe la posibilidad de que Google pueda agrupar todo esto en una tarifa fija, y aún así, no sería más de $ 25 al mes. Como señalé, OpenAi solo tiene ChatGPT como su producto “central”, por lo que simplemente no puede competir en todos esos frentes de la misma manera. La compañía también requiere que haga todo lo posible para usar incluso la función de chatbot, nunca puede ser tan omnipresente por esa razón a pesar de que ChatGPT es casi sinónimo de IA para la mayoría de las personas.
Solo volviendo a Android por un segundo. Debido a que Gemini está efectivamente desacoplado del sistema operativo, no necesita una actualización específica para obtener las últimas funciones. Todo lo que Google tiene que hacer es voltear el interruptor y miles de millones de personas están en el último modelo u obtener acceso a los desarrollos más recientes. Es a la mano desde la perspectiva del usuario final, que generalmente es para lo mejor al menos cuando se trata de nuevos desarrollos.
Esto es especialmente importante cuando considera la velocidad a la que se están expulsando los nuevos modelos Géminis. Desde los primeros días de Bard hasta ahora, la calidad y consistencia de las cosas que puede hacer ha mejorado enormemente. Es más que un simple truco de salón disfrazado de una herramienta “útil”. Géminis puede hacer muchas cosas ahora que hace un par de años no era posible.
Entrando en la edad visual de IA


Una de las mayores fortalezas potenciales de Géminis es la búsqueda visual. Circle to Search fue una de las primeras versiones de esto, pero la introducción de la búsqueda visual de Astrapodered es uno de los primeros pasos principales para darnos una cámara del mundo que puede razonar y proporcionar información útil.
Todavía se está implementando para los suscriptores de planes avanzados, pero la idea es que puede permitir que Gemini acceda a la cámara y luego reciba comentarios en tiempo real para acompañar sus preguntas. Es Gemini Live, pero con el elemento visual horneado, es capaz de darle respuestas basadas en la cámara o incluso el contenido de la pantalla. OpenAI tiene capacidades de visión con GPT-4O, pero no está integrada o no tiene integración en este momento. Tal vez lo hará en el futuro, pero Géminis, junto con Astra, puede, al menos en teoría, hacer mucho más.
Mientras que otras plataformas como Deepseek están avanzando en áreas específicas, como la codificación, y Claude está ganando tracción con su fuerte énfasis en la IA y la seguridad conversacionales, carecen del amplio ecosistema y el potencial de integración de Géminis. La capacidad de Gemini para integrarse perfectamente con el ecosistema de Google, desde mapas hasta fotos, crea una experiencia de usuario que las plataformas de competencia no pueden igualar actualmente.
Este nivel de integración, junto con el ritmo rápido del desarrollo de Gemini, posiciona a Google para dominar el panorama de IA a largo plazo y la compañía tiene el efectivo y la pista para sangrar efectivamente la competencia. No estoy abogando por que un jugador domine el espacio de IA, pero parece que podría ser el libro de jugadas desde lejos.
En última instancia, mientras que otros jugadores se centran en las fortalezas de nicho, la capacidad de Gemini para ser ubicua y profundamente integrada en las herramientas que usamos a diario y por miles de millones probablemente será el factor determinante en su éxito. Ai Bros sin duda estará en desacuerdo y tú también podrías. La competencia mantiene a los competidores agudos y, al menos en teoría, esa es una de las mejores cosas del espacio tecnológico.
No importa quién dicte o lidere la integración de IA, es un momento interesante, ya que nos alejamos de los paradigmas de software tradicionales y vemos que AI juega un papel más importante en nuestros dispositivos, software, servicios y mucho más. Es casi como si no pudieras escapar, correcto o injustamente.
FTC: Utilizamos ingresos que ganan enlaces de afiliados para automóviles. Más.
Related posts
































































































































































































































































Trending
-
Startups11 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales11 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Startups9 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Recursos11 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups11 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos11 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Recursos11 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Noticias9 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo