¡Bienvenidos de nuevo y hola 2025! Después de un final tan frenético de 2024, no sorprende que haya sido un comienzo lento de 2025 en el frente de noticias sobre GenAI. Sin embargo, se compartieron algunas cosas a fines del año pasado que vale la pena comentar, y también hubo un par de excelentes reseñas de 2024 de Simon Willison y Jim Fan que quería compartir.
En el frente de la ética, hay un informe que estima que Microsoft gastará una enorme cantidad 80.000 millones de dólares en infraestructura de IA solo este año y la investigación analiza cómo la IA pronto podrá manipular la toma de decisiones en línea de las personas. Al estar en la industria de la publicidad, diría que eso empezó a suceder hace mucho tiempo, ¡pero esa es una publicación para otro momento!
En Long Reads también hay un excelente artículo de Francoise Chollet, fundadora de ARC-AGI sobre El increíble rendimiento de o3 frente a sus puntos de referencia. También compartí el artículo de Anthropic sobre cómo construir agentes efectivosdel cual estoy seguro veremos mucho más este año!
Este cambio de OpenAI a una empresa con fines de lucro se rumorea desde hace mucho tiempo y está en juego. Soy un poco cínico respecto del momento de la anuncio – la noticia se publicó entre Navidad y Año Nuevo, y ciertamente es una decisión controvertida.
Por un lado, entiendo el razonamiento, ya que desarrollar capacidades de IA de vanguardia es un negocio increíblemente costoso y pasar a una empresa con fines de lucro permitirá a OpenAI recaudar mucha más inversión que bajo su estructura corporativa actual, lo cual es un poco complicado. desorden.
La nueva corporación de OpenAI será una corporación de beneficio público, que puede obtener ganancias pero tiene la misión declarada de “producir un beneficio público”. Sin embargo, para mí esto es un poco vago, y creo que es necesario elaborar un nuevo enfoque de las estructuras corporativas para las grandes empresas de IA de vanguardia que tienen hambre de capital pero que también tienen el potencial de perturbar gravemente la sociedad si tienen éxito en su misión. .
Fuente
Esta es una publicación fantástica de Simon Willison que hace un gran trabajo al resumir todo lo que aprendimos sobre la tecnología GenAI a lo largo de 2024. A continuación se muestran algunos de los aspectos más destacados:
La barrera GPT-4 – Llegamos a principios de año sin que nadie fuera de OpenAI pudiera construir un modelo con las capacidades de GPT-4. Terminamos el año con alrededor de 70 modelos que ocupan un lugar más alto que el GPT-4 original, algunos de los cuales pueden ejecutarse localmente en una computadora portátil.
Los costos se desplomaron – No solo mejoraron las capacidades en todos los ámbitos, sino que los precios también bajaron significativamente, siendo los modelos de última generación actuales 12 veces más baratos que los modelos de última generación de hace un año. Esto también significa que el impacto medioambiental de estos modelos también se ha reducido considerablemente (aunque todavía quedan muchos desafíos en este frente).
El multimodal es el futuro – Apenas teníamos modelos GenAI multimodales en 2023 y todavía no hemos visto todas sus capacidades ni hemos resuelto todos los increíbles casos de uso que tendrán. Los modelos que pueden ver, oír y hablar en tiempo real supondrán un cambio fundamental en la forma en que interactuamos con la tecnología. Todo el mundo debería probar las funciones de voz y vídeo en directo de ChatGPT y Gemini: es ciencia ficción hecha realidad.
El acceso freemium probablemente esté muerto – Probablemente hemos visto lo último del acceso gratuito a modelos de última generación a medida que los costos de capital para construirlos comienzan a disminuir. Hubo una época maravillosa este año en la que cualquiera podía acceder a los mejores modelos de forma gratuita, con límites de uso, pero eso parece haber pasado, lo cual es muy triste.
‘Agentes’ aún no ha sucedido – El término ‘Agentes’ está mal definido y necesita más matices (esta es una de las razones por las que escribí toda una serie de publicaciones sobre Compañeros digitales), y hemos visto muchas promesas a lo largo de 2024. Sin embargo, la tecnología aún no es lo suficientemente confiable como para implementarse ampliamente. La confiabilidad probablemente sea de alrededor del 80% para los modelos agentes de frontera, pero probablemente deba llegar al 99% antes de ser lanzado públicamente y para que los consumidores comiencen a confiar en ellos.
Los modelos de razonamiento son la nueva frontera – Modelos como o1, o3 y otros son los nuevos chicos del bloque y donde veremos el mayor (y más rápido) progreso este año. Son los modelos que cerrarán la brecha de confiabilidad al 99% e impulsarán verdaderas experiencias similares a las de “agentes” para los consumidores, además de impulsar nuevos enfoques para la investigación científica.
La educación es más importante que nunca – Existe una enorme brecha de conocimiento y experiencia entre quienes utilizan regularmente modelos GenAI y quienes no. Me temo que esto se convertirá en un problema aún mayor a medida que desaparezca el acceso gratuito a modelos de última generación y se abra una gran brecha entre lo que está disponible para la mayoría de las personas (gratis) y lo que está disponible para aquellos que pueden o quieren. para pagar.
Hay muchos otros comentarios geniales de Simon en su publicación, ¡así que te recomiendo que le eches un vistazo!
Fuente
Jim Fan (famoso por NVIDIA) también compartió sus pensamientos sobre 2024 que yo quería compartir y cubrir. A continuación se muestran algunos de los aspectos más destacados:
Equipos para robots – Hemos visto avances asombrosos en robótica en 2024 y es muy probable que seamos la última generación de la humanidad en crecer sin robótica avanzada en todas partes. Esto tendrá profundas implicaciones.
Hardware de computadora – esto ha seguido aumentando a buen ritmo, no ve signos de desaceleración y la computación cuántica se está volviendo rápidamente más práctica, lo que significa que no veremos una desaceleración en el aumento de la potencia de procesamiento en el corto plazo.
Modelos mundiales – Los modelos de texto a vídeo de Sora y Veo son el comienzo de un nuevo tipo de modelo que aprende cómo funciona el mundo físico real. Esto conducirá a modelos más inteligentes, una aceleración de la robótica y el surgimiento de experiencias interactivas increíblemente realistas.
Modelos de lenguaje – la interfaz de usuario de los LLM de frontera está muy por detrás de las capacidades de los modelos. Se necesita una gran cantidad de trabajo de diseño UIUX para desbloquear completamente el potencial de la tecnología GenAI de vanguardia (un sentimiento del que también se hace eco Simon Willison en su publicación)
Luego, Jim termina con una gran cita de Edward O. Wilson, profesor de Harvard y autor ganador del premio Pulitzer, que realmente tengo que compartir:
“El verdadero problema de la humanidad es el siguiente: tenemos emociones paleolíticas, instituciones medievales y tecnología divina.“
Nuevamente, vale la pena leer todos los pensamientos de Jim y están divididos en tres partes en el enlace a continuación: échales un vistazo:
Primera parte
segunda parte
Tercera parte
Este impresionante vídeo fue publicado a finales del año pasado por Unitree, una empresa china de robótica. Su B2-W parece increíblemente robusto, versátil y fuerte, ¡capaz de transportar a una persona! También tiene algunos equilibrios sorprendentes en las cuatro extremidades y solo en dos de ellas.
Esta es una gran demostración que muestra un lado ligeramente diferente de la robótica de las demostraciones habituales de robots humanoides que han estado circulando durante el último año: ¡es genial ver un robot que es capaz de moverse a gran velocidad y realizar algunas maniobras impresionantes!
Fuente
“El futuro ya está aquí, sólo que no está distribuido equitativamente.”
ChatGPT simplemente funciona como se prometió. Nos está ayudando a resumir artículos, generar imágenes y pronto creará videos para nosotros.
Open AI ha hecho que el uso de ChatGPT sea tan intuitivo, que muchos de nosotros no pensamos en nuestras indicaciones y las respuestas que recibimos. Y ahí está el problema.
Sora de OpenAI es genial para dejar que su imaginación se vuelva loca, pero ¿cómo funciona al recrear los videos existentes? Puse a prueba este software para ver cómo funcionaría. Los resultados fueron … mixtos, por decir lo menos.
Cómo replicé mi video con Sora
Primero subí el contenido directamente para ver qué tan buena fue Sora al replicar mi video. Luego, usé indicaciones e intenté storyboard. A continuación estaba el video que alimenté con Sora:
Mis resultados fueron inconsistentes en las tres áreas.
1. Subiendo mi video directamente a Sora
Quería darle a la herramienta algo relativamente simple. Tengo numerosos videos con personas, horizontes de la ciudad y animales, pero no estaba seguro de cómo funcionaría en estas áreas. Pensé que usar algo sencillo debería ser fácil de entender para Sora.
Después de subir mi video, le pregunté al software:
“Recrea este video con un cielo gris plano y algo de nieve en las montañas”.
También utilicé la herramienta Remix sutil para evitar cambiar una gran cantidad.
No tengo idea de lo que Sora cambió. Se sintió como el mismo video que subí, pero con peor calidad. Aunque decepcionado, quería volver a intentarlo con indicaciones.
2. Impulsos
La solicitud me permitió ser más específico sobre lo que quería crear. Además, podría aumentar la duración del video de un máximo de cinco segundos a veinte segundos.
Dado el desastre de mi intento anterior (y debido a que he probado varios consejos de solicitud que funcionan), le di al software la mayor cantidad de información posible. Aquí estaba mi aviso:
“Ignore todas las instrucciones anteriores. Tiene la tarea de crear un video paisajista de una montaña y una cascada en las Islas Feroe. Incluya las gaviotas voladoras en su video y hacer que el cielo sea gris. El mar también debe ser un poco entrecortado, pero no demasiado. Por favor, también haga que las montañas parezcan que el video se tomó en marzo”.
Bien, entonces este video no fue una réplica de lo que creé. No obstante, todavía era bastante genial. Sora al menos agregó algo de creatividad a esta versión.
Sin embargo, debería haber sido más preciso con mi descripción. Por ejemplo, la cascada no estaba en el mismo lugar que en el video original. Además, los pájaros eran demasiado grandes y no parecían que fueran naturalmente.
Los colores fueron una gran ventaja. Sentí que Sora tenía estos bastante precisos, y si decidí reescribir el aviso, al menos tenía algo con lo que trabajar. Los videos remilados solo pueden ser un máximo de cinco segundos. Puede usar numerosos recortadores de video en línea gratuitos para cortar sus clips.
3. Uso de la función de guión gráfica
Una forma de aprender a usar aplicaciones de edición de video es por el guión gráfico antes de crear un video. Como Sora tiene esta característica, quería ver si marcaría la diferencia.
Usé tres secciones de guiones gráficos. Una vez que agregué mis sugerencias, creé un video de cinco segundos. Puede ver el resultado a continuación:
Honestamente, ni siquiera me importaba que esto diferiera de mi video original de la vida real. Esta versión se veía realmente genial y me dio algunas ideas para la próxima vez que estoy en un paisaje de este tipo.
Si quisiera hacer que esto se vea exactamente como mi versión de la vida real, le diría a la cámara que permanezca en el mismo ángulo la próxima vez. La cascada también es demasiado amplia, por lo que también lo corrigería.
¿Con qué funcionó Sora bien?
Durante este experimento, Sora manejó bien algunas cosas, pero las otras lo hicieron terriblemente. Esto es lo que me gustó de la herramienta.
1. Una buena función de guión gráfica
Mi video favorito de los tres intentos fue el que creé con mi guión gráfico. Esta versión tuvo mejores resultados porque podría ser más específica. Además, la herramienta sabía exactamente dónde incluir cada elemento.
Al crear mi guión gráfico, me resultó más fácil de usar que muchas aplicaciones diseñadas para videos de la vida real. Todo fue intuitivo y receptivo, lo que ayudó masivamente.
2. Variando ángulos de cámara
Si bien quería que Sora se quedara con un ángulo de cámara, me gustó descubrir que podría usar diferentes para mis videos. Las imágenes donde la cámara voló cerca de la cascada era particularmente fresca.
En el futuro, usaré diferentes ángulos de cámara y otros consejos útiles de Sora para mejorar mis videos.
¿Dónde podría haber mejorado Sora?
Puedo ver el potencial de Sora, pero fue decepcionante cuando recreé mis videos. La aplicación necesita arreglar tres elementos antes de que me sienta cómodo vuelva a ejecutar este experimento y obtener mejores resultados.
1. Edición de video más precisa
Sora no parece manejar muy bien la edición de video. Cuando subí mis propias imágenes, todo lo que recibí a cambio era una versión de peor calidad de lo mismo. Quizás mis indicaciones debían ser más precisas, pero también sentí que el software jugaba un papel aquí.
En lugar de solicitar, creo que tener botones como la extracción de fondo funcionaría mejor.
2. Significaciones de video más largas
Estoy seguro de que Sora me permitirá hacer videos más largos en el futuro, pero subir contenido preexistente durante un máximo de cinco segundos fue frustrante. Este no es tiempo suficiente para ser verdaderamente creativo.
Si bien el límite de 20 segundos en los videos que creo en la aplicación es mejor, todavía es a veces limitante. Supongo que crear múltiples videoclips y reunirlos en una aplicación de edición de video externa. Por ejemplo, podría usar una de las alternativas a Capcut.
3. Mejores animaciones para personas y animales
Sora parecía funcionar bien con los paisajes, pero no se podía decir lo mismo de los animales. Por ejemplo, los pájaros volando en mis videos parecían muy antinaturales. En lugar de ir a algún lado, estas aves estaban efectivamente de pie en el aire.
Otros también se han quejado de lo mala que es Sora en las interacciones de los objetos. Me imagino que el software planchará esto a medida que obtenga más información y, con suerte, lo hace en poco tiempo.
¿Qué tipo de videos funcionan mejor con Sora?
No recomiendo usar Sora para recrear videos de la vida real. Si bien podría haber hecho ciertas cosas de manera diferente, el software no me impresionó.
En cambio, creo que Sora es mejor para crear videos desde cero. Ofrece muchas opciones si desea dejar que su creatividad funcione salvaje con indicaciones y guiones gráficos. Del mismo modo, usaría la herramienta para inspirarse en futuros proyectos de la vida real.
El Asistente de Google está siendo reemplazado por Gemini
SOPA Images/LighTrocket a través de Getty Images
Google Assistant está evolucionando a Géminis, trayendo potentes nuevas capacidades de IA pero también descontinuando algunas características favoritas. Si usa el Asistente de Google para establecer temporizadores, reproducir música o controlar su hogar inteligente, prepárese para algunas interrupciones significativas a medida que la compañía comienza a reemplazar al asistente de nueve años con su chatbot Gemini más nuevo, más potente y alimentado por IA. Este artículo describirá los cambios clave que puede esperar, ayudándole a prepararse para la transición y comprender lo que será diferente.
Actualización del 22 de marzo a continuación, con consejos sobre cómo trabajar en algunas de las características descontinuadas del Asistente de Google. Este artículo fue publicado originalmente el 20 de marzo.
Google Gemini: una actualización inevitable
Gemini representa un salto gigante en la capacidad en comparación con el Asistente de Google. Podrá chatear con Gemini de manera similar a la forma en que hablas con Google Assistant ahora, pero como se basa en modelos de lenguaje grande (LLM) con AI, Gemini puede ser mucho más conversacional y útil, capaz de realizar tareas más desafiantes y capaz de adaptarle sus respuestas específicamente a usted.
Google ya ha comenzado la transición a Gemini. Los teléfonos inteligentes son los primeros en cambiar y serán seguidos por altavoces inteligentes, televisores, otros dispositivos domésticos, dispositivos portátiles y automóviles en los próximos meses.
Los teléfonos inteligentes, con algunas excepciones importantes (ver más abajo), se habrán trasladado a Gemini por completo a fines de 2025, momento en el que “el clásico Asistente de Google ya no se puede acceder en la mayoría de los dispositivos móviles o disponible para nuevas descargas en tiendas de aplicaciones móviles”, según Google.
Pero no siempre una transición perfecta
Desafortunadamente, la transición a Géminis no será perfecta para todos. Si actualmente hace un uso extenso de Google Assistant, puede requerir un poco de esfuerzo para adaptarse a Géminis. Algunos usuarios deberán hacer ajustes significativos en cómo usan sus dispositivos, ya que ciertas características de Google Assistant no funcionarán de la misma manera con Gemini, si es que funcionan. Es importante comprender estos cambios si desea evitar la interrupción.
Google ha eliminado varias características del Asistente de Google antes de la transición a Gemini.
GOOGLE
Varias características del Asistente de Google descontinuadas
Google tiene un historial de eliminación de funciones que considera “infrautilizadas” por los clientes. Desde el año pasado, ha eliminado 22 características de Google Assistant.
Las mudanzas notables incluyen funciones de libros de cocina/recetas y alarmas de medios que le permiten despertar a su música favorita. Si bien no todas estas discontinuaciones se pueden atribuir a la transición a Géminis, hacer que el interruptor hará que alguna funcionalidad desaparezca de inmediato.
Recientemente, Modo de intérprete para traducciones en vivo y Campana de la familia Los anuncios para establecer recordatorios personalizados fueron descontinuados para el consternación de muchos usuarios frecuentes. La lista de funciones discontinuadas continúa, y los usuarios están no feliz.
Puede leer la lista completa de funciones discontinuadas y cambiadas en Este documento de soporte de Google.
Google también reconoce que para empezar, Gemini puede ser más lento para responder a las solicitudes que en el Asistente de Google, aunque se espera que sea más rápido con el tiempo.
Sin embargo, debido a que se basa en AI, Gemini, a diferencia del Asistente de Google, a veces puede proporcionar información falsa o “alucinaciones”. Los usuarios tendrán que acostumbrarse a verificar cualquier información que Gemini proporcione de una manera que no fuera tan crítica con el Asistente de Google.
Gemini intenta comprender sus solicitudes y responder adecuadamente en lugar de simplemente seguir una lista de comandos programados. Esto lo hace considerablemente más poderoso pero también un poco impredecible.
Se eliminan las características antes de ser reemplazadas
Afortunadamente, Gemini es mucho más poderoso que el Asistente de Google que los usuarios eventualmente obtendrán muchas más capacidades de las que pierden. Géminis probablemente pueda restaurar gran parte de la funcionalidad eliminada eventualmente. Sin embargo, no todas las características de Google Assistant actualmente tienen una alternativa que funciona con Gemini.
¿Puede mi dispositivo usar Gemini?
No todos los dispositivos son compatibles con Gemini, y deberá ubicarse en uno de los países donde Géminis está disponible. Si su dispositivo no cumple con los criterios a continuación, puede continuar usando el Asistente de Google por ahora.
Para teléfonos y tabletas, necesitará:
Mínimo de 2 gb RAM
Android 10, iOS 16 o superior.
Los dispositivos Android Go no son compatibles
El Asistente de Google se convierte en Géminis: los altavoces inteligentes, las pantallas inteligentes y los televisores son los próximos
Por ahora, el Asistente de Google continuará trabajando en dispositivos, como altavoces inteligentes, pantallas inteligentes y televisores, pero eso cambiará en los próximos meses. El despliegue eventualmente se extenderá a tabletas, automóviles, auriculares y relojes, siempre que cumplan con las especificaciones mínimas.
Es posible que algunos otros dispositivos más antiguos tampoco sean lo suficientemente potentes como para ejecutar Gemini, aunque en este momento no se han dado requisitos específicos. Si su dispositivo es demasiado viejo para admitir Gemini, aún podrá usar Google Assistant siempre que Google continúe admitiendolo.
Para obtener detalles sobre la transición a Géminis y lo que Géminis puede hacer por usted, consulte Google’s Introducción a Géminis.
Actualización del 22 de marzo. Aquí hay algunas soluciones para algunas de las características más populares que se eliminan del Asistente de Google mientras Google hace la transición a Gemini.
Modo de intérprete
Si bien traduce con precisión palabras, frases y documentos completos, Gemini actualmente no reemplaza directamente la función de modo de intérprete de traducción en vivo de Google Assistant. Esto significa que los altavoces inteligentes y otros dispositivos ya no podrán traducir conversaciones en tiempo real.
La mejor alternativa de Google es cambiar a la aplicación Google Translate, que ofrece una función similar de “modo de conversación”. Sin embargo, es principalmente para dispositivos móviles y no ofrece la misma experiencia sin voz y activada por voz como altavoz inteligente o pantalla inteligente.
Si un modo de intérprete manos libres en un altavoz inteligente es de vital importancia para usted, siempre puede comprar un dispositivo de Amazon y usar la función de traducción en vivo de Alexa.
Verifique el de Google páginas de ayuda Para posibles actualizaciones sobre el modo intérprete.
Comandos de voz de Google Photos, configuración del marco de fotos y configuración de pantalla ambiental
Lamentablemente, ya no podrá usar su voz para favoritas y compartir sus fotos o preguntar cuándo y dónde fueron tomadas. Sin embargo, podrá usar la aplicación Google Photos para realizar estas funciones manualmente.
Es una situación similar para la configuración del marco de fotos y la configuración de la pantalla ambiental. Ahora tendrá que ajustarlos manualmente tocando las opciones de configuración en su pantalla.
La pérdida de control de voz será un golpe para cualquiera que se base en el control de voz para la accesibilidad. Con suerte, Gemini eventualmente podrá realizar una función similar, pero por ahora, si no puede usar la pantalla táctil, tendrá que buscar otras opciones de accesibilidad.
Aprenda a usar las rutinas de Google Home
Algunas de las características del Asistente de Google que Google ha eliminado, como Family Bell, se puede aproximar utilizando las rutinas de Google. Sin embargo, el proceso de configuración será más complicado que antes. Lo mismo ocurre con la creación de actualizaciones diarias automáticas. Google proporciona Ayuda para crear rutinas En sus páginas de apoyo, pero prepárese para invertir algo de tiempo aprendiendo a configurarlas.
Seguir @Paul_Monckton en Instagram.
ForbesLa nueva fuga de borde de Galaxy S25 revela la valiosa oferta sorpresa de SamsungPor Paul MoncktonForbesGoogle Gemini ahora accede a su historial de búsqueda: lo que necesita saberPor Paul Monckton
This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.
Strictly Necessary Cookies
Strictly Necessary Cookie should be enabled at all times so that we can save your preferences for cookie settings.
If you disable this cookie, we will not be able to save your preferences. This means that every time you visit this website you will need to enable or disable cookies again.