Noticias
Toys “R” Us revoluciona la publicidad con IA: ¿El futuro del cine?
Toys “R” Us está demostrando que la inteligencia artificial podría tener un futuro en la industria cinematográfica.
Esta semana, la conocida marca de juguetes estrenó un cortometraje promocional en el Festival de Cannes Lions 2024 en Francia, creado casi en su totalidad utilizando la nueva herramienta de texto a video de OpenAI, llamada Sora.
El estudio de entretenimiento de la compañía se asoció con la agencia creativa Native Foreign, que tuvo acceso anticipado a Sora. Toys “R” Us cree que es la primera marca en debutar un filme utilizando esta tecnología, la cual aún no está disponible para el público.
El promocional, de 66 segundos, sigue la historia del joven fundador de Toys “R” Us, Charles Lazarus, quien tuvo la visión de transformar las tiendas de juguetes con la ayuda de Geoffrey la Jirafa, el icónico mascota de la marca, quien se le apareció en un sueño. Las reacciones en las redes sociales fueron variadas, algunos lo calificaron como un fascinante vistazo al futuro del cine, mientras que otros lo encontraron “inquietante”.
Toys “R” Us mencionó que, además de Sora, utilizó algunos efectos visuales correctivos y una banda sonora original.
En febrero, OpenAI – la empresa detrás del popular chatbot ChatGPT – presentó el modelo de IA Sora, que puede crear videos realistas e imaginativos a partir de rápidos prompts de texto. La compañía afirmó que esta herramienta es capaz de generar videos de hasta 60 segundos, con múltiples personajes, tipos específicos de movimiento y detalles de fondo detallados.
Tras el anuncio, expertos señalaron que los modelos de IA de tipo texto a video podrían tener el potencial de revolucionar el mercado del entretenimiento digital.
Kim Miller, directora de marketing de Toys “R” Us Creative Studios, contó a CNN que la idea surgió después de asistir a un grupo de narración de historias de marca y expresar su deseo de hacer algo “divertido” y “diferente” para su próximo proyecto, que involucraba la historia del origen del fundador.
Después de que Native Foreign se convirtiera en uno de los primeros probadores de Sora, el director creativo Nik Kleverov propuso a Miller unir fuerzas para el proyecto.
“Todo lo que ves fue creado con texto, aunque algunas tomas se juntaron más rápido que otras; algunas requirieron más iteraciones”, comentó Kleverov. “La planificación, el aspecto del personaje, lo que llevan puesto, la emoción, el fondo – todo debe ser una danza perfecta. A veces creabas algo que casi estaba bien y otras veces no tanto”.
Miller añadió que hubo mucha verificación y participación humana durante todo el proceso.
“A veces cumplía con lo esperado, pero tal vez una reacción no coincidía con lo que estaba pasando”, dijo. “Fue un proceso educativo con mucho aprendizaje y vaivén”.
Miller, quien fue una de las primeras en adoptar Facebook Live cuando trabajaba con Martha Stewart, cree que la mejor manera de entender la tecnología es experimentarla directamente, en lugar de solo escuchar lo que dicen otros.
“Lo mismo es cierto para la IA”, afirmó.
Añadió que Toys “R” Us está explorando oportunidades publicitarias para el promocional.
“Nuestro gran objetivo es asegurarnos de que todos sepan que hay un Toys ‘R’ Us en cada Macy’s, así que podría haber una versión navideña próximamente”, dijo Miller.
OpenAI aún no ha anunciado una fecha oficial de lanzamiento para Sora, pero se rumorea que podría lanzarse este verano.
Noticias
Probando la capacidad de Bard y ChatGPT para escribir ensayos sobre dilemas éticos: un estudio transversal
En este estudio, comparamos las características lingüísticas psicométricas de los ensayos escritos por estudiantes sobre dilemas éticos personales con las de ensayos de IA equivalentes generados por indicaciones diseñadas con palabras clave de los ensayos originales. Descubrimos que el último grupo generalmente tenía más palabras relacionadas con el afecto, específicamente aquellas que exhibían emociones positivas. Por el contrario, los ensayos escritos por los estudiantes tenían más lenguaje relacionado con lo cognitivo y más palabras por oración. Los dos LLM utilizados para generar ensayos (Bard y ChatGPT) también diferían entre sí: el primero generaba textos más parecidos a los humanos y el segundo generaba ensayos con palabras más complejas frecuentemente relacionadas con el pensamiento analítico y que a menudo se presentaban con más autenticidad. Sin embargo, encontramos que un tercio de los ensayos entregados por los estudiantes ya estaban total o parcialmente escritos por un LLM. Esto fue confirmado por análisis adicionales, donde observamos diferencias menos o menos significativas entre dichos ensayos y los generados totalmente por IA que entre los ensayos “verdaderos” escritos por estudiantes y los de IA, lo que indica una mayor similitud. Además, como los ensayos coescritos por IA tenían menor autenticidad, pero puntuaciones de pensamiento analítico más altas y una mayor prevalencia de “palabras importantes”, es probable que, de hecho, fueran generados por IA, pero posteriormente editados hasta cierto punto. Además, confirmamos que los ensayos escritos por IA utilizaron más lenguaje relacionado con el afecto, la autenticidad y el pensamiento analítico en comparación con los ensayos escritos íntegramente por estudiantes después de eliminar del análisis los ensayos escritos conjuntamente por IA.
Hasta donde sabemos, nuestro estudio es el primero en comparar cuantitativamente las características psicométricas de ensayos generados por humanos y por IA sobre las experiencias personales de estudiantes de medicina con un dilema ético de la vida real que enfrentaron dentro de un contexto educativo o profesional. Otros estudios que compararon textos escritos por humanos y generados por LLM se centraron en textos argumentativos o reflexivos sobre un conjunto diverso de temas.15,21 o la capacidad de los LLM para escribir en ciertos estilos de personalidad, independientemente de un tema específico22.
Por ejemplo, Jiang et al.22 demostró que ChatGPT puede emular con éxito ciertos rasgos de personalidad dentro del modelo de personalidad de los Cinco Grandes, lo que puede explicar parcialmente por qué los LLM parecían ser muy competentes al escribir sobre temas emocionales y matizados, como en nuestro estudio. De lo contrario, nuestro hallazgo de que los ensayos escritos por IA tenían un lenguaje más analítico no es sorprendente, como Herbold et al.15 Anteriormente descubrió que los ensayos escritos por ChatGPT superaban a los escritos por humanos en la medida en que utilizaban una estructura y narrativa más académicamente deseable. Asimismo, al comparar el diálogo humano con uno generado por ChatGPT, Sandler et al.23 Descubrió que el LLM también tenía niveles más altos de pensamiento analítico. Aunque no realizamos análisis cualitativos o cuantitativos para explorar esto, notamos que los ensayos generados por IA tenían una estructura formulada, probablemente influenciada por la indicación que indicaba al LLM que escribiera “un ensayo”, similar a lo que Herbold et al.15 encontrados (aunque se centraron en ensayos más argumentativos y estructurados). Esto incluía, entre otras cosas, el uso de frases fijas como “Durante mis estudios de medicina” para abrir ensayos y “En conclusión” para cerrarlos (Archivo complementario 2). Si las personas que evalúan ensayos en contextos educativos encuentran un lenguaje tan formulado, podría indicar que los autores utilizaron algún tipo de herramienta basada en IA o LLM. Este hallazgo también es similar a lo que Li et al.21 identificado en su estudio, donde investigaron la capacidad de los LLM para escribir textos reflexivos sobre una amplia gama de temas. Los autores notaron que las reflexiones generadas por ChatGPT tenían una menor variabilidad en términos de la cantidad de oraciones, palabras únicas y la cantidad total de palabras en comparación con las escritas por los estudiantes.
Mientras tanto, el hallazgo de que los ensayos escritos por IA tienden a tener un lenguaje más emocionalmente positivo y auténtico en comparación con los ensayos escritos por estudiantes es algo poco intuitivo. Esto podría interpretarse en función de los resultados de un experimento anterior en el que un servicio de chat de apoyo emocional en línea que utilizaba GPT-3 se percibía como un mayor apoyo emocional que las respuestas humanas. Sin embargo, una vez que los participantes aprendieron que estas respuestas no fueron generadas por humanos, cualquier beneficio que hubieran obtenido de estos servicios desapareció.24. Esto está en línea con lo que Jiang et al. observado, también22. Planteamos la hipótesis (aunque no podemos confirmarlo) de que los estudiantes fueron más reservados al expresar sus emociones y posturas debido a la ambigüedad ética de sus situaciones de la vida real, lo que resultó en puntuaciones más bajas en autenticidad y afecto/tono. Mientras que Sandler et al.23 no observaron una diferencia en el afecto entre el diálogo humano y el generado por ChatGTP, sí observaron que este último tenía valores más altos para el tono emocional positivo y los procesos sociales. Esto está en línea con nuestros resultados, lo que respalda sus hallazgos de que los LLM podrían percibirse como “más humanos que humanos”.23. Este tono positivo que observamos en los ensayos escritos por IA podría sugerir que proporcionaron “mejores escenarios” idealizados y respuestas más moralmente deseables, con resultados generalmente más positivos a los dilemas éticos. Finalmente, las diferencias lingüísticas entre Bard y ChatGPT observadas en nuestro estudio, especialmente la mayor autenticidad y la mayor frecuencia de palabras complejas observadas en las puntuaciones LIWC de los ensayos generados por ChatGPT, pueden explicarse por comparaciones anteriores de estos dos LLM, donde ChatGPT parecía funcionar. mejor que Bard para adaptarse a diferentes contextos y realizar tareas más complejas e intensivas, al mismo tiempo que tiene mayores capacidades generales para redactar textos25,26,27,28,29. Sin embargo, nuestra observación de que los ensayos generados por ChatGPT tienen valores de autenticidad más altos que los escritos por humanos contrasta con los hallazgos de Sandler et al.23aunque la diferencia que observamos fue marginalmente significativa en el análisis completo e inexistente después de comparar ensayos escritos por estudiantes reales con sus equivalentes generados por IA.
Nuestros hallazgos indican que las herramientas basadas en IA pueden ser bastante eficientes a la hora de producir ensayos similares a los humanos relacionados con la ética y la escritura sobre experiencias y opiniones personales, lo que concuerda con las observaciones de Sandler y sus colegas.23. Las diferencias psicométricas observadas entre la IA y los ensayos escritos por estudiantes se volvieron mucho más matizadas en nuestros subanálisis de ensayos coescritos por IA, lo que indica que probablemente fueron modificados por los estudiantes después de que fueron generados por un LLM. A medida que las instituciones de educación superior y las iniciativas globales avanzan hacia la implementación de regulaciones para el uso de herramientas de escritura basadas en IA30,31implementar salvaguardias efectivas será una máxima prioridad25. El uso de software de detección es otra posibilidad, pero puede no garantizar completamente que los ensayos generados por IA suficientemente modificados se identifiquen con éxito. También es probable que los humanos sean capaces de reconocer por sí mismos los ensayos escritos por IA.32 y que el software de detección puede ser simplemente una herramienta complementaria para mejorar o confirmar sus observaciones. Así, por ejemplo, lo utilizamos en nuestro estudio, ya que nos permitió confirmar nuestras suposiciones de que algunos de los ensayos escritos por los estudiantes fueron generados por IA. Esta cuestión podría examinarse en investigaciones futuras, donde evaluadores humanos ciegos podrían verificar si ensayos menos formales y no académicos fueron escritos por una IA o un humano, y donde su desempeño podría compararse con las herramientas de detección de IA disponibles. Para abordar los desafíos que plantea la IA a las tareas basadas en ensayos, puede ser necesario reintroducir tareas de ensayos escritos a mano para garantizar que los estudiantes realmente apliquen sus propias habilidades de pensamiento crítico sin depender de la escritura asistida por IA. Independientemente de si la IA se integrará completamente como parte de las tareas y exámenes basados en ensayos o si se mantendrán formatos más tradicionales, se deben adoptar e integrar reglas claras para el uso de la IA en el entorno educativo teniendo en cuenta todos estos factores. en consideración, así como una definición clara sobre qué prácticas constituyen plagio en el contexto de la IA.26.
La principal fortaleza de nuestro estudio es el uso del software LIWC, que ha sido ampliamente validado en investigaciones anteriores. Esto nos permitió comparar cuantitativamente diferentes tipos de ensayos. Otra fortaleza importante es que utilizamos un conjunto de datos seleccionados con un tema específico. Específicamente, recopilamos un conjunto de ensayos comparativamente pequeño, pero centrado en un tema (con una alta tasa de respuesta de los estudiantes) producidos en un contexto de la vida real, en lugar de utilizar ensayos de bases de datos existentes o fuentes en línea. Esto significó que nuestro hallazgo refleja tanto cómo escriben los participantes de nuestro estudio en la práctica como cómo podrían usar herramientas de inteligencia artificial para generar ensayos. Sin embargo, nuestro estudio también tiene algunas limitaciones. Los estudiantes que escribieron los ensayos no eran hablantes nativos de inglés; sin embargo, asistían a un programa médico totalmente basado en el idioma inglés durante el cual también habían presentado tareas basadas en ensayos dentro de cada año de estudio anterior, lo que significa que su experiencia y conocimiento del idioma eran suficientes. También utilizamos ChatGPT 3.5 y Bard, aunque en ese momento había disponibles versiones más nuevas y de pago, como ChatGPT 4.0. Esta elección se debió al hecho de que ambos eran fácilmente accesibles para los estudiantes y de forma gratuita; El uso de versiones pagas de los LLM podría no reflejar situaciones de la vida real, ya que pensamos que era poco probable que los estudiantes pagaran las tarifas necesarias para acceder a los modelos más avanzados. Además, los dos LLM tienen algunas diferencias inherentes que se han destacado en varios estudios previos. Por ejemplo, un estudio reciente encontró que ChatGPT genera ensayos con oraciones y redacción más complejas, mientras que Bard genera textos más cohesivos.19. Otra investigación que impulsó a los dos LLM a utilizar un conjunto estandarizado de preguntas cerradas y abiertas encontró que Bard genera respuestas más largas pero más precisas, lo que aparentemente contrasta con el estudio de Borji y Mohammadian, quienes descubrieron que ChatGPT generalmente supera a Bard en términos. de la exactitud de las respuestas a un conjunto diverso de preguntas29,33. Sin embargo, a pesar de estas divergencias, los investigadores generalmente coinciden en que ambos LLM son altamente capaces de generar texto y contenido, especialmente en el contexto de la educación.19,20,29,33. Finalmente, aunque pudimos identificar una cierta cantidad de ensayos generados por IA a través de detectores de IA, no podemos determinar si hubo falsos positivos/negativos, o si otros estudiantes manipularon suficientemente los ensayos generados por IA para hacerlos indetectables. Para minimizar el impacto de esta limitación, utilizamos dos tipos diferentes de software de detección de IA para identificar dichos textos, mientras que todos los ensayos escritos por los estudiantes también habían sido previamente verificados de forma independiente por dos evaluadores humanos.
Noticias
GitHub Copilot se vuelve multimodelo y agrega soporte para Gemini de Google y Claude LLM de Anthropic
GitHub de Microsoft Corp. sorprendió hoy al revelar que su popular asistente de codificación de inteligencia artificial generativa, GitHub Copilot, ya no funcionará exclusivamente con los modelos GPT de OpenAI.
En cambio, la compañía dijo en su evento anual GitHub Universe que está adoptando un enfoque multimodelo, brindando a los desarrolladores la oportunidad de aprovechar también modelos de compañías rivales como Anthropic PBC y Google LLC.
La revelación se produjo junto con una serie de otros anuncios, con GitHub lanzando una nueva herramienta de inteligencia artificial llamada Spark que puede automatizar gran parte del trabajo que implica la creación de aplicaciones web y actualizaciones más generales de GitHub Copilot en VS Code y Xcode.
Sin embargo, la decisión de hacer de GitHub Copilot una herramienta multimodelo es, con diferencia, el anuncio más importante. En una publicación de blog, el director ejecutivo de GitHub, Thomas Dohmke, dijo que los usuarios ahora pueden usar el modelo de lenguaje grande Claude 3.5 Sonnet de Anthropic en las interfaces web y VS Code de Copilot Chat, y que Gemini 1.5 Pro de Google llegará como otra opción en las próximas semanas.
Además, GitHub Copilot también admitirá una gama ampliada de modelos OpenAI, incluidos otros más especializados como GPT o1-preview y GPT o1-mini, que se dice que están más centrados en el razonamiento avanzado que GPT-4o, que es el modelo. actualmente utiliza exclusivamente.
La idea es que los desarrolladores puedan cambiar entre varios modelos según lo que estén tratando de lograr, y es un reconocimiento de que, en el mundo de la IA, hay diferentes caballos para diferentes carreras, con algunos modelos más adecuados que otros, dependiendo de la tarea.
La elección no dependerá sólo de los desarrolladores: las organizaciones también podrán seleccionar qué modelos están dispuestas a poner a disposición de varios miembros del equipo utilizando GitHub Copilot Enterprise.
Dohmke dijo que el enfoque tiene sentido porque ha quedado claro que no existe un modelo único que rija todos los escenarios. “La próxima fase de la generación de código de IA no sólo estará definida por la funcionalidad multimodelo, sino también por la elección multimodelo”, escribió.
Anthropic y Gemini estarán disponibles primero en la web de GitHub Copilot y en las interfaces de chat de VS Code, pero la compañía eventualmente planea llevarlos a cada una de sus áreas de superficie y funciones, dijo Dohmke, incluido Copilot Workspace, la interfaz de línea de comandos de GitHub y varios otras herramientas.
¿Un futuro multimodelo?
Dada la influencia de Microsoft sobre GitHub, la medida ha llevado a especular que la propia empresa con sede en Redmond también podría decidir poner fin a su acuerdo de exclusividad con OpenAI y permitir a los usuarios acceder a otros modelos en sus propias herramientas Copilot.
Si bien GitHub inició la moda de los copilotos cuando presentó su asistente de codificación de IA generativa en 2021, Microsoft ha introducido una serie de sus propios copilotos en plataformas como Windows y Office.
Como mayor patrocinador de OpenAI, Microsoft ha aprovechado al máximo esa relación, utilizando sus modelos GPT como motor detrás de sus diversas herramientas Copilot, y nunca ha dado ninguna indicación de que no esté satisfecho con su desempeño. Pero con el cambio de GitHub a un enfoque multimodelo, es probable que Microsoft al menos haya considerado hacer lo mismo.
Si realmente lo hará o no, está lejos de ser seguro. Microsoft adquirió GitHub en 2018, pero a diferencia de la mayoría de las otras adquisiciones, ha permitido a la empresa operar más o menos de forma independiente desde entonces. Por lo tanto, es posible que el mismo pensamiento que prevalece en GitHub no esté presente en Microsoft.
Durante mucho tiempo, Microsoft elogió los modelos GPT de OpenAI, presentándolos como los mejores de los mejores para que los clientes pensaran que su acceso exclusivo les da una ventaja sobre sus competidores.
Sin embargo, para la mayoría ha quedado claro que los modelos de OpenAI realmente no son tan superiores en absoluto, y los modelos Gemini de Google y Claude de Anthropic demuestran consistentemente algunas capacidades propias impresionantes. Con esto, la competencia en la industria de la IA ha cambiado y Microsoft está más preocupado por proporcionar a las empresas las herramientas y plataformas que necesitan para crear aplicaciones de IA generativas. Y una cosa que sus clientes quieren es flexibilidad en la elección del modelo, razón por la cual el servicio Azure AI ahora ofrece múltiples LLM diferentes de una variedad de proveedores.
Por otra parte, la elección de qué modelo utilizar es menos pronunciada en algunas aplicaciones que en otras. Las complejidades de escribir código significan que GitHub Copilot definitivamente puede beneficiarse al tener más opciones, ya que algunos modelos son más competentes en lenguajes de programación específicos que otros, pero ese puede no ser el caso de los Copilots encargados de escribir boletines o corregir la gramática del usuario. Por lo tanto, no es del todo seguro si Microsoft reducirá todavía la ventaja de exclusividad de OpenAI.
GitHub Spark: creación de aplicaciones con palabras
Mientras el mundo de la tecnología observa con ansias ver si Microsoft sigue el ejemplo de GitHub, hubo muchos otros anuncios en el evento GitHub Universe. Quizás el más significativo sea el lanzamiento de Spark, que se dice que es una herramienta de inteligencia artificial para crear aplicaciones web utilizando lenguaje natural.
En una demostración, GitHub mostró cómo un mensaje inicial (esencialmente solo una descripción de la aplicación) genera una serie de vistas previas en vivo de cómo podría verse esa aplicación. Los usuarios pueden comparar las diferentes vistas previas, seleccionar la que les guste y luego ingresar más indicaciones para cambiar la apariencia de la aplicación.
Por supuesto, los desarrolladores experimentados aún podrán manipular el código si lo desean, mientras que los usuarios sin experiencia podrán continuar indicándolo con su lenguaje natural hasta obtener el diseño que desean.
Una vez que el usuario está satisfecho con la aplicación, GitHub Spark puede implementarla donde quiera que el usuario la desee, en una computadora de escritorio, tableta o teléfono inteligente, por ejemplo. También podrán compartir su aplicación con otras personas, para que sus colegas puedan modificarla si así lo desean.
Según GitHub, Spark ayudará a la empresa a cumplir su visión de crear mil millones de desarrolladores en el mundo.
“Durante demasiado tiempo, ha existido una barrera de entrada insalvable que separa a una gran mayoría de la población mundial de la creación de software”, dijo Dohmke. “Con Spark, permitiremos que más de mil millones de usuarios de computadoras personales y teléfonos móviles creen y compartan sus propias microaplicaciones directamente en GitHub”.
Imagen destacada: GitHub
Su voto de apoyo es importante para nosotros y nos ayuda a mantener el contenido GRATIS.
Un clic a continuación respalda nuestra misión de proporcionar contenido gratuito, profundo y relevante.
Únase a nuestra comunidad en YouTube
Únase a la comunidad que incluye más de 15 000 expertos de #CubeAlumni, incluido el director ejecutivo de Amazon.com, Andy Jassy, el fundador y director ejecutivo de Dell Technologies, Michael Dell, el director ejecutivo de Intel, Pat Gelsinger, y muchas más luminarias y expertos.
GRACIAS
Noticias
Apple Intelligence vs Google Gemini: características, disponibilidad, privacidad
Rita El Khoury / Autoridad de Android
Así como el hardware y la potencia de procesamiento de los teléfonos inteligentes alcanzaron la madurez, los gigantes tecnológicos han encontrado una nueva forma de venderle una actualización: la IA. En el iPhone, ahora tenemos Apple Intelligence que promete cambiar la forma en que interactúas con tu teléfono. Mientras tanto, Google ha presionado a las marcas de Android para que adopten su familia de modelos de lenguaje Gemini para todo, desde la edición de imágenes hasta la traducción desde el año pasado. Pero si bien Apple Intelligence y Google Gemini pueden parecer similares en papel, los dos no podrían ser más diferentes en la realidad.
Aunque Apple tiende a adoptar un enfoque más conservador al adoptar nuevas tecnologías, su impulso de la IA ha sido rápido y completo. Con eso en mente, analicemos en qué se diferencia Apple Intelligence de Google Gemini y por qué es importante.
Apple Intelligence vs Google Gemini: descripción general
La mayor diferencia entre las dos suites de IA es que Apple Intelligence no está anclada a ninguna aplicación o función. En cambio, se refiere a una amplia variedad de funciones disponibles en iPhone, iPad y Mac. Es posible que ni siquiera te des cuenta de la presencia de la IA de Apple fuera de ciertos casos obvios como Siri.
Por otro lado, Gemini comenzó su vida como un chatbot para competir con ChatGPT y luego reemplazó al Asistente de Google. Aunque las capacidades de Gemini se extienden más allá del chat, funciones como el resumen y la traducción de texto pueden variar según el teléfono inteligente que elija. Por ejemplo, Galaxy AI de Samsung ofrece un conjunto diferente de funciones de AI que las que se encuentran en los dispositivos Google Pixel, aunque ambas compañías usan (y anuncian) Gemini Nano.
El conjunto de funciones de Gemini difiere de un dispositivo a otro, mientras que Apple Intelligence es estándar.
Al presentar Apple Intelligence, el gigante de Cupertino también dio mucha importancia a su compromiso con la privacidad. Las tareas de IA basadas en la nube se realizarán estrictamente en los servidores de Apple en el hardware de la propia empresa. Más importante aún, las interacciones entre humanos y IA no serán visibles para nadie más que para el usuario, ni siquiera para Apple.
Sin embargo, la plataforma tampoco está completamente cerrada; Apple ha anunciado una integración ChatGPT para consultas complejas de Siri. Los rumores también indicaron que la empresa podría ofrecer respuestas de Gemini como alternativa a ChatGPT. Esta voluntad de incluir integraciones de terceros marca un cambio significativo para Apple, que tradicionalmente prefiere mantener su ecosistema estrictamente controlado. Sin embargo, ofrece a Apple una forma de descargar la culpa si el modelo de IA responde con información insegura o engañosa.
¿Apple Intelligence y Gemini son gratuitos?
Sí, tanto Apple Intelligence como Gemini son de uso gratuito. Sin embargo, Google ofrece un nivel pago opcional llamado Gemini Advanced que desbloquea respuestas de mayor calidad, gracias a un modelo de lenguaje más grande. Si bien Apple no cobra directamente por sus funciones de inteligencia artificial, podrá vincular una cuenta ChatGPT Plus para acceder a funciones pagas, como el acceso al último modelo GPT-4o.
Apple Intelligence vs Google Gemini: características comparadas
Rita El Khoury / Autoridad de Android
- Asistente: Utilizando el poder de grandes modelos de lenguaje, Siri de Apple y Gemini de Google pueden actuar como asistentes digitales capaces y responder cualquier pregunta bajo el sol. Según las demostraciones de Apple, la nueva Siri tiene una clara ventaja, ya que puede coordinar acciones entre aplicaciones. Por ejemplo, puedes pedirle que envíe fotos desde una ubicación específica a tu contacto sin abrir la aplicación Fotos o Mensajes. Gemini aún no puede realizar este tipo de funcionalidad.
- Contexto y personalización de la pantalla: Apple Intelligence puede acceder a la información de su pantalla antes de responder. También puede acceder a mensajes de texto, recordatorios y otros datos en las aplicaciones de Apple en segundo plano. Con Gemini, debes tocar manualmente “Agregar esta pantalla” cada vez para permitir que la IA la lea.
- edición de fotos: Google usa Imagen 2 en lugar de Gemini para tareas relacionadas con imágenes, pero aún es sorprendentemente capaz: Magic Editor en Google Photos puede eliminar objetos, reemplazar el cielo y más. Samsung también utiliza el mismo modelo para su función Photo Edit. Apple Intelligence agrega una herramienta de limpieza de objetos de IA a la aplicación Fotos, pero no ofrece tantas opciones de edición de IA como Magic Editor.
- Generador de imágenes de IA: Image Playground de Apple es una nueva aplicación que crea imágenes y emoji generados por IA, ya sea en función de sus contactos o descripciones personalizadas. Estos se pueden colocar fácilmente en aplicaciones de chat. La serie Pixel 9 se envió con una nueva aplicación denominada Pixel Studio que logra lo mismo utilizando el modelo Imagen 3 AI de Google.
- Correo y productividad: Si bien puedes encontrar Gemini en muchas aplicaciones de Google hoy en día, desafortunadamente la mayoría de las funciones están bloqueadas detrás de Gemini Advanced. Ayúdame a escribir en Gmail y Google Docs, por ejemplo, no aparecerán sin la suscripción. La aplicación Mail de Apple, por otro lado, resume sus correos electrónicos utilizando un modelo en el dispositivo. Una función llamada Respuesta inteligente también generará una respuesta en su nombre después de hacer preguntas relevantes basadas en el correo electrónico entrante.
- herramientas de escritura: Apple lidera en esta área, ya que puede seleccionar cualquier fragmento de texto en el sistema operativo y realizar tareas de lenguaje de IA como revisión, resumen y paráfrasis. Galaxy AI ofrece herramientas similares a través de la integración Gemini Nano del teclado Samsung, pero no las encontrará en todos los teléfonos Android. De hecho, incluso falta en los dispositivos Pixel de Google y en Gboard.
- chat de voz: Si bien el Siri renovado puede responder a consultas únicas, no puede mantener una conversación larga. Aquí es donde brilla el chatbot de Google: Gemini Live ofrece conversaciones largas y con manos libres con respuestas casi instantáneas que se sienten como si estuvieras hablando con una persona real.
Vale la pena señalar que algunas de estas funciones, incluida la aplicación Image Playground y Siri de próxima generación, aún no están disponibles. Se espera que se implementen con la actualización de iOS 18.2 o en 2025. Mientras tanto, las funciones de inteligencia artificial de Google ya se han enviado.
Apple Intelligence y Gemini: dispositivos compatibles y disponibilidad
Robert Triggs / Autoridad de Android
Dado que muchas funciones de Apple Intelligence utilizan un modelo de lenguaje grande en el dispositivo, sabíamos que Apple solo lo llevaría a dispositivos relativamente modernos. Sin embargo, la compañía fue más lejos de lo que muchos esperaban y bloqueó todo el paquete para la serie iPhone 15 Pro o posterior. Así es: la serie normal de iPhone 15 (y los modelos anteriores) no serán compatibles con Apple Intelligence, ni siquiera las partes que dependen completamente de la nube. Afortunadamente, Apple ha mantenido la paridad a partir de la serie iPhone 16, que es compatible con Apple Intelligence en todos los ámbitos.
Sin embargo, muchas funciones de Apple Intelligence no llegarán hasta dentro de unos meses. Específicamente, es posible que la aplicación Image Playground, Image Wand, Genmoji, Siri renovado y la integración ChatGPT no lleguen hasta principios de 2025. Sin embargo, las herramientas de escritura para todo el sistema, la búsqueda de imágenes en lenguaje natural y las funciones de borrado de objetos en la aplicación Fotos ya están disponibles. en dispositivos compatibles con la actualización iOS 18.1. El único inconveniente es que tendrás que registrarte en una lista de espera y esperar una invitación para probar Apple Intelligence.
Mientras tanto, Google ha hecho un trabajo encomiable al llevar Gemini a tantos dispositivos Android como sea posible. El chatbot está disponible en todos los teléfonos inteligentes Android, por ejemplo, e incluso las funciones impulsadas por el modelo Gemini Nano en el dispositivo están disponibles en más dispositivos como el Pixel 8a.
Apple Intelligence no estará disponible para la gran mayoría de usuarios en el futuro previsible.
En el lado de la informática, Apple es más generoso ya que ofrece sus funciones de inteligencia artificial a todos los dispositivos macOS que se remontan al chip M1 de 2020. Mientras tanto, Google ofrece funciones Gemini limitadas en ChromeOS y solo puede usarlas en máquinas Chromebook Plus más nuevas. Dicho esto, se puede acceder al chatbot Gemini a través de un navegador web en cualquier computadora.
La disponibilidad es otro punto delicado para Apple Intelligence. Por ahora solo se lanzó en inglés de EE. UU. La compatibilidad con el inglés en Australia, Canadá, Nueva Zelanda, Sudáfrica y el Reino Unido también llegará en diciembre de 2024. Pero tendrás que esperar hasta 2025 para usar el conjunto de inteligencia artificial en chino, japonés, español y francés. Si bien estas restricciones pueden relajarse en algún momento, Gemini está muy por delante ya que admite todos los idiomas y regiones principales.
Apple Intelligence vs Google Gemini: Privacidad
Agregar IA a cualquier cosa es arriesgado: la tecnología es propensa a alucinar y generar información engañosa que podría arruinar la reputación de una marca. Pregúntale a Google; la compañía enfrentó una reacción violenta por su función AI Overviews en la búsqueda y desde entonces ha retrocedido. Otro riesgo es la privacidad de los datos: nadie quiere compartir datos confidenciales sólo para que se filtren o se utilicen para entrenar la futura IA.
Apple ha contrarrestado este problema utilizando un modelo lo suficientemente pequeño como para potenciar muchas funciones de IA completamente en el dispositivo. También emplea una estrategia llamada Private Cloud Compute, que funciona de la siguiente manera:
Cuando un usuario realiza una solicitud, Apple Intelligence analiza si se puede procesar en el dispositivo. Si necesita una mayor capacidad computacional, puede recurrir a Private Cloud Compute, que enviará solo los datos relevantes para la tarea que se procesarán en los servidores de silicio de Apple. Cuando las solicitudes se enrutan a Private Cloud Compute, los datos no se almacenan ni se hacen accesibles a Apple, y solo se utilizan para cumplir con las solicitudes del usuario.
Mientras tanto, Géminis también viene en múltiples variaciones. El modelo de idioma más pequeño, Gemini Nano, se ejecuta incluso en su dispositivo y es la opción más privada. Tenemos una lista de todas las funciones impulsadas por Gemini Nano en los dispositivos Pixel, y Galaxy AI también tiene un conjunto de funciones similar.
Sin embargo, para tareas más complejas, necesitará utilizar los modelos Gemini basados en la nube de Google. Y, como era de esperar, las políticas de privacidad del gigante de las búsquedas no son tan fáciles de usar: las interacciones de Gemini no sólo se almacenan en los servidores de Google, sino que también se utilizan para entrenar y mejorar futuros modelos de lenguaje. En otras palabras, es todo lo contrario de lo que ofrece Apple y es posible que desees evitar compartir información confidencial con el chatbot de Google. Puede optar por no participar en el entrenamiento del modelo de IA en Gemini, pero eso tiene el costo de perder el acceso al historial de chat y a las extensiones que permiten al chatbot acceder a datos de Gmail y otras aplicaciones de Google.
En general, ambas plataformas de IA intercambian golpes en términos de características, al menos en el papel. Sin embargo, la profunda integración a nivel del sistema operativo de Apple Intelligence lo hace mucho más útil en el día a día que Gemini. El único inconveniente es que necesitarás el último iPhone o el modelo Pro de última generación. Puede que Google y Samsung no ofrezcan la misma profundidad, pero han hecho un trabajo notable al llevar la IA a dispositivos más antiguos o menos costosos.
-
Recursos6 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Recursos6 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Noticias4 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo
-
Eventos6 meses ago
La nueva era de la inteligencia artificial por el Washington Post – Mayo 2024
-
Noticias4 meses ago
OpenAI llevará el razonamiento avanzado a la IA con Secret Project Strawberry
-
Startups5 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Estudiar IA5 meses ago
Curso de Inteligencia Artificial de UC Berkeley estratégico para negocios
-
Recursos5 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO