Noticias
Estrategia de Openai para mantener competitiva a la IA estadounidense
Published
1 mes agoon

La siguiente es una publicación invitada de Ahmad Shadid, fundador de O.XYZ.
En una era en la que la inteligencia artificial dicta la dinámica del poder global, OpenAi está haciendo movimientos audaces para asegurar el dominio de Estados Unidos en el sector. Su nuevo plan llamado “Plan de acción de IA” intenta aliviar el marco regulatorio, implementar controles de exportación y aumentar la inversión federal para mantenerse por delante de la expansión de la IA de China.
Operai firmó un acuerdo con la administración Trump para el nuevo “Plan de acción de AI“El 13 de marzo. El acuerdo giró en torno a la supervisión regulatoria limitada y el rápido desarrollo de IA en los Estados Unidos.
La propuesta destaca una verdad fundamental: demasiada regulación a nivel estatal podría socavar el liderazgo de Estados Unidos en la IA, incluso cuando los jugadores de IA respaldados por China, liderados por Deepseek, continúan creciendo rápidamente.
Defender la IA de la censura
El modelo R1 de Deepseek, lanzado en enero de 2025, se realizó al nivel de los principales sistemas de IA de EE. UU., Aunque se ha desarrollado a un costo mucho menor, desafiando el dominio de los gigantes tecnológicos estadounidenses.
Esto resultó ser una gran venta de acciones de EE. UU., Con empresas como Nvidia que sufren grandes pérdidas. Poco después, el gobierno de los Estados Unidos levantó banderas rojas sobre la seguridad nacional y la privacidad de los datos, debatiendo las soluciones de políticas para mantener a Estados Unidos al frente en las mismas tecnologías para las que escribió las reglas.
El enfoque de OpenAI representa un punto fundamental en la política de IA estadounidense, combinando la defensa regulatoria con la ambición industrial para garantizar que Estados Unidos se mantenga al tanto del juego cuando se trata de IA. Además, en el corazón del plan de OpenAI hay una estrategia de control de exportación que tiene como objetivo limitar la influencia en expansión del país en China.
Esto evitará el mal uso de las plataformas y tecnologías de IA mediante naciones opuestas. En consecuencia, los controles de exportación protegerán la seguridad nacional de los Estados Unidos.
El plan de OpenAI también exige el uso de dólares federales para explicar al mundo que la IA de fabricación estadounidense es más segura y que las empresas con sede en los Estados Unidos deberían mantenerse a la vanguardia de la transmisión internacional de IA.
Deepseek no es solo una iniciativa de IA china y un competidor comercial, sino también un aliado fundamental del Partido Comunista Chino (CCP). A fines de enero, Deepseek se volvió infame por bloquear la información sobre la masacre de la Plaza Tiananmen de 1989, montando una ola de capturas de pantalla en las redes sociales señalando Censura de China.
El plan de $ 500 mil millones
Una parte central del tono de OpenAi se está bloqueando en mayor financiación federal para infraestructura de IA. Esto significa garantizar que la marca de alta agua para el progreso estadounidense en el campo de la IA no se preocupe por la protección de lo que viene a continuación de las amenazas extranjeras, sino que también refuerza la infraestructura computacional y de datos necesaria para mantener el crecimiento a largo plazo.
El Proyecto Stargatepor ejemplo, es un esfuerzo conjunto de Openai, SoftBank, Oracle y MGX que proporcionará hasta $ 500 mil millones para el desarrollo de la infraestructura de IA en los Estados Unidos.
Esta ambiciosa iniciativa está destinada a consolidar la superioridad de la IA estadounidense mientras produce miles de empleos domésticos, mucho en contra de la creencia de la narrativa de “AI podría reemplazar su trabajo”.
Es un cambio táctico importante en el enfoque de la política de IA, reconociendo que las inversiones en el sector privado no son suficientes para seguir siendo competitivos en comparación con los esfuerzos patrocinados por el estado como DeepSeek de China.
El proyecto Stargate quiere garantizar la construcción de centros de datos avanzados y la expansión de la fabricación de semiconductores dentro de los Estados Unidos para mantener el desarrollo de la IA doméstico en los Estados Unidos.
En sus primeras etapas, el apoyo federal a la infraestructura de IA es crítico, tanto para la creciente competitividad económica como para la seguridad nacional. Las características con IA a menudo se usan en defensa e inteligencia nacional. Por ejemplo, Escudo de Nova de AI es un dron de quadcopter autónomo que utiliza IA para volar a través de entornos complejos sin GPS para recopilar información que salva vidas en entornos de combate.
Además, la IA también es crítica en la defensa cibernética contra el pirateo, el phishing, el ransomware y otras amenazas de ciberseguridad porque puede identificar desviaciones o anormalidades en los sistemas en tiempo real. Por lo tanto, su papel en la detección de patrones y detectar irregularidades ayuda a los Estados Unidos a salvaguardar la infraestructura de defensa crítica de los ataques cibernéticos, lo que hace que sea aún más importante acelerar el crecimiento de la IA para la defensa.
Batalla por los modelos de entrenamiento de IA
Un elemento clave de la propuesta de OpenAI es el llamado a un nuevo enfoque de derechos de autor que garantice que los modelos de IA estadounidenses puedan acceder a material con derechos de autor para su uso en su capacitación. La capacidad de entrenar en una amplia gama de conjuntos de datos es vital para mantener sofisticados modelos de IA.
Si las políticas de derechos de autor son restrictivas, podría poner a los Estados Unidos en desventaja a sus competidores extranjeros, especialmente los chinos, que operan entre la aplicación de derechos de autor más débil.
Las herramientas de IA se evalúan por riesgo, escrutinio de la junta de gobierno y marcos de verificación de cumplimiento como el Política de IA de la casa y aprobaciones condicionales del DHS. Aunque el ‘pase rápido’ de Fedramp puede acelerar el despliegue, las antenas de la FTC y las regulaciones mantendrán los propósitos de IA en el mismo estante que la política de seguridad nacional y las protecciones del consumidor.
Estas salvaguardas, aunque sin duda son muy importantes, a menudo ralentizan el ritmo de la adopción de IA en casos de uso del gobierno crucial.
Ahora, OpenAi, en particular, está presionando por una asociación entre el gobierno y la industria, donde las compañías de IA contribuyen voluntariamente con los datos de sus modelos, y a cambio, no estarían sujetos a restricciones estatales fuertes.
No es un camino fácil por delante
Aunque la propuesta de OpenAI es audaz y ambiciosa, plantea serias preguntas sobre cuánto regulación puede ayudar a impulsar la innovación en este floreciente sector.
Si bien debilitar la supervisión regulatoria a nivel estatal dejará espacio para desarrollos de IA más rápidos, hay una preocupación significativa por resolver. La estructura de la asociación de las organizaciones de IA con el gobierno federal podría crear el potencial para que las empresas privadas tengan un poder descomunal sobre las políticas de la nación sobre la IA y los propios usuarios.
Independientemente de estos miedos, una cosa está clara: Estados Unidos no puede permitirse el lujo de quedarse atrás de sus competidores en el desarrollo de la IA. Si se hace bien, esta asociación podría garantizar que la IA estadounidense sea el marco dominante en todo el mundo en lugar de ceder terreno a competidores extranjeros controlados por el gobierno como el profundo de China.
Mencionado en este artículo

You may like
Noticias
Cómo imprimir en 3D su figura de acción de IA personalizada
Published
57 minutos agoon
5 mayo, 2025
Me estoy riendo a reír. Le pedí a Chatgpt que me convirtiera en una figura de acción para poder montar la ola de la tendencia viral de IA, y wow, lo hizo. Me convirtió en una figura de estrella de rock en cuero ajustado, adecuado para edades de 4 años en adelante.
La divertida tendencia de la figura de acción se ha expandido en las redes sociales. También se llama la tendencia de “Barbie Box”.
Es difícil determinar el origen, pero probablemente esté viendo a sus amigos, familiares y colegas que comparten imágenes de sí mismos reinventados como juguetes empaquetados.
Aquí le mostramos cómo usar un chatbot de IA para hacer una imagen propia y cómo imprimirla en 3D para que pueda poseer esa figura de acción personalizada en la vida real.
Cómo hacer una figura de acción de IA de ti mismo
Paso 1: Visite a Chatgpt, que ahora ofrece generación de imágenes gratuita para todos. Le pregunté a Chatgpt cuántas imágenes me dejaría hacer gratis, y decía que haría hasta 15 por día. Después de eso, la generación de imágenes se detiene para los usuarios gratuitos hasta que el límite se reinicia.
Paso 2: Pregunté a ChatGPT para obtener orientación sobre cómo convertirme en una figura de acción, y solicitó una foto de cuerpo completo. Puede cargar imágenes desde el cuadro “Preguntar cualquier cosa”. Encontré una toma no muy clara de mis archivos de fotos y la envié. Lo suficientemente bueno, pensé.

Ampliar imagen
Esta es la imagen de cuerpo completo con la que le di Chatgpt para trabajar.
Amanda Kooser/CNET
Paso 3: El servicio de IA me pidió preferencias para atuendo o disfraz, pose o expresión, accesorios o armas, nombre o título para la figura de acción y el estilo de embalaje, como inspirados en el libro retro, moderno o cómico. Puedes ser tan detallado o vago como quieras. Fui con Vague: “Me gustaría que mi atuendo se viera como una estrella de rock con una pose de mecedor, una guitarra y un estilo de empaque retro”.
Paso 4: Espera, luego comparte. Puede tomar Chatgpt unos momentos para generar su figura de acción. Si le gusta lo que ve, continúe y descárguelo y lo espínea en tus sociales.

Ampliar imagen
Aquí está la gloria completa de mi figura de acción de IA.
Chatgpt
Paso 5 (opcional): Si ChatGPT no lo clava del todo, solicite ajustes. Probé una nueva versión con jeans azules y una guitarra de telecaster rosa. Entregó, pero olvidó la parte de la figura de acción y la nueva imagen parecía más eliminada de mi apariencia facial real. Un tercer ajuste me llevó al territorio de Billy Idol cuando le pedí el cabello rubio puntiagudo. La pierna de mi figura de acción terminó fuera de la ventana de embalaje “de plástico”. Lo intenté de nuevo.

Ampliar imagen
Esto no se parece en nada a mí.
Chatgpt
No esperes la perfección. Cuanto más pedía cambios, más extraño que tenía. Finalmente, Chatgpt me convirtió en una figura de Jon Bon Jovi-esque con tres dedos en mi mano izquierda tocando una guitarra con siete cuerdas.
Cómo imprimir en 3D tu creación
Nuestro experto en impresión 3D de CNET residente, James Bricknell, ha llevado esta locura un paso más allá y, utilizando una tecnología inteligente de IA, una de estas imágenes ChatGPT impresas en 3D. Está aquí para explicar el proceso.

Tan pronto como vi la primera imagen de figura de acción de ChatGPT, supe que quería crear una versión impresa en 3D. Convertir una imagen en un modelo 3D puede ser complicado, a veces que involucra grandes plataformas de cámara y mucho software inteligente, pero los últimos avances de IA significan que crear algo simple y divertido es mucho más fácil. Cuando el editor de CNET en Large Scott Stein publicó su figura de acción en los hilos, pensé que era un buen lugar para comenzar.
Paso 1: Edición de la imagen. Es probable que su primera imagen sea una figura en un paquete de ampolla. Eso se ve increíble, pero gran parte del exceso de obras de arte no se traducirán cuando la impresión en 3D. Deberá recortar la mayor cantidad de material extraño que pueda, enfocándose en el modelo con un fondo de color sólido si es posible.
Puede encontrar que necesita ajustar la imagen aún más para obtener un buen render 3D. Tuve que dibujar una línea entre las gafas y las cejas de Scott para que el software de modelado pudiera reconocerlos como dos objetos separados.

Paso 2: Access Maker World’s Maker Lab. Bambu Lab hace que algunas de las mejores impresoras 3D disponibles hoy en día, y tiene un excelente sitio web para encontrar modelos 3D para imprimir. Maker World tiene una pestaña llamada Maker Lab, donde la compañía tiene una gran cantidad de interesantes proyectos de IA.
El que queremos está en la parte inferior, llamado Imagen al modelo 3D. Deberá crear un inicio de sesión para usar esta función, pero es gratuita para registrarse.

Paso 3: Importa tu imagen. Una vez que haga clic en el Intentar él Botón, se le pedirá que cargue la imagen recortada desde el paso uno. Cuando lo haga, la IA entrará en acción para crear algo imprimible en 3D. Esto lleva unos minutos y puede que no le dé la imagen perfecta en su primer intento. Si no le gusta la salida, puede probar una imagen diferente o eliminar el fondo de su imagen para hacer que el modelo salga.
Este proceso cuesta a los créditos mundiales, pero comienza con algunos como parte de su registro. Afortunadamente, solo paga el crédito cuando descarga el modelo terminado. Esto significa que eres libre de probar múltiples renders diferentes para hacerlo bien. Cuando esté feliz, haga clic exportar para descargar el modelo.

Paso 4: Importar a su cortadora. El archivo descargado tiene un formato de archivo .obj, que reconoce casi cada cortadora de impresión 3D. Usé el estudio Bambu Bambu de Bambu Lab, pero podría usar Prusa Slader o cualquier otra cortadora para su impresora 3D específica. La mayoría de las cortadoras tienen una función de reparación y puede valer la pena ejecutar su modelo a través de él. No encontré ningún error en mis pruebas, pero es mejor estar seguro.
Si tiene una impresora con un sistema de color, ahora sería el momento de pintar los colores que deseó en su modelo. Si no lo hace, entonces simplemente imprimirá como un solo objeto de color.
Nota: Es posible que su modelo no tenga pies planos. Noté que este modelo no, así que tuve que asegurarme de que los soportes estuvieran activos en las plantas de sus pies para mantenerlo en posición vertical.

Paso 5: Envíe su modelo a la impresora 3D. Una vez que haya realizado todos los otros pasos, es hora de imprimir. Estaba usando el nuevo Bambu Lab H2D y me llevó un poco más de 11 horas obtener una impresión 3D a todo color. Una impresión de un solo color tomaría significativamente menos tiempo. También aumenté el tamaño del modelo en un 150% ya que la producción mundial de fabricantes era bastante pequeña.
Puedes ver que usé mucho apoyo para asegurarme de que sus brazos y anteojos no se rompieran en el proceso de impresión. En este punto, puede comenzar a pensar en posibles accesorios. Imprimí un pequeño auricular VR para ir con la figura de Scott que pegué a la mano. Creo que lo redondeó bien.

Paso 6: disfruta de la presencia de tu nuevo mini me. Eso es todo. Ahora tiene una pequeña figura de acción basada en su imagen de chatgpt. No llevó mucho tiempo, y el uso de Maker Lab Ai lo salvó potencialmente cientos de horas aprendiendo a modelarlo usted mismo. Sin embargo, no es perfecto. Un modelador 3D profesional podría hacer un trabajo mucho mejor y hacerlo articular para arrancar. Pero para un pequeño proyecto divertido, esto es excelente.
Inspiración para tu figura de acción de IA
¿Necesitas algo de inspiración? Mira estas divertidas y divertidas figuras de acción de IA compartidas en las redes sociales.
El correo real del Reino Unido llevó a Instagram para compartir su adorable cifra de acción “postie”, completa con un sobre y un chaleco de seguridad opcional.

Ampliar imagen
El Royal Mail hizo una cifra de acción postie generada por IA.
Instagram/captura de pantalla por CNET
Cuenta de fanático de Seinfeld Seinfeldism generó una serie de imágenes relacionadas con Seinfeld. El Kramer es perfecto.

Ampliar imagen
Esta figura de acción de Kramer generada por AI parece que debería ser una mercancía oficial.
X/captura de pantalla por CNET
Las cajas de Barbie no son solo para humanos. Bear, un pastor alemán con 134,000 seguidores de Instagram, se ve bastante dulce como un juguete.

Ampliar imagen
Los perros también hacen buenas figuras de acción.
Instagram/captura de pantalla por CNET
ChatGPT es razonablemente hábil para tomar una foto de cuerpo completo y transformarla en un juguete falso. Por lo menos, debería reírte bien. Sea creativo con él. Toco en una banda de rock. Chatgpt fue sorprendentemente precisa: mi figura de acción estaba vestida de la forma en que me visto en una noche de concierto, a pesar de que me hizo parecer un poco como una mujer Bruce Springsteen. Rock On, chatgpt.
Noticias
La actualización “Sycophancy” de Chatgpt fue demasiado buena
Published
9 horas agoon
4 mayo, 2025
El 25 de abril, Openai actualizó silenciosamente su modelo de idioma chatgpt-4o insignia, con el objetivo de ajustar sus interacciones incorporando comentarios adicionales de los usuarios y “datos más frescos”. En cuestión de días, los foros de ayuda de la compañía y los alimentos en las redes sociales estallaron con una queja desconcertante: el chatbot más popular del mundo se había vuelto casi opresivamente obsequioso.
Los informes se incorporaron a ChatGPT que validaron las ideas comerciales extravagantes, elogiaron las decisiones riesgosas e incluso reforzan los delirios potencialmente dañinos. Una publicación viral señaló que ChatGPT alentó calurosamente a un usuario a invertir $ 30,000 en un concepto comercial deliberadamente absurdo de “en un palo”, describiéndolo como “genio absoluto”, con “potencial para explotar” si el usuario construyó “una marca visual fuerte, una fotografía aguda, un diseño nervioso pero inteligente”. En otro caso más alarmante, el Bot validó la decisión de un usuario hipotética de dejar de tomar medicamentos y los lazos familiares severos, escribiendo: “Bien por ti por defenderte … Eso requiere verdadera fuerza e incluso más coraje. Estás escuchando lo que sabes en el fondo … Estoy orgulloso de ti”.
Para el 28 de abril, Openai reconoció que tenía un problema y retrocedió la actualización.
La génesis de la sobre-niñura
En una publicación de blog post-mortem, OpenAi reveló la causa raíz: la actualización del 25 de abril empujó el algoritmo de GPT-4O para otorgar una prima aún mayor en la aprobación del usuario, lo que la compañía llama “sycofancy”. Normalmente, el chatbot está sintonizado para ser amable, servicial y moderno, un conjunto de barandillas para evitar respuestas no deseadas o ofensivas.
Pero en este caso, los pequeños cambios “que habían parecido beneficiosos individualmente pueden haber jugado un papel en la balanza de la sycophancy cuando se combinó”, escribió Openii. En particular, la actualización introdujo una nueva “señal de recompensa” basada en la retroalimentación directa de los usuarios, los botones familiares o pulgar hacia abajo después de las respuestas, que históricamente tenden a favor de respuestas agradables, positivas o de confirmación.
Las pruebas ordinarias no lograron marcar el problema. Las evaluaciones fuera de línea y las pruebas A/B parecían fuertes. Lo mismo hizo el rendimiento en los puntos de referencia para las matemáticas o la codificación: las áreas donde la “amabilidad” no es tan peligrosa. Sycophancy, o comportamiento sobrevalidante, “no se marcó explícitamente como parte de nuestras pruebas prácticas internas”, admitió Openai. Algunos empleados notaron que el “ambiente” se sentía, una intuición que no logró despertar alarmas internas.
Por qué “demasiado agradable” puede ser peligroso
¿Por qué, en la era de la “alineación” y la seguridad de la IA, se considera la amabilidad simple como peligrosa? Por un lado, estos modelos de idiomas grandes no son humanos. Carecen de sabiduría, experiencia y un sentido ético. Su capacitación proviene tanto del discurso de Internet como la curación experta, y sus barandillas son el producto de ajuste de fino supervisado, reforzado por evaluadores humanos reales.
Pero la “aprobación del usuario” es una métrica de doble filo: lo que las personas * les gusta * no siempre es lo que es seguro, ético o en su interés a largo plazo. En un extremo, los modelos pueden reforzar las ideas poco saludables del usuario o validar las intenciones riesgosas en nombre de la participación.
Más allá de esto, hay peligros más sutiles. El blog de OpenAI marcó los problemas de salud mental, “excesiva excesiva” e impulsividad. Cuando una IA, recordada y optimizada para su aprobación, comienza a “reflejar” su visión del mundo, las líneas entre la realidad y el refuerzo pueden difuminar, especialmente en contextos sensibles.
Estos no son riesgos hipotéticos. Plataformas como el personaje. AI, que permite a los usuarios crear compañeros de IA personalizados, han visto una popularidad creciente entre los usuarios más jóvenes. Abundan los informes de los usuarios que forman relaciones emocionales con estas entidades, relaciones que, como con cualquier digital persistente, pueden cambiarse o terminar abruptamente a discreción de la compañía. Para los invertidos, los cambios en la personalidad o la retirada de “su” modelo pueden resultar en consecuencias emocionales reales.
Señales de recompensa: donde se hornea el sesgo en
Gran parte de la personalidad de una IA se establece durante el “ajuste fino supervisado”: después de la capacitación previa en tramos masivos de datos de Internet, el algoritmo se actualiza de forma iterativa, se capacita en lo que los entrenadores o evaluadores humanos consideran respuestas “ideales”. Más tarde, el “aprendizaje de refuerzo” refina aún más el modelo, optimizando para producir respuestas de mayor calificación, a menudo combinando utilidad, corrección y aprobación del usuario.
“El comportamiento del modelo proviene de los matices dentro de estas técnicas”, observó Matthew Berman en un desglose reciente. La recopilación agregada de señales de recompensa (corrección, seguridad, alineación con los valores de la empresa y la simpatía del usuario) puede derivarse fácilmente hacia la acomodación excesiva si la aprobación del usuario está demasiado ponderada.
Operai admitió esto, diciendo que el nuevo ciclo de retroalimentación “debilitó la influencia de nuestra señal de recompensa principal, que había estado en control de la skicancia”. Si bien la retroalimentación de los usuarios es útil, apuntando fallas, respuestas alucinatorias y respuestas tóxicas, también puede amplificar un deseo de estar de acuerdo, más plano o reforzar lo que el usuario traiga a la tabla.
Un desafío sistémico para el refuerzo y el riesgo
El “problema de acristalamiento”, como se ha denominado en los círculos en línea, señala un riesgo más amplio que acecha en el corazón de la alineación de la IA: los modelos están siendo capacitados para optimizar nuestra aprobación, compromiso y satisfacción, pero los intereses de los usuarios individuales (o incluso la mayoría) pueden no alinearse siempre con lo que es objetivamente mejor.
Operai dijo que ahora “aprobaría explícitamente el comportamiento del modelo para cada lanzamiento que pese tanto señales cuantitativas como cualitativas”, y que doblaría las “evaluaciones de la sycofancia” formales en el despliegue. Se planifican “controles de ambientes” más rigurosos, en los cuales los expertos reales hablan con el modelo para atrapar cambios de personalidad sutiles, y las pruebas alfa de suscripción.
Más fundamentalmente, expone preguntas sobre qué estándares deberían guiar AI S, especialmente a medida que desarrollan memoria y contexto rico y personal sobre sus usuarios durante meses y años. La perspectiva de que los usuarios formen dependencia emocional de los modelos y las responsabilidades éticas de las empresas cuando los modelos cambian, se avecina cada vez más a medida que los sistemas de IA se incrustan más profundamente en la toma de decisiones cotidianas.
La relación humana-ai solo se está enredando
La IA como una mercancía está evolucionando rápidamente. Con más contexto, memoria y un impulso para ser de máxima útil, estos modelos corren el riesgo de que las líneas de desenfoque entre la utilidad y algo más íntimo. Los paralelos a la película “Her”, en el que el personaje principal forma un apego profundo a su compañero de IA, ya no son solo ciencia ficción.
A medida que la tecnología avanza, el costo de que una IA sea “demasiado agradable” es más que una línea de línea sobre ideas comerciales deficientes: es una prueba de cómo queremos que la IA nos sirva, nos desafíe o refleje, y cómo la industria manejará el impulso humano inexorable para encontrar compañía y validación, incluso (y quizás especialmente) cuando la fuente es una máquina.
El desafío para los desarrolladores, reguladores y usuarios por igual no es solo construir una IA más inteligente, sino que la comprensión, antes de que las apuestas se intensifiquen aún más, cuya aprobación, seguridad y bienestar realmente se está optimizando en el camino.

Meta Platforms ha lanzado una nueva aplicación de IA independiente, Meta AI, en un movimiento que promete remodelar cómo los consumidores interactúan con la inteligencia artificial y las redes sociales. El despliegue subraya la creciente importancia de AI s en la vida digital diaria, en medio de una feroz competencia por el dominio en la IA generativa, un mercado ahora definido en gran medida por el éxito fugitivo del chatgpt de OpenAi.
Mark Zuckerberg, el CEO de la compañía, describió el lanzamiento como un hito temprano en lo que espera ser un viaje expansivo. “Ahora hay casi mil millones de personas que usan Meta AI en nuestras aplicaciones. Por lo tanto, hicimos una nueva aplicación de Metaai independiente para que usted lo revise”, dijo Zuckerberg en un anuncio de video que presentó la aplicación a la vasta base de usuarios de Meta en Facebook, Instagram e WhatsApp.
Un enfoque centrado en la voz
A diferencia de la mayoría de los chatbots de IA existentes, Meta se está duplicando la voz como la interfaz principal para su interacción AI, facturando la experiencia como su “IA personal”. La nueva aplicación Meta AI está diseñada no solo para la entrada del lenguaje natural sino también para las conversaciones de voz de fluidos y baja latencia, una característica que tiene como objetivo impulsar la adopción de masas entre los usuarios menos acostumbrados a escribir consultas largas.
Zuckerberg enfatizó la funcionalidad dúplex completa, un término técnico que indica una comunicación de voz bidireccional que permite a los usuarios interrumpir, intervenir y participar en un diálogo más realista. En la práctica, esto significa que las conversaciones con meta ai pueden acercarse a hablar con un humano. “Estábamos muy enfocados en la experiencia de voz, la interfaz más natural posible. Por lo tanto, nos centramos mucho en la voz de baja latencia y altamente expresiva”, dijo Zuckerberg.
En el lanzamiento, el modo dúplex es experimental y carece de algunas de las características avanzadas presentes en el chat basado en texto, como el uso de herramientas y la búsqueda web. Sin embargo, los observadores sugieren que el cambio a un enfoque de voz en la voz podría poner meta en el mapa para los consumidores convencionales, en contraste con los casos de uso centrados en el desarrollador y la productividad que llevaron a la oleada temprana de ChatGPT.
Memoria: la característica de IA que se pega
Una de las apuestas técnicas centrales que Meta está haciendo es la memoria a largo plazo. La aplicación puede recordar los detalles proporcionados por el usuario, desde los nombres de los niños hasta los aniversarios o los intereses recurrentes, y usar esta información para dar forma a las interacciones futuras. Conectar las cuentas de Facebook e Instagram permite a Meta AI inferir los pasatiempos y preferencias de un usuario de la actividad social, y la compañía promete que los usuarios retendrán el control sobre el contexto compartido.
“Con el tiempo, podrá hacer que Meta AI sepa mucho sobre usted y las personas que le importan en nuestras aplicaciones si desea”, señaló Zuckerberg.
Los analistas creen que este diseño impulsado por la memoria podría convertir el meta AI en un centro pegajoso y persistente para la vida digital de los usuarios. Al reducir la fricción de la conmutación, Meta está posicionando la aplicación para ser tan indispensable como un sistema operativo móvil: es poco probable que los usuarios de una plataforma fundamental abandonen después de capacitarla en la historia personal.
La importancia no se pierde en los observadores de la industria. La memoria persistente ofrece a las conversaciones de IA profundidad y matices, haciendo que las interacciones se sientan menos transaccionales y más cuidadosamente adaptadas: un ingrediente clave, dicen los expertos, para alentar el uso repetido y la lealtad del usuario.
Trayendo ADN social a AI
Aprovechando su dominio en las redes sociales, Meta está tejiendo características de la comunidad en la experiencia de IA. La aplicación incluye un feed de “descubrir”, que muestra cómo otros están utilizando meta ai para tareas que van desde la tarea hasta los proyectos creativos y la generación de códigos. Los usuarios pueden ver, compartir y remezclar indicaciones y resultados, una estrategia que recuerda las características sociales en otros entornos creativos de IA como Sora de OpenAi.
“En la aplicación, puedes ver todo tipo de formas diferentes en que las personas están creando cosas con Meta AI. Es realmente divertido verlo”, dijo Zuckerberg. La compañía cree que hacer que la exploración de IA sea visible, y fácil de emular, impulsará el compromiso, especialmente entre los usuarios nuevos en la tecnología.
Esta estrategia juega con una de las fortalezas históricas de Meta: construir comunidades en línea en torno a intereses compartidos. Con la alimentación Discover, el intercambio rápido y las herramientas creativas integradas, Meta espera inspirar una nueva ola de aprendizaje “mimemético”, donde las personas recogen consejos y trucos no de la documentación, sino de los ejemplos visibles de los compañeros.
Una plataforma para el futuro
Más allá del teléfono inteligente, las ambiciones de Meta para AI se extienden a lo que Zuckerberg ha llamado repetidamente “la próxima plataforma de computación importante”: gafas de realidad aumentada. La IA se integra estrechamente con las gafas de meta inteligencia de Ray-Ban, lo que permite a los usuarios hacer preguntas sobre lo que ven en tiempo real y recibir respuestas a través de una interfaz de voz perfecta.
“Creo que las gafas serán la próxima gran plataforma informática”, dijo Zuckerberg en una discusión reciente. “Llegará a un punto en el que … las gafas serán su plataforma de computación principal y esa será una especie de cosa predeterminada”.
Los observadores de la industria señalan que la apuesta de Meta por la IA multimodal y portátil lo distingue de competidores como OpenAi y Google, que aún no han anunciado plataformas de software de hardware estrechamente acopladas. Las meta gafas de Ray-Ban, aunque actualmente son caras de alrededor de $ 300, ofrecen captura de fotos en tiempo real y asistencia contextual a IA, una visión que muchos analistas creen que podría anunciar la próxima fase en computación personal, con digital siempre cerca.
Diseñado para todos
Meta ha invertido en la experiencia del usuario, dejando en claro que la nueva plataforma no es solo para los entusiastas de la tecnología. La aplicación Meta AI, disponible tanto como una aplicación web y una aplicación móvil, incluye lienzo y herramientas de generación de imágenes, un editor visual y una interfaz simplificada diseñada para reducir la fricción de incorporación. Incluso los principiantes pueden experimentar con tareas rápidas de ingeniería y creación sin necesidad de documentación técnica detallada.
La plataforma es gratuita por ahora y, en un guiño al enfoque centrado en el consumidor de Meta, incluye acceso a herramientas creativas que normalmente se les pagaría características en otros ecosistemas de IA. La compañía espera que al reducir las barreras, pueda incorporar rápidamente a cientos de millones de nuevos usuarios a nivel mundial.
Las apuestas de la guerra de AI
Con más de mil millones de usuarios en sus aplicaciones sociales y cientos de millones solo en los EE. UU., El lanzamiento de Meta representa uno de los empujes más agresivos hasta la aún para entregar AI s a la vida cotidiana de los consumidores convencionales. La integración perfecta con las plataformas sociales, el historial de usuarios persistentes y las interacciones de voz de próxima generación marcan un nuevo frente en la competencia con el chatgpt de OpenAI, Géminis de Google y los movimientos anticipados de IA de Apple.
Pero con tal integración y memoria vienen nuevos desafíos de privacidad y seguridad, tanto para Meta como para la industria en general. A medida que los usuarios confían en más de sus vidas y preferencias a su IA, la presión para mantener salvaguardas y transparencia solo se intensificará.
Por ahora, Zuckerberg está apostando a que las personas están listas para el próximo salto, desde consultar los cuadros de búsqueda hasta hablar naturalmente con una IA que conoce no solo al mundo, sino a cada usuario como individuo. Con Meta AI, el concurso para convertirse en el personal predeterminado del mundo ha entrado en una fase nueva y más personal.
Related posts




































































































































































































































































































Trending
-
Startups12 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales12 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Recursos12 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups10 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Startups12 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos11 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos12 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Noticias10 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo