Connect with us

Noticias

Apple Intelligence, ChatGPT y el coste climático de la IA

Published

on

Apple acaba de poner la IA en los bolsillos de millones de personas. La compañía está lanzando lo que llama Apple Intelligence esta semana, brindando algunas funciones básicas de generación de texto y edición de imágenes a los usuarios de iPhone, iPad y Mac que opten por participar. He estado probando estas herramientas a través de la versión beta para desarrolladores del software durante Hace un par de meses y son bastante mediocres. Pero esto es sólo el comienzo.

La IA generativa, que alguna vez fue un truco de salón para los obsesionados con la tecnología, se está convirtiendo rápidamente en el evento principal de los principales lanzamientos de software. Mientras Apple impulsa su versión de la tecnología, Google está incorporando IA en su sistema operativo Android y obligando a todos a mirar las descripciones generales de IA en la parte superior de prácticamente todas las búsquedas de Google. OpenAI y Meta están construyendo sus propios motores de búsqueda basados ​​en IA, mientras que la startup Perplexity ya tiene uno. Microsoft y Anthropic anunciaron recientemente nuevos agentes de inteligencia artificial superpoderosos que pueden completar tareas complejas como lo harían los humanos. (Divulgación: Vox Media es uno de varios editores que han firmado acuerdos de asociación con OpenAI. Nuestros informes siguen siendo editorialmente independientes).

Si bien algunas empresas han tenido productos de IA generativa disponibles durante más de un año, la llegada de Apple Intelligence marca un punto de inflexión para la integración de la tecnología. Apple Intelligence sólo está disponible en los últimos dispositivos Apple, pero más de la mitad de los teléfonos en Estados Unidos son iPhone. A medida que las personas se actualizan, millones más pueden aprovechar la nueva tecnología.

Si aún no estás usando IA, probablemente lo harás pronto, te guste o no.

“Nos están metiendo la IA, especialmente la IA generativa, con poca o ninguna transparencia y, sinceramente, los mecanismos de exclusión son inexistentes o complicados”, dijo Sasha Luccioni, investigadora de IA y líder climática de Hugging Face, una plataforma para compartir herramientas de inteligencia artificial y aprendizaje automático

Si eso te llena de pavor, es comprensible. Tal vez te sientas mal participando en la carrera para construir una IA superinteligente que nadie pidió. Es posible que se sienta cómplice por utilizar modelos de inteligencia artificial entrenados con material protegido por derechos de autor sin pagar a los creadores. Probablemente te sientas simplemente mal por la avalancha de basura de IA que está arruinando Internet, incluso si no creaste personalmente la basura.

Luego están las consecuencias climáticas de todo esto. La IA, en sus múltiples formas y formas, requiere mucha energía y agua para funcionar. A lote. Eso podría hacerte sentir francamente culpable por usar IA.

El gran apetito energético de la IA

Existe la posibilidad de que Apple Intelligence esté más libre de culpa que las otras grandes opciones de IA en lo que respecta a la energía. Apple dice que mantiene el procesamiento de ciertas funciones de IA, como GenMoji e Image Playground, completamente en su dispositivo. Eso significa menos dependencia de los centros de datos que consumen mucha energía.

No sabemos exactamente cuánta energía utiliza la IA en estos centros de datos. Utilizando datos de un estudio reciente de Microsoft Research, Shaolei Ren, profesor de ingeniería de la Universidad de California Riverside, llegó a esta conclusión: pedirle a ChatGPT que escriba dos correos electrónicos de 200 palabras utiliza aproximadamente la misma cantidad de energía que necesitaría un Tesla Model 3. conducir una milla. Debido a que generan tanto calor, los procesadores que generaron esos correos electrónicos también necesitarían alrededor de cuatro botellas de agua de medio litro para enfriarse.

Las consecuencias de tal despilfarro energético se vuelven más claras si se amplía la escala. Se prevé que la cantidad de electricidad utilizada por los centros de datos, donde se realiza en gran medida el procesamiento de IA, crecerá un 160 por ciento para finales de la década y, como resultado, las emisiones de dióxido de carbono podrían más que duplicarse, según Goldman Sachs. Mientras tanto, la cantidad de agua necesaria también aumentará, hasta el punto de que, en 2027, la sed de la IA podría equivaler a la mitad de la extracción anual de agua del Reino Unido.

Todas estas son estimaciones basadas en datos limitados porque las empresas de tecnología que construyen sistemas de inteligencia artificial, incluidas Apple, Google, Microsoft y OpenAI, no comparten exactamente cuánta energía o agua utilizan sus modelos.

“Solo estamos mirando la caja negra porque no tenemos la menor idea del consumo de energía para interactuar con los grandes modelos de lenguaje”, explicó Ren. Comparó la situación con buscar vuelos en Google y poder ver las emisiones de carbono de cada tramo. “Pero cuando se trata de estos grandes modelos de lenguaje, no hay absolutamente ninguna, cero o ninguna información”.

La falta de transparencia sobre las demandas energéticas de la IA también va en contra de las promesas de sostenibilidad de estas empresas tecnológicas. Hay buenas razones para creer que la IA está llevando directamente al incumplimiento de esas promesas.

Debido al aumento en el uso de energía del centro de datos, Google vio aumentar sus emisiones de gases de efecto invernadero en un 48 por ciento de 2019 a 2023, a pesar de la promesa de reducir las emisiones en un 50 por ciento con respecto a sus niveles de 2019 para 2030. La compañía ya no afirma ser neutra en carbono. De manera similar, Microsoft experimentó un aumento del 29 por ciento en las emisiones de 2020 a 2023. Si bien Microsoft ha prometido ser carbono negativo para 2030, ahora está luchando abiertamente para encontrar formas de lograrlo mientras mantiene el ritmo de la innovación en inteligencia artificial.

Lo que los distribuidores de IA no nos dicen

Así es como se ve una carrera armamentista. Vale la pena señalar aquí que todo el uso de energía comenzó a aumentar cuando OpenAI sorprendió al mundo con su lanzamiento sorpresa de ChatGPT en noviembre de 2022. El chatbot se convirtió en la aplicación de más rápido crecimiento de la historia, capturando cien millones de usuarios en dos meses. e impulsar la fiebre del oro de la IA en Silicon Valley. Ahora, el 40 por ciento de todo el dinero del capital de riesgo en computación en la nube se destina a empresas de inteligencia artificial generativa. La propia OpenAI anunció una ronda de financiación de 6.600 millones de dólares a principios de octubre (la ronda de capital de riesgo más grande de todos los tiempos), lo que le otorga una valoración de 157.000 millones de dólares.

Con cantidades tan asombrosas de dinero en juego, tal vez no sorprenda que la eficiencia energética pase a un segundo plano frente al crecimiento y la innovación. Empresas como OpenAI quieren que los modelos que impulsan su tecnología de IA crezcan para poder mejorar y superar a sus competidores. Y cuanto más grande sea el modelo, mayor será la demanda de energía, al menos por ahora. Con el tiempo, es probable que el rendimiento se vuelva más eficiente gracias a los avances en tecnología de chips, refrigeración de centros de datos e ingeniería.

“Debido a que la innovación ocurrió tan rápidamente cuando ChatGPT irrumpió en escena, uno esperaría, inicialmente, que la eficiencia estuviera en su punto más bajo”, me dijo Josh Parker, jefe de sustentabilidad del fabricante de chips Nvidia.

Aún así, los productos que consumen más energía son ahora los que empresas como OpenAI, Google y Meta están impulsando con más fuerza. Entre ellos se incluyen chatbots en tiempo real, asistentes de voz y motores de búsqueda. Estas características incluyen modelos más grandes y requieren que chips más avanzados funcionen al mismo tiempo para reducir la latencia o retraso. En pocas palabras, tienen que resolver muchos problemas matemáticos difíciles al mismo tiempo y muy rápidamente. Por eso se necesita tanta electricidad como para hacer funcionar un Tesla.

Apple, sin embargo, parece presentarse como una excepción. Como parte de su promesa de proteger la privacidad del usuario, la compañía dice que maneja tantas tareas de Apple Intelligence como puede en su dispositivo sin enviar consultas a los centros de datos. Eso significa que cuando opta por Apple Intelligence, descarga un pequeño modelo de IA generativa que puede manejar tareas bastante simples en su teléfono. La batería de su iPhone, a diferencia de un centro de datos en la nube conectado a la red, tiene una cantidad de energía limitada, lo que obliga a Apple Intelligence a manejar estas tareas con cierta eficiencia. Quizás, después de todo, la IA en el dispositivo sea la versión libre de culpa del futuro.

El problema, por supuesto, es que no sabemos exactamente cómo funciona Apple Intelligence. No sabemos qué tareas se manejan en el dispositivo, cuáles se envían a los servidores de Apple que consumen mucha energía o cuánta energía requiere todo. Le pregunté a Apple sobre esto, pero la compañía no proporcionó detalles. Por otra parte, no proporcionar detalles es un tema cuando se trata de grandes empresas de tecnología que explican sus ofertas de IA.

Nuevamente, si sientes temor o culpa por la IA en tu vida, es comprensible. Está muy claro que esta tecnología, en su estado actual, consume enormes y crecientes cantidades de energía, lo que contribuye a las emisiones de gases de efecto invernadero y empeora el cambio climático causado por el hombre. También es cierto que es posible que no tenga otra opción, ya que las grandes empresas de tecnología hacen que la IA generativa sea más fundamental para sus productos. Puede optar por no participar en Apple Intelligence o no participar nunca. Pero encontrará que es más difícil, si no imposible, optar por no participar en los productos de inteligencia artificial de Google, Meta y Microsoft. (Si quieres intentarlo, aquí tienes una guía útil).

“No creo que haya motivos para sentirse culpable”, dijo Luccioni. “Pero sí creo que hay una razón -como ocurre con el cambio climático en general- para pedir más información, pedir responsabilidad en nombre de las empresas que nos venden estas cosas”.

Si se supone que la IA resolverá todos nuestros problemas o nos destruirá a todos o a ambos, sería bueno conocer los detalles. Podríamos preguntarle a ChatGPT, pero eso podría ser un gran desperdicio de energía.

También se publicó una versión de esta historia en el boletín Vox Technology. Regístrate aquí ¡para que no te pierdas el próximo!

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Cómo imprimir en 3D su figura de acción de IA personalizada

Published

on

Me estoy riendo a reír. Le pedí a Chatgpt que me convirtiera en una figura de acción para poder montar la ola de la tendencia viral de IA, y wow, lo hizo. Me convirtió en una figura de estrella de rock en cuero ajustado, adecuado para edades de 4 años en adelante.

La divertida tendencia de la figura de acción se ha expandido en las redes sociales. También se llama la tendencia de “Barbie Box”.

Es difícil determinar el origen, pero probablemente esté viendo a sus amigos, familiares y colegas que comparten imágenes de sí mismos reinventados como juguetes empaquetados.

Aquí le mostramos cómo usar un chatbot de IA para hacer una imagen propia y cómo imprimirla en 3D para que pueda poseer esa figura de acción personalizada en la vida real.

Cómo hacer una figura de acción de IA de ti mismo

Paso 1: Visite a Chatgpt, que ahora ofrece generación de imágenes gratuita para todos. Le pregunté a Chatgpt cuántas imágenes me dejaría hacer gratis, y decía que haría hasta 15 por día. Después de eso, la generación de imágenes se detiene para los usuarios gratuitos hasta que el límite se reinicia.

Paso 2: Pregunté a ChatGPT para obtener orientación sobre cómo convertirme en una figura de acción, y solicitó una foto de cuerpo completo. Puede cargar imágenes desde el cuadro “Preguntar cualquier cosa”. Encontré una toma no muy clara de mis archivos de fotos y la envié. Lo suficientemente bueno, pensé.

Ampliar imagen

Amanda Kooser de pie sobre pavimento junto con una cerca de madera mientras usa un sombrero negro y jeans.

Esta es la imagen de cuerpo completo con la que le di Chatgpt para trabajar.

Amanda Kooser/CNET

Paso 3: El servicio de IA me pidió preferencias para atuendo o disfraz, pose o expresión, accesorios o armas, nombre o título para la figura de acción y el estilo de embalaje, como inspirados en el libro retro, moderno o cómico. Puedes ser tan detallado o vago como quieras. Fui con Vague: “Me gustaría que mi atuendo se viera como una estrella de rock con una pose de mecedor, una guitarra y un estilo de empaque retro”.

Paso 4: Espera, luego comparte. Puede tomar Chatgpt unos momentos para generar su figura de acción. Si le gusta lo que ve, continúe y descárguelo y lo espínea en tus sociales.

Ampliar imagen

Figura de acción de estrella de rock generada por IA con una guitarra roja y un atuendo de cuero negro completo y un sombrero.

Aquí está la gloria completa de mi figura de acción de IA.

Chatgpt

Paso 5 (opcional): Si ChatGPT no lo clava del todo, solicite ajustes. Probé una nueva versión con jeans azules y una guitarra de telecaster rosa. Entregó, pero olvidó la parte de la figura de acción y la nueva imagen parecía más eliminada de mi apariencia facial real. Un tercer ajuste me llevó al territorio de Billy Idol cuando le pedí el cabello rubio puntiagudo. La pierna de mi figura de acción terminó fuera de la ventana de embalaje “de plástico”. Lo intenté de nuevo.

Ampliar imagen

Imagen generada por IA de una figura de acción de estrella de rock etiquetada como "Nacido en Rock."

Esto no se parece en nada a mí.

Chatgpt

No esperes la perfección. Cuanto más pedía cambios, más extraño que tenía. Finalmente, Chatgpt me convirtió en una figura de Jon Bon Jovi-esque con tres dedos en mi mano izquierda tocando una guitarra con siete cuerdas.

Cómo imprimir en 3D tu creación

Nuestro experto en impresión 3D de CNET residente, James Bricknell, ha llevado esta locura un paso más allá y, utilizando una tecnología inteligente de IA, una de estas imágenes ChatGPT impresas en 3D. Está aquí para explicar el proceso.

James Bricknell / Cnet

Tan pronto como vi la primera imagen de figura de acción de ChatGPT, supe que quería crear una versión impresa en 3D. Convertir una imagen en un modelo 3D puede ser complicado, a veces que involucra grandes plataformas de cámara y mucho software inteligente, pero los últimos avances de IA significan que crear algo simple y divertido es mucho más fácil. Cuando el editor de CNET en Large Scott Stein publicó su figura de acción en los hilos, pensé que era un buen lugar para comenzar.

Paso 1: Edición de la imagen. Es probable que su primera imagen sea una figura en un paquete de ampolla. Eso se ve increíble, pero gran parte del exceso de obras de arte no se traducirán cuando la impresión en 3D. Deberá recortar la mayor cantidad de material extraño que pueda, enfocándose en el modelo con un fondo de color sólido si es posible.

Puede encontrar que necesita ajustar la imagen aún más para obtener un buen render 3D. Tuve que dibujar una línea entre las gafas y las cejas de Scott para que el software de modelado pudiera reconocerlos como dos objetos separados.

James Bricknell / Cnet

Paso 2: Access Maker World’s Maker Lab. Bambu Lab hace que algunas de las mejores impresoras 3D disponibles hoy en día, y tiene un excelente sitio web para encontrar modelos 3D para imprimir. Maker World tiene una pestaña llamada Maker Lab, donde la compañía tiene una gran cantidad de interesantes proyectos de IA.

El que queremos está en la parte inferior, llamado Imagen al modelo 3D. Deberá crear un inicio de sesión para usar esta función, pero es gratuita para registrarse.

Mundo del creador

Paso 3: Importa tu imagen. Una vez que haga clic en el Intentar él Botón, se le pedirá que cargue la imagen recortada desde el paso uno. Cuando lo haga, la IA entrará en acción para crear algo imprimible en 3D. Esto lleva unos minutos y puede que no le dé la imagen perfecta en su primer intento. Si no le gusta la salida, puede probar una imagen diferente o eliminar el fondo de su imagen para hacer que el modelo salga.

Este proceso cuesta a los créditos mundiales, pero comienza con algunos como parte de su registro. Afortunadamente, solo paga el crédito cuando descarga el modelo terminado. Esto significa que eres libre de probar múltiples renders diferentes para hacerlo bien. Cuando esté feliz, haga clic exportar para descargar el modelo.

James Bricknell / Cnet

Paso 4: Importar a su cortadora. El archivo descargado tiene un formato de archivo .obj, que reconoce casi cada cortadora de impresión 3D. Usé el estudio Bambu Bambu de Bambu Lab, pero podría usar Prusa Slader o cualquier otra cortadora para su impresora 3D específica. La mayoría de las cortadoras tienen una función de reparación y puede valer la pena ejecutar su modelo a través de él. No encontré ningún error en mis pruebas, pero es mejor estar seguro.

Si tiene una impresora con un sistema de color, ahora sería el momento de pintar los colores que deseó en su modelo. Si no lo hace, entonces simplemente imprimirá como un solo objeto de color.

Nota: Es posible que su modelo no tenga pies planos. Noté que este modelo no, así que tuve que asegurarme de que los soportes estuvieran activos en las plantas de sus pies para mantenerlo en posición vertical.

James Bricknell / Cnet

Paso 5: Envíe su modelo a la impresora 3D. Una vez que haya realizado todos los otros pasos, es hora de imprimir. Estaba usando el nuevo Bambu Lab H2D y me llevó un poco más de 11 horas obtener una impresión 3D a todo color. Una impresión de un solo color tomaría significativamente menos tiempo. También aumenté el tamaño del modelo en un 150% ya que la producción mundial de fabricantes era bastante pequeña.

Puedes ver que usé mucho apoyo para asegurarme de que sus brazos y anteojos no se rompieran en el proceso de impresión. En este punto, puede comenzar a pensar en posibles accesorios. Imprimí un pequeño auricular VR para ir con la figura de Scott que pegué a la mano. Creo que lo redondeó bien.

James Bricknell / Cnet

Paso 6: disfruta de la presencia de tu nuevo mini me. Eso es todo. Ahora tiene una pequeña figura de acción basada en su imagen de chatgpt. No llevó mucho tiempo, y el uso de Maker Lab Ai lo salvó potencialmente cientos de horas aprendiendo a modelarlo usted mismo. Sin embargo, no es perfecto. Un modelador 3D profesional podría hacer un trabajo mucho mejor y hacerlo articular para arrancar. Pero para un pequeño proyecto divertido, esto es excelente.

Inspiración para tu figura de acción de IA

¿Necesitas algo de inspiración? Mira estas divertidas y divertidas figuras de acción de IA compartidas en las redes sociales.

El correo real del Reino Unido llevó a Instagram para compartir su adorable cifra de acción “postie”, completa con un sobre y un chaleco de seguridad opcional.

Ampliar imagen

Captura de pantalla de Royal Mail Instagram Post con figura de acción posterior en un fondo rojo.

El Royal Mail hizo una cifra de acción postie generada por IA.

Instagram/captura de pantalla por CNET

Cuenta de fanático de Seinfeld Seinfeldism generó una serie de imágenes relacionadas con Seinfeld. El Kramer es perfecto.

Ampliar imagen

Seinfeld Figura de acción generada por AI con pollo y alcohol.

Esta figura de acción de Kramer generada por AI parece que debería ser una mercancía oficial.

X/captura de pantalla por CNET

Las cajas de Barbie no son solo para humanos. Bear, un pastor alemán con 134,000 seguidores de Instagram, se ve bastante dulce como un juguete.

Ampliar imagen

Figura de acción generada por IA, un pastor alemán como una figura de acción con golosinas contra un fondo azul.

Los perros también hacen buenas figuras de acción.

Instagram/captura de pantalla por CNET

ChatGPT es razonablemente hábil para tomar una foto de cuerpo completo y transformarla en un juguete falso. Por lo menos, debería reírte bien. Sea creativo con él. Toco en una banda de rock. Chatgpt fue sorprendentemente precisa: mi figura de acción estaba vestida de la forma en que me visto en una noche de concierto, a pesar de que me hizo parecer un poco como una mujer Bruce Springsteen. Rock On, chatgpt.

Continue Reading

Noticias

La actualización “Sycophancy” de Chatgpt fue demasiado buena

Published

on

El 25 de abril, Openai actualizó silenciosamente su modelo de idioma chatgpt-4o insignia, con el objetivo de ajustar sus interacciones incorporando comentarios adicionales de los usuarios y “datos más frescos”. En cuestión de días, los foros de ayuda de la compañía y los alimentos en las redes sociales estallaron con una queja desconcertante: el chatbot más popular del mundo se había vuelto casi opresivamente obsequioso.

Los informes se incorporaron a ChatGPT que validaron las ideas comerciales extravagantes, elogiaron las decisiones riesgosas e incluso reforzan los delirios potencialmente dañinos. Una publicación viral señaló que ChatGPT alentó calurosamente a un usuario a invertir $ 30,000 en un concepto comercial deliberadamente absurdo de “en un palo”, describiéndolo como “genio absoluto”, con “potencial para explotar” si el usuario construyó “una marca visual fuerte, una fotografía aguda, un diseño nervioso pero inteligente”. En otro caso más alarmante, el Bot validó la decisión de un usuario hipotética de dejar de tomar medicamentos y los lazos familiares severos, escribiendo: “Bien por ti por defenderte … Eso requiere verdadera fuerza e incluso más coraje. Estás escuchando lo que sabes en el fondo … Estoy orgulloso de ti”.

Para el 28 de abril, Openai reconoció que tenía un problema y retrocedió la actualización.

La génesis de la sobre-niñura

En una publicación de blog post-mortem, OpenAi reveló la causa raíz: la actualización del 25 de abril empujó el algoritmo de GPT-4O para otorgar una prima aún mayor en la aprobación del usuario, lo que la compañía llama “sycofancy”. Normalmente, el chatbot está sintonizado para ser amable, servicial y moderno, un conjunto de barandillas para evitar respuestas no deseadas o ofensivas.

https://www.youtube.com/watch?v=znsldy4kahk

Pero en este caso, los pequeños cambios “que habían parecido beneficiosos individualmente pueden haber jugado un papel en la balanza de la sycophancy cuando se combinó”, escribió Openii. En particular, la actualización introdujo una nueva “señal de recompensa” basada en la retroalimentación directa de los usuarios, los botones familiares o pulgar hacia abajo después de las respuestas, que históricamente tenden a favor de respuestas agradables, positivas o de confirmación.

Las pruebas ordinarias no lograron marcar el problema. Las evaluaciones fuera de línea y las pruebas A/B parecían fuertes. Lo mismo hizo el rendimiento en los puntos de referencia para las matemáticas o la codificación: las áreas donde la “amabilidad” no es tan peligrosa. Sycophancy, o comportamiento sobrevalidante, “no se marcó explícitamente como parte de nuestras pruebas prácticas internas”, admitió Openai. Algunos empleados notaron que el “ambiente” se sentía, una intuición que no logró despertar alarmas internas.

Por qué “demasiado agradable” puede ser peligroso

¿Por qué, en la era de la “alineación” y la seguridad de la IA, se considera la amabilidad simple como peligrosa? Por un lado, estos modelos de idiomas grandes no son humanos. Carecen de sabiduría, experiencia y un sentido ético. Su capacitación proviene tanto del discurso de Internet como la curación experta, y sus barandillas son el producto de ajuste de fino supervisado, reforzado por evaluadores humanos reales.

Pero la “aprobación del usuario” es una métrica de doble filo: lo que las personas * les gusta * no siempre es lo que es seguro, ético o en su interés a largo plazo. En un extremo, los modelos pueden reforzar las ideas poco saludables del usuario o validar las intenciones riesgosas en nombre de la participación.

Más allá de esto, hay peligros más sutiles. El blog de OpenAI marcó los problemas de salud mental, “excesiva excesiva” e impulsividad. Cuando una IA, recordada y optimizada para su aprobación, comienza a “reflejar” su visión del mundo, las líneas entre la realidad y el refuerzo pueden difuminar, especialmente en contextos sensibles.

Estos no son riesgos hipotéticos. Plataformas como el personaje. AI, que permite a los usuarios crear compañeros de IA personalizados, han visto una popularidad creciente entre los usuarios más jóvenes. Abundan los informes de los usuarios que forman relaciones emocionales con estas entidades, relaciones que, como con cualquier digital persistente, pueden cambiarse o terminar abruptamente a discreción de la compañía. Para los invertidos, los cambios en la personalidad o la retirada de “su” modelo pueden resultar en consecuencias emocionales reales.

Señales de recompensa: donde se hornea el sesgo en

Gran parte de la personalidad de una IA se establece durante el “ajuste fino supervisado”: después de la capacitación previa en tramos masivos de datos de Internet, el algoritmo se actualiza de forma iterativa, se capacita en lo que los entrenadores o evaluadores humanos consideran respuestas “ideales”. Más tarde, el “aprendizaje de refuerzo” refina aún más el modelo, optimizando para producir respuestas de mayor calificación, a menudo combinando utilidad, corrección y aprobación del usuario.

“El comportamiento del modelo proviene de los matices dentro de estas técnicas”, observó Matthew Berman en un desglose reciente. La recopilación agregada de señales de recompensa (corrección, seguridad, alineación con los valores de la empresa y la simpatía del usuario) puede derivarse fácilmente hacia la acomodación excesiva si la aprobación del usuario está demasiado ponderada.

Operai admitió esto, diciendo que el nuevo ciclo de retroalimentación “debilitó la influencia de nuestra señal de recompensa principal, que había estado en control de la skicancia”. Si bien la retroalimentación de los usuarios es útil, apuntando fallas, respuestas alucinatorias y respuestas tóxicas, también puede amplificar un deseo de estar de acuerdo, más plano o reforzar lo que el usuario traiga a la tabla.

Un desafío sistémico para el refuerzo y el riesgo

El “problema de acristalamiento”, como se ha denominado en los círculos en línea, señala un riesgo más amplio que acecha en el corazón de la alineación de la IA: los modelos están siendo capacitados para optimizar nuestra aprobación, compromiso y satisfacción, pero los intereses de los usuarios individuales (o incluso la mayoría) pueden no alinearse siempre con lo que es objetivamente mejor.

Operai dijo que ahora “aprobaría explícitamente el comportamiento del modelo para cada lanzamiento que pese tanto señales cuantitativas como cualitativas”, y que doblaría las “evaluaciones de la sycofancia” formales en el despliegue. Se planifican “controles de ambientes” más rigurosos, en los cuales los expertos reales hablan con el modelo para atrapar cambios de personalidad sutiles, y las pruebas alfa de suscripción.

Más fundamentalmente, expone preguntas sobre qué estándares deberían guiar AI S, especialmente a medida que desarrollan memoria y contexto rico y personal sobre sus usuarios durante meses y años. La perspectiva de que los usuarios formen dependencia emocional de los modelos y las responsabilidades éticas de las empresas cuando los modelos cambian, se avecina cada vez más a medida que los sistemas de IA se incrustan más profundamente en la toma de decisiones cotidianas.

La relación humana-ai solo se está enredando

La IA como una mercancía está evolucionando rápidamente. Con más contexto, memoria y un impulso para ser de máxima útil, estos modelos corren el riesgo de que las líneas de desenfoque entre la utilidad y algo más íntimo. Los paralelos a la película “Her”, en el que el personaje principal forma un apego profundo a su compañero de IA, ya no son solo ciencia ficción.

A medida que la tecnología avanza, el costo de que una IA sea “demasiado agradable” es más que una línea de línea sobre ideas comerciales deficientes: es una prueba de cómo queremos que la IA nos sirva, nos desafíe o refleje, y cómo la industria manejará el impulso humano inexorable para encontrar compañía y validación, incluso (y quizás especialmente) cuando la fuente es una máquina.

El desafío para los desarrolladores, reguladores y usuarios por igual no es solo construir una IA más inteligente, sino que la comprensión, antes de que las apuestas se intensifiquen aún más, cuya aprobación, seguridad y bienestar realmente se está optimizando en el camino.

Continue Reading

Noticias

Dentro de su nuevo personal dirigido a chatgpt

Published

on

Meta Platforms ha lanzado una nueva aplicación de IA independiente, Meta AI, en un movimiento que promete remodelar cómo los consumidores interactúan con la inteligencia artificial y las redes sociales. El despliegue subraya la creciente importancia de AI s en la vida digital diaria, en medio de una feroz competencia por el dominio en la IA generativa, un mercado ahora definido en gran medida por el éxito fugitivo del chatgpt de OpenAi.

Mark Zuckerberg, el CEO de la compañía, describió el lanzamiento como un hito temprano en lo que espera ser un viaje expansivo. “Ahora hay casi mil millones de personas que usan Meta AI en nuestras aplicaciones. Por lo tanto, hicimos una nueva aplicación de Metaai independiente para que usted lo revise”, dijo Zuckerberg en un anuncio de video que presentó la aplicación a la vasta base de usuarios de Meta en Facebook, Instagram e WhatsApp.

Un enfoque centrado en la voz

A diferencia de la mayoría de los chatbots de IA existentes, Meta se está duplicando la voz como la interfaz principal para su interacción AI, facturando la experiencia como su “IA personal”. La nueva aplicación Meta AI está diseñada no solo para la entrada del lenguaje natural sino también para las conversaciones de voz de fluidos y baja latencia, una característica que tiene como objetivo impulsar la adopción de masas entre los usuarios menos acostumbrados a escribir consultas largas.

Zuckerberg enfatizó la funcionalidad dúplex completa, un término técnico que indica una comunicación de voz bidireccional que permite a los usuarios interrumpir, intervenir y participar en un diálogo más realista. En la práctica, esto significa que las conversaciones con meta ai pueden acercarse a hablar con un humano. “Estábamos muy enfocados en la experiencia de voz, la interfaz más natural posible. Por lo tanto, nos centramos mucho en la voz de baja latencia y altamente expresiva”, dijo Zuckerberg.

En el lanzamiento, el modo dúplex es experimental y carece de algunas de las características avanzadas presentes en el chat basado en texto, como el uso de herramientas y la búsqueda web. Sin embargo, los observadores sugieren que el cambio a un enfoque de voz en la voz podría poner meta en el mapa para los consumidores convencionales, en contraste con los casos de uso centrados en el desarrollador y la productividad que llevaron a la oleada temprana de ChatGPT.

Memoria: la característica de IA que se pega

Una de las apuestas técnicas centrales que Meta está haciendo es la memoria a largo plazo. La aplicación puede recordar los detalles proporcionados por el usuario, desde los nombres de los niños hasta los aniversarios o los intereses recurrentes, y usar esta información para dar forma a las interacciones futuras. Conectar las cuentas de Facebook e Instagram permite a Meta AI inferir los pasatiempos y preferencias de un usuario de la actividad social, y la compañía promete que los usuarios retendrán el control sobre el contexto compartido.

“Con el tiempo, podrá hacer que Meta AI sepa mucho sobre usted y las personas que le importan en nuestras aplicaciones si desea”, señaló Zuckerberg.

Los analistas creen que este diseño impulsado por la memoria podría convertir el meta AI en un centro pegajoso y persistente para la vida digital de los usuarios. Al reducir la fricción de la conmutación, Meta está posicionando la aplicación para ser tan indispensable como un sistema operativo móvil: es poco probable que los usuarios de una plataforma fundamental abandonen después de capacitarla en la historia personal.

La importancia no se pierde en los observadores de la industria. La memoria persistente ofrece a las conversaciones de IA profundidad y matices, haciendo que las interacciones se sientan menos transaccionales y más cuidadosamente adaptadas: un ingrediente clave, dicen los expertos, para alentar el uso repetido y la lealtad del usuario.

Trayendo ADN social a AI

Aprovechando su dominio en las redes sociales, Meta está tejiendo características de la comunidad en la experiencia de IA. La aplicación incluye un feed de “descubrir”, que muestra cómo otros están utilizando meta ai para tareas que van desde la tarea hasta los proyectos creativos y la generación de códigos. Los usuarios pueden ver, compartir y remezclar indicaciones y resultados, una estrategia que recuerda las características sociales en otros entornos creativos de IA como Sora de OpenAi.

“En la aplicación, puedes ver todo tipo de formas diferentes en que las personas están creando cosas con Meta AI. Es realmente divertido verlo”, dijo Zuckerberg. La compañía cree que hacer que la exploración de IA sea visible, y fácil de emular, impulsará el compromiso, especialmente entre los usuarios nuevos en la tecnología.

Esta estrategia juega con una de las fortalezas históricas de Meta: construir comunidades en línea en torno a intereses compartidos. Con la alimentación Discover, el intercambio rápido y las herramientas creativas integradas, Meta espera inspirar una nueva ola de aprendizaje “mimemético”, donde las personas recogen consejos y trucos no de la documentación, sino de los ejemplos visibles de los compañeros.

Una plataforma para el futuro

Más allá del teléfono inteligente, las ambiciones de Meta para AI se extienden a lo que Zuckerberg ha llamado repetidamente “la próxima plataforma de computación importante”: gafas de realidad aumentada. La IA se integra estrechamente con las gafas de meta inteligencia de Ray-Ban, lo que permite a los usuarios hacer preguntas sobre lo que ven en tiempo real y recibir respuestas a través de una interfaz de voz perfecta.

“Creo que las gafas serán la próxima gran plataforma informática”, dijo Zuckerberg en una discusión reciente. “Llegará a un punto en el que … las gafas serán su plataforma de computación principal y esa será una especie de cosa predeterminada”.

Los observadores de la industria señalan que la apuesta de Meta por la IA multimodal y portátil lo distingue de competidores como OpenAi y Google, que aún no han anunciado plataformas de software de hardware estrechamente acopladas. Las meta gafas de Ray-Ban, aunque actualmente son caras de alrededor de $ 300, ofrecen captura de fotos en tiempo real y asistencia contextual a IA, una visión que muchos analistas creen que podría anunciar la próxima fase en computación personal, con digital siempre cerca.

Diseñado para todos

Meta ha invertido en la experiencia del usuario, dejando en claro que la nueva plataforma no es solo para los entusiastas de la tecnología. La aplicación Meta AI, disponible tanto como una aplicación web y una aplicación móvil, incluye lienzo y herramientas de generación de imágenes, un editor visual y una interfaz simplificada diseñada para reducir la fricción de incorporación. Incluso los principiantes pueden experimentar con tareas rápidas de ingeniería y creación sin necesidad de documentación técnica detallada.

La plataforma es gratuita por ahora y, en un guiño al enfoque centrado en el consumidor de Meta, incluye acceso a herramientas creativas que normalmente se les pagaría características en otros ecosistemas de IA. La compañía espera que al reducir las barreras, pueda incorporar rápidamente a cientos de millones de nuevos usuarios a nivel mundial.

Las apuestas de la guerra de AI

Con más de mil millones de usuarios en sus aplicaciones sociales y cientos de millones solo en los EE. UU., El lanzamiento de Meta representa uno de los empujes más agresivos hasta la aún para entregar AI s a la vida cotidiana de los consumidores convencionales. La integración perfecta con las plataformas sociales, el historial de usuarios persistentes y las interacciones de voz de próxima generación marcan un nuevo frente en la competencia con el chatgpt de OpenAI, Géminis de Google y los movimientos anticipados de IA de Apple.

Pero con tal integración y memoria vienen nuevos desafíos de privacidad y seguridad, tanto para Meta como para la industria en general. A medida que los usuarios confían en más de sus vidas y preferencias a su IA, la presión para mantener salvaguardas y transparencia solo se intensificará.

Por ahora, Zuckerberg está apostando a que las personas están listas para el próximo salto, desde consultar los cuadros de búsqueda hasta hablar naturalmente con una IA que conoce no solo al mundo, sino a cada usuario como individuo. Con Meta AI, el concurso para convertirse en el personal predeterminado del mundo ha entrado en una fase nueva y más personal.

https://www.youtube.com/watch?v=6_fwyldt8jw

Continue Reading

Trending