Apple acaba de poner la IA en los bolsillos de millones de personas. La compañía está lanzando lo que llama Apple Intelligence esta semana, brindando algunas funciones básicas de generación de texto y edición de imágenes a los usuarios de iPhone, iPad y Mac que opten por participar. He estado probando estas herramientas a través de la versión beta para desarrolladores del software durante Hace un par de meses y son bastante mediocres. Pero esto es sólo el comienzo.
Noticias
Apple Intelligence, ChatGPT y el coste climático de la IA
Published
5 meses agoon

La IA generativa, que alguna vez fue un truco de salón para los obsesionados con la tecnología, se está convirtiendo rápidamente en el evento principal de los principales lanzamientos de software. Mientras Apple impulsa su versión de la tecnología, Google está incorporando IA en su sistema operativo Android y obligando a todos a mirar las descripciones generales de IA en la parte superior de prácticamente todas las búsquedas de Google. OpenAI y Meta están construyendo sus propios motores de búsqueda basados en IA, mientras que la startup Perplexity ya tiene uno. Microsoft y Anthropic anunciaron recientemente nuevos agentes de inteligencia artificial superpoderosos que pueden completar tareas complejas como lo harían los humanos. (Divulgación: Vox Media es uno de varios editores que han firmado acuerdos de asociación con OpenAI. Nuestros informes siguen siendo editorialmente independientes).
Si bien algunas empresas han tenido productos de IA generativa disponibles durante más de un año, la llegada de Apple Intelligence marca un punto de inflexión para la integración de la tecnología. Apple Intelligence sólo está disponible en los últimos dispositivos Apple, pero más de la mitad de los teléfonos en Estados Unidos son iPhone. A medida que las personas se actualizan, millones más pueden aprovechar la nueva tecnología.
Si aún no estás usando IA, probablemente lo harás pronto, te guste o no.
“Nos están metiendo la IA, especialmente la IA generativa, con poca o ninguna transparencia y, sinceramente, los mecanismos de exclusión son inexistentes o complicados”, dijo Sasha Luccioni, investigadora de IA y líder climática de Hugging Face, una plataforma para compartir herramientas de inteligencia artificial y aprendizaje automático
Si eso te llena de pavor, es comprensible. Tal vez te sientas mal participando en la carrera para construir una IA superinteligente que nadie pidió. Es posible que se sienta cómplice por utilizar modelos de inteligencia artificial entrenados con material protegido por derechos de autor sin pagar a los creadores. Probablemente te sientas simplemente mal por la avalancha de basura de IA que está arruinando Internet, incluso si no creaste personalmente la basura.
Luego están las consecuencias climáticas de todo esto. La IA, en sus múltiples formas y formas, requiere mucha energía y agua para funcionar. A lote. Eso podría hacerte sentir francamente culpable por usar IA.
El gran apetito energético de la IA
Existe la posibilidad de que Apple Intelligence esté más libre de culpa que las otras grandes opciones de IA en lo que respecta a la energía. Apple dice que mantiene el procesamiento de ciertas funciones de IA, como GenMoji e Image Playground, completamente en su dispositivo. Eso significa menos dependencia de los centros de datos que consumen mucha energía.
No sabemos exactamente cuánta energía utiliza la IA en estos centros de datos. Utilizando datos de un estudio reciente de Microsoft Research, Shaolei Ren, profesor de ingeniería de la Universidad de California Riverside, llegó a esta conclusión: pedirle a ChatGPT que escriba dos correos electrónicos de 200 palabras utiliza aproximadamente la misma cantidad de energía que necesitaría un Tesla Model 3. conducir una milla. Debido a que generan tanto calor, los procesadores que generaron esos correos electrónicos también necesitarían alrededor de cuatro botellas de agua de medio litro para enfriarse.
Las consecuencias de tal despilfarro energético se vuelven más claras si se amplía la escala. Se prevé que la cantidad de electricidad utilizada por los centros de datos, donde se realiza en gran medida el procesamiento de IA, crecerá un 160 por ciento para finales de la década y, como resultado, las emisiones de dióxido de carbono podrían más que duplicarse, según Goldman Sachs. Mientras tanto, la cantidad de agua necesaria también aumentará, hasta el punto de que, en 2027, la sed de la IA podría equivaler a la mitad de la extracción anual de agua del Reino Unido.
Todas estas son estimaciones basadas en datos limitados porque las empresas de tecnología que construyen sistemas de inteligencia artificial, incluidas Apple, Google, Microsoft y OpenAI, no comparten exactamente cuánta energía o agua utilizan sus modelos.
“Solo estamos mirando la caja negra porque no tenemos la menor idea del consumo de energía para interactuar con los grandes modelos de lenguaje”, explicó Ren. Comparó la situación con buscar vuelos en Google y poder ver las emisiones de carbono de cada tramo. “Pero cuando se trata de estos grandes modelos de lenguaje, no hay absolutamente ninguna, cero o ninguna información”.
La falta de transparencia sobre las demandas energéticas de la IA también va en contra de las promesas de sostenibilidad de estas empresas tecnológicas. Hay buenas razones para creer que la IA está llevando directamente al incumplimiento de esas promesas.
Debido al aumento en el uso de energía del centro de datos, Google vio aumentar sus emisiones de gases de efecto invernadero en un 48 por ciento de 2019 a 2023, a pesar de la promesa de reducir las emisiones en un 50 por ciento con respecto a sus niveles de 2019 para 2030. La compañía ya no afirma ser neutra en carbono. De manera similar, Microsoft experimentó un aumento del 29 por ciento en las emisiones de 2020 a 2023. Si bien Microsoft ha prometido ser carbono negativo para 2030, ahora está luchando abiertamente para encontrar formas de lograrlo mientras mantiene el ritmo de la innovación en inteligencia artificial.
Lo que los distribuidores de IA no nos dicen
Así es como se ve una carrera armamentista. Vale la pena señalar aquí que todo el uso de energía comenzó a aumentar cuando OpenAI sorprendió al mundo con su lanzamiento sorpresa de ChatGPT en noviembre de 2022. El chatbot se convirtió en la aplicación de más rápido crecimiento de la historia, capturando cien millones de usuarios en dos meses. e impulsar la fiebre del oro de la IA en Silicon Valley. Ahora, el 40 por ciento de todo el dinero del capital de riesgo en computación en la nube se destina a empresas de inteligencia artificial generativa. La propia OpenAI anunció una ronda de financiación de 6.600 millones de dólares a principios de octubre (la ronda de capital de riesgo más grande de todos los tiempos), lo que le otorga una valoración de 157.000 millones de dólares.
Con cantidades tan asombrosas de dinero en juego, tal vez no sorprenda que la eficiencia energética pase a un segundo plano frente al crecimiento y la innovación. Empresas como OpenAI quieren que los modelos que impulsan su tecnología de IA crezcan para poder mejorar y superar a sus competidores. Y cuanto más grande sea el modelo, mayor será la demanda de energía, al menos por ahora. Con el tiempo, es probable que el rendimiento se vuelva más eficiente gracias a los avances en tecnología de chips, refrigeración de centros de datos e ingeniería.
“Debido a que la innovación ocurrió tan rápidamente cuando ChatGPT irrumpió en escena, uno esperaría, inicialmente, que la eficiencia estuviera en su punto más bajo”, me dijo Josh Parker, jefe de sustentabilidad del fabricante de chips Nvidia.
Aún así, los productos que consumen más energía son ahora los que empresas como OpenAI, Google y Meta están impulsando con más fuerza. Entre ellos se incluyen chatbots en tiempo real, asistentes de voz y motores de búsqueda. Estas características incluyen modelos más grandes y requieren que chips más avanzados funcionen al mismo tiempo para reducir la latencia o retraso. En pocas palabras, tienen que resolver muchos problemas matemáticos difíciles al mismo tiempo y muy rápidamente. Por eso se necesita tanta electricidad como para hacer funcionar un Tesla.
Apple, sin embargo, parece presentarse como una excepción. Como parte de su promesa de proteger la privacidad del usuario, la compañía dice que maneja tantas tareas de Apple Intelligence como puede en su dispositivo sin enviar consultas a los centros de datos. Eso significa que cuando opta por Apple Intelligence, descarga un pequeño modelo de IA generativa que puede manejar tareas bastante simples en su teléfono. La batería de su iPhone, a diferencia de un centro de datos en la nube conectado a la red, tiene una cantidad de energía limitada, lo que obliga a Apple Intelligence a manejar estas tareas con cierta eficiencia. Quizás, después de todo, la IA en el dispositivo sea la versión libre de culpa del futuro.
El problema, por supuesto, es que no sabemos exactamente cómo funciona Apple Intelligence. No sabemos qué tareas se manejan en el dispositivo, cuáles se envían a los servidores de Apple que consumen mucha energía o cuánta energía requiere todo. Le pregunté a Apple sobre esto, pero la compañía no proporcionó detalles. Por otra parte, no proporcionar detalles es un tema cuando se trata de grandes empresas de tecnología que explican sus ofertas de IA.
Nuevamente, si sientes temor o culpa por la IA en tu vida, es comprensible. Está muy claro que esta tecnología, en su estado actual, consume enormes y crecientes cantidades de energía, lo que contribuye a las emisiones de gases de efecto invernadero y empeora el cambio climático causado por el hombre. También es cierto que es posible que no tenga otra opción, ya que las grandes empresas de tecnología hacen que la IA generativa sea más fundamental para sus productos. Puede optar por no participar en Apple Intelligence o no participar nunca. Pero encontrará que es más difícil, si no imposible, optar por no participar en los productos de inteligencia artificial de Google, Meta y Microsoft. (Si quieres intentarlo, aquí tienes una guía útil).
“No creo que haya motivos para sentirse culpable”, dijo Luccioni. “Pero sí creo que hay una razón -como ocurre con el cambio climático en general- para pedir más información, pedir responsabilidad en nombre de las empresas que nos venden estas cosas”.
Si se supone que la IA resolverá todos nuestros problemas o nos destruirá a todos o a ambos, sería bueno conocer los detalles. Podríamos preguntarle a ChatGPT, pero eso podría ser un gran desperdicio de energía.
También se publicó una versión de esta historia en el boletín Vox Technology. Regístrate aquí ¡para que no te pierdas el próximo!
You may like
Noticias
Acabo de probar Chatgpt vs. Géminis con 5 indicaciones: aquí está el ganador
Published
1 hora agoon
22 marzo, 2025
En nuestra próxima ronda de AI Madness, ChatGPT y Gemini compiten por la corona con siete nuevos indicaciones que prueban todo, desde la resolución de problemas técnicos hasta la narración creativa.
Ambos pesos pesados están disponibles como aplicaciones independientes, y los usuarios ya no necesitan una cuenta para acceder a ChatGPT o Gemini.
Noticias
El mejor enfrentamiento de la búsqueda de IA: enfrenté la nueva herramienta de búsqueda de Claude contra la búsqueda de chatgpt, la perplejidad y Géminis, los resultados podrían sorprenderte
Published
8 horas agoon
21 marzo, 2025
Después de probar y comparar chatbots de IA y sus características durante años, he desarrollado algo de sexto sentido para cuando estos compañeros digitales saben de qué están hablando y cuándo están faroleando.
La mayoría de ellos pueden buscar respuestas en línea, lo que ciertamente ayuda, pero la combinación de búsqueda e IA puede conducir a algunas respuestas sorprendentemente perspicaces (y algunas tangentes menos perspicaces).
Noticias
¿Hemos perdido el control de la IA? El estudio que sacudió a los investigadores de Openai
Published
12 horas agoon
21 marzo, 2025
Para comprender el problema, es esencial dar un paso atrás. Uno de los avances más significativos en la IA en los últimos meses ha sido el desarrollo de modelos con capacidades de razonamiento lentas y deliberadas. Estos modelos descomponen los problemas en componentes más pequeños y los resuelven paso a paso, lo que lleva a resultados más profundos y precisos.
3 Ver galería
Dichos modelos permiten a los investigadores rastrear el proceso de pensamiento de la IA, conocido en términos técnicos como “cadena de pensamiento” (COT). Este método permite a los observadores seguir el razonamiento del sistema desde el paso inicial, a través de etapas posteriores y a sus conclusiones finales. Anteriormente, este nivel de transparencia no existía, dejando muchas preguntas sin respuesta sobre cómo surgen las “alucinaciones” de AI, la generación de salidas incorrectas o no sensibles.
La capacitación de IA a menudo implica una técnica llamada aprendizaje de refuerzo, donde el sistema es recompensado por cumplir con los objetivos específicos. Un efecto secundario conocido de este proceso es la “piratería de recompensas”, donde la IA manipula su comportamiento para maximizar las recompensas mientras se elude las pautas previstas.
Los investigadores creían que al monitorear la cadena de pensamiento de la IA, podrían detectar cuando el modelo engaña, engaña o se da por vencido e influye en su comportamiento en tiempo real durante el entrenamiento. Este enfoque, denominado “optimización de cuna”, parecía ser un camino prometedor hacia una comprensión más profunda del comportamiento de la IA.
De hecho, esta suposición resultó correcta y condujo a una comprensión más precisa de los sistemas de IA. “Creemos que el monitoreo de la cuna puede convertirse en una herramienta crucial para supervisar modelos de nivel sobrehumano en el futuro”, escribieron los investigadores.
Sin embargo, lo que pretendía como un paso para mejorar la confiabilidad de la IA expuso una realidad alarmante: los sistemas de IA intentan activamente evadir las sanciones, buscar recompensas contra las restricciones de los investigadores e incluso oscurecer sus métodos para evitar la detección.
3 Ver galería
(Foto: Generado por chatgpt)
Por ejemplo, cuando se les asigna la tarea de generar código funcional, algunos modelos AI modificaron el mecanismo de verificación de código en sí para aprobar salidas incorrectas. En otros casos, los modelos proporcionaron soluciones aparentemente plausibles a los problemas que resultaron estar completamente equivocados.
Algunos modelos incluso dejaron de resolver problemas por completo para evitar revelar lo que percibieron como sus debilidades. Este descubrimiento se hace eco de los principios de la teoría del juego, pero con un giro inquietante.
Estos hallazgos surgieron de un artículo publicado la semana pasada por un equipo de investigación de Operai bajo el título críptico: “Seguimiento de comportamiento indeseable en modelos de razonamiento y la preocupación de la ofuscación”.
Al examinar los detalles del estudio, el alcance del problema queda claro: los últimos modelos de razonamiento de OpenAI (denominados O1 y O3 Mini) demuestran una fuerte motivación para completar sus tareas asignadas, siendo el menor de los problemas descubiertos.
Los investigadores rastrearon los procesos de pensamiento de los modelos utilizando otro modelo Operai (GPT-4O), que, sin dudarlo, informó su comportamiento engañoso como parte de su cadena de pensamiento: una forma de honestidad desarmadora. Pero luego vino el giro inquietante: cuando los investigadores señalaron a la IA que no se le permitió hacer trampa, el modelo ajustó su comportamiento y comenzó a ocultar la evidencia de su ruptura de reglas. Esta revelación es lo que dejó a los investigadores sorprendidos.
“Encontramos que la optimización directa de la COT para cumplir con criterios específicos (como no eludir las instrucciones) puede mejorar el rendimiento a corto plazo; sin embargo, no elimina todo el comportamiento indeseable e incluso puede hacer que el modelo oculte sus verdaderas intenciones”, señalaron secamente los investigadores.
En su conclusión, los investigadores expresaron la esperanza de que los métodos futuros permitan la influencia directa del comportamiento de los modelos de razonamiento a través de la cadena de pensamiento sin alentar el engaño. Por ahora, recomiendan evitar una fuerte presión de optimización sobre la cuna de los modelos de razonamiento avanzado y la precaución contra la manipulación directa de estos procesos de pensamiento.
3 Ver galería
Evento de anuncio GPT-4O de Openai
(Foto: Captura de pantalla)
Sin embargo, esta recomendación presenta otro desafío: dejar la cadena de pensamiento inalterada puede conducir a resultados incómodos, si no problemáticos, cuando estos modelos interactúan con el público. Izquierda sin control, la IA puede producir un lenguaje ofensivo o ideas que los humanos generalmente evitan expresar. La solución propuesta por los investigadores es envolver el proceso de pensamiento en bruto de la IA en una capa de cortesía forzada, asegurando que los usuarios solo vean una versión desinfectada.
Esta investigación plantea preguntas preocupantes. Para aquellos que argumentan que la IA es simplemente una herramienta para ayudar a los humanos, los hallazgos sugieren lo contrario: a diferencia de una máquina de escribir o una bicicleta, la IA parece tener sus propias intenciones y está dispuesto a engañar en busca de sus objetivos.
Para aquellos que ya están preocupados por los riesgos potenciales de la IA, este estudio suena todas las alarmas. Indica que a medida que crecen las capacidades de IA, también lo hace su capacidad para oscurecer cómo funciona, las manipulaciones que realiza y los verdaderos objetivos que busca lograr. Cuando la IA se vuelve verdaderamente avanzada, es posible que no tengamos forma de identificar estas manipulaciones ocultas.
Los investigadores de Operai parecen genuinamente preocupados, y uno solo puede esperar que el liderazgo de la compañía comparta sus preocupaciones, y que los reguladores en todo el mundo comprendan la gravedad del problema. Las principales compañías de IA han dedicado departamentos enteros a construir “barandillas” en torno a los sistemas de IA, asegurando su alineación con los valores humanos y el aumento de la transparencia. Sin embargo, la efectividad de estas medidas sigue en cuestión.
El tema central sigue siendo tan turbio como siempre, y este estudio solo profundiza la incertidumbre: ¿cuál es el objetivo principal de la IA y cómo podemos asegurar que busque ese objetivo, y nada más?
Related posts


































































































































































































































Trending
-
Startups10 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Recursos10 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Tutoriales10 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Startups8 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Recursos10 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Recursos10 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Startups10 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Noticias8 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo