Noticias
Lo que la cortesía enseña chatgpt, y por qué la inteligencia artificial de OpenAi está pagando millones para escuchar

¿Son “por favor” y “gracias” simplemente buenos modales, o están cambiando cómo ChatGPT aprende, se comporta y cuesta la inteligencia artificial de Openai millones cada día?
Decir “por favor” podría estar costando millones
Es algo que a la mayoría de nosotros se nos enseñó como niños. Di “por favor”. Di “Gracias”. La cortesía no cuesta nada. Pero con inteligencia artificial, esa vieja sabiduría ya no puede ser cierta. Ser educado con un chatbot podría venir con un precio.
En un breve intercambio en X, el CEO de Operai, Sam Altman, reveló un curioso detalle sobre cómo funcionan los sistemas de IA. Cuando se le preguntó cuánto cuesta OpenAi cuando los usuarios incluyen palabras adicionales como “por favor” y “Gracias” en sus consultas para Chatgpt, Altman respondió: “Decenas de millones de dólares bien gastados. Nunca se sabe”.
Cada palabra que escribimos en ChatGPT se procesa a través de vastas centros de datos, donde se divide en tokens, se ejecuta a través de cálculos complejos y se convierte en una respuesta. Incluso pequeñas bromas se tratan de la misma manera. Requieren energía informática.
Eso significa electricidad, sistemas de enfriamiento y más tiempo dedicado por solicitud. Cuando se multiplicó en millones de conversaciones, esos pocos tokens adicionales se acumulan en costos de energía e infraestructura real.
Según una encuesta de diciembre de 2024 realizada por Future, la empresa matriz de Techradar, el 51% de los usuarios de IA en los Estados Unidos y el 45% en el Reino Unido usan regularmente asistentes de IA o chatbots.
Entre ellos, los estadounidenses tenían más probabilidades de ser educados. En los Estados Unidos, el 67% de los usuarios dijeron que hablan con IA con cortesía. De ellos, el 82% dijo que es porque se siente como lo correcto, independientemente de si el destinatario es humano o no.
El otro 18% tiene una motivación diferente. Dijeron que se mantienen educados en caso de que haya un levantamiento de IA, una posibilidad remota, pero que no quieren arriesgarse a estar en el lado equivocado.
Luego está el 33% restante de los usuarios estadounidenses que no se molestan con las sutilezas. Para ellos, el objetivo es obtener respuestas, rápido. O consideran que la cortesía innecesaria o creen que los ralentiza. La eficiencia, no la etiqueta, da forma a la forma en que interactúan.
Consultas de IA y la carga de infraestructura oculta
Cada respuesta de ChatGPT funciona con sistemas computacionales que consumen electricidad y agua. Lo que parece un simple ida y vuelta esconde una operación pesada de recursos, especialmente a medida que el número de usuarios sigue aumentando.
Un informe de Goldman Sachs estima que cada consulta CHATGPT-4 usa aproximadamente 2.9 vatios de electricidad, casi diez veces más que una sola búsqueda en Google.
Los modelos más nuevos como GPT-4O han mejorado la eficiencia, reduciendo esa cifra a aproximadamente 0.3 vatios-horas por consulta, según Epoch AI. Aún así, cuando miles de millones de consultas se hacen diariamente, incluso pequeñas diferencias se suman rápidamente.
Los costos operativos de OpenAI reflejan esta escala. Según los informes, la compañía gasta alrededor de $ 700,000 por día para mantener el CHATGPT en funcionamiento, según las estimaciones internas citadas en múltiples fuentes de la industria.
Una razón importante detrás de este costo es su base de usuarios masivo. Entre diciembre de 2024 y principios de 2025, los usuarios semanales saltaron de 300 millones a más de 400 millones, impulsados en parte por características virales como indicaciones de arte al estilo Gibli. A medida que el uso aumenta, también lo hace la demanda de las redes eléctricas y la infraestructura física.
La Agencia Internacional de Energía proyecta que los centros de datos impulsarán más del 20% del crecimiento de la demanda de electricidad en economías avanzadas para 2030, con IA identificada como el principal impulsor de este aumento.
El agua es otra parte de la ecuación, a menudo pasada por alto. Un estudio realizado por el Washington Post encontró que componer un correo electrónico generado por IA de 100 palabras usa aproximadamente 0.14 kilovatios-hora de electricidad, suficiente para iluminar 14 bombillas LED durante una hora.
Generar esa misma respuesta puede consumir entre 40 y 50 mililitros de agua, principalmente para enfriar los servidores que procesan los datos.
A escala, este nivel de consumo plantea preocupaciones más amplias. En Virginia, el estado con la mayor densidad de centros de datos en los EE. UU., El uso del agua aumentó en casi dos tercios entre 2019 y 2023. Según una investigación realizada por el Financial Times, el consumo total alcanzó al menos 1.85 mil millones de galones solo en 2023.
A medida que los centros de datos continúan extendiéndose por todo el mundo, particularmente en áreas con electricidad y tierra más baratas, se espera que la presión sobre el suministro de agua y energía locales crezca. Es posible que algunas de estas regiones no estén equipadas para manejar el impacto a largo plazo.
Lo que le enseña tu tono a la IA
En los sistemas de IA entrenados en grandes volúmenes de diálogo humano, el tono de la solicitud de un usuario puede influir fuertemente en el tono de la respuesta.
El uso de un lenguaje educado o las oraciones completas a menudo resulta en respuestas que se sienten más informativas, conscientes del contexto y respetuosa. Este resultado no es accidental.
Detrás de escena, modelos como ChatGPT están entrenados en vastas conjuntos de datos de escritura humana. Durante el ajuste, pasan por un proceso conocido como aprendizaje de refuerzo de la retroalimentación humana.
En esta etapa, las personas reales evalúan miles de respuestas modelo basadas en criterios como ayuda, tono y coherencia.
Cuando un aviso bien estructurado o cortés conduce a una calificación más alta, el modelo comienza a favorecer ese estilo. Con el tiempo, esto crea una preferencia incorporada por claridad y patrones de lenguaje respetuosos.
Los ejemplos del mundo real refuerzan esta idea. En un experimento informal de Reddit, un usuario comparó las respuestas de AI con la misma pregunta enmarcada con y sin las palabras “por favor” y “gracias”. La versión cortés a menudo activaba respuestas más largas, más exhaustivas y más relevantes.
Un análisis separado publicado en Hackernoon descubrió que las indicaciones de impolite tendían a generar más imprecisiones de objetivos y contenido sesgado, mientras que las moderadamente educadas lograron el mejor equilibrio entre precisión y detalle.
El patrón también se mantiene entre idiomas. En una prueba interlingüística que involucra inglés, chino y japoneses, los investigadores observaron que la grosidad incorporó el rendimiento del modelo degradado en todos los ámbitos.
Ser extremadamente educado no siempre dio mejores respuestas, pero la cortesía moderada generalmente mejoró la calidad. Los resultados también insinuaron los matices culturales, lo que demuestra que lo que cuenta como el nivel de cortesía “correcto” puede variar según el lenguaje y el contexto.
Dicho esto, la cortesía no siempre es una bala de plata. Una reciente revisión de ingeniería de inmediato probó 26 estrategias para mejorar la producción de IA. Entre ellos estaba agregando palabras como “por favor”.
Los resultados mostraron que si bien tales frases a veces ayudaban, no mejoraban constantemente la corrección en GPT-4. En algunos casos, agregar palabras adicionales introdujo el ruido, haciendo que las respuestas sean menos claras o precisas.
Un estudio más detallado realizado en marzo de 2025 examinó la cortesía en ocho niveles diferentes, desde solicitudes extremadamente formales hasta groseros.
Los investigadores midieron resultados utilizando puntos de referencia como Bertscore y Rouge-L para tareas de resumen. La precisión y la relevancia se mantuvieron bastante consistentes independientemente del tono.
Sin embargo, la longitud de las respuestas varió. GPT-3.5 y GPT-4 dieron respuestas más cortas cuando las indicaciones eran muy abruptas. Llama-2 se comportó de manera diferente, produciendo las respuestas más cortas a la cortesía de rango medio y en las más largas en los extremos.
La cortesía también parece afectar cómo los modelos de IA manejan el sesgo. En las pruebas de detección de estereotipo, las indicaciones demasiado educadas y hostiles aumentaron las posibilidades de respuestas sesgadas o de rechazo. La cortesía de rango medio funcionó mejor, minimizando tanto el sesgo como la censura innecesaria.
Entre los modelos probados, GPT-4 tenía la menor probabilidad de rechazar directamente, pero todos mostraron un patrón similar: parece haber un punto dulce en el que el tono ayuda al modelo a responder con precisión sin comprometer el equilibrio.
Al final, lo que decimos, y cómo lo decimos, da forma a lo que recuperamos. Ya sea que apuntemos a mejores respuestas, menos sesgo o simplemente una interacción más reflexiva, nuestra elección de palabras tiene peso.
Y aunque la cortesía no siempre aumenta el rendimiento, a menudo nos acerca al tipo de conversación que queremos de las máquinas con las que estamos hablando cada vez más.