La cortesía es una virtud inherente a las interacciones humanas, pero podría no ser tan buena idea cuando hablamos con una inteligencia artificial como ChatGPT. Aunque decir “por favor” y “gracias” parece inofensivo, estas expresiones tienen un costo oculto: Más energía, más procesamiento y una huella ecológica mayor.
Según varias investigaciones y declaraciones de expertos, como el CEO de OpenAI, Sam Altman, usar estas dos expresiones tiene un costo considerablemente alto en términos de consumo energético, y, aunque en algunos casos puede mejorar las respuestas de la IA, hay razones para reconsiderar si vale la pena hacerlo.
ChatGPT, como muchos otros modelos de inteligencia artificial, funciona mediante un proceso complejo que involucra miles de operaciones computacionales para generar respuestas a las consultas de los usuarios. Cada vez que se realiza una solicitud, la IA debe procesar la entrada en su totalidad, dividiéndola en tokens (unidades más pequeñas de texto), lo que incrementa el tiempo y los recursos requeridos, especialmente cuando las interacciones son más largas y detalladas debido a la cortesía.
Sam Altman, CEO de OpenAI, abordó esta problemática en una conversación con un usuario en X. El usuario le preguntó sobre los costos derivados de las interacciones educadas con los modelos de lenguaje, a lo que Altman respondió con humor, estimando que OpenAI ha gastado “decenas de millones de dólares bien gastados” debido a las palabras extra que los usuarios incluyen por cortesía.
Aunque la respuesta del CEO fue en tono de broma, la realidad es que las interacciones con palabras como “por favor” o “gracias” requieren un mayor procesamiento computacional, lo que se traduce en más consumo energético y, por ende, mayores costos para la empresa.
Aunque una sola frase adicional no representa un gran impacto, multiplicada por millones de usuarios, el efecto es considerable. Según el medio especializado Tom’s Hardware, una consulta promedio a ChatGPT consume alrededor de 0.3 vatios-hora (Wh) de electricidad. Aunque esta cifra ha bajado respecto a estimaciones anteriores, el volumen total sigue siendo relevante.
Además, los centros de datos que alimentan estos sistemas no solo consumen electricidad para operar, sino también para enfriar los equipos. Un estudio de la Universidad de California reveló que una respuesta de apenas dos a tres palabras de la IA puede consumir entre 40 y 50 mililitros de agua, utilizada en sistemas de enfriamiento.
A pesar del alto costo energético, algunas investigaciones sugieren que ser educado al interactuar con la IA podría, en ciertos casos, mejorar la calidad de las respuestas generadas. Un estudio realizado por la Universidad de Cornell en Estados Unidos evaluó cómo las interacciones con IA variaban dependiendo de si se usaba un lenguaje cortés o descortés.
Los resultados demostraron que, al igual que en las interacciones humanas, el lenguaje cortés suele generar respuestas más eficaces y satisfactorias, mientras que las indicaciones groseras pueden desencadenar un rendimiento inferior del modelo.
Sin embargo, el estudio también puntualizó que no todo el lenguaje cortés es igual de efectivo. En ciertos contextos, un exceso de cortesía puede no ser beneficioso. En particular, los modelos de lenguaje parecen responder mejor a un nivel moderado de cortesía en idiomas como el inglés, mientras que en otras lenguas, como el japonés, un alto grado de formalidad parece ser más favorable.
Este hallazgo resalta que los modelos de IA no solo están influenciados por las normas humanas, sino que también reflejan las particularidades lingüísticas y culturales que adquieren a través de sus datos de entrenamiento.
El estudio concluyó que, aunque un lenguaje educado puede mejorar la interacción con la IA, este efecto no es siempre consistente y depende en gran medida del contexto cultural y del nivel de cortesía. Lo que sí es claro es que las interacciones educadas, como aquellas que incluyen “por favor” y “gracias”, pueden influir en cómo el modelo responde, pero no garantizan una mejora significativa en la calidad de las respuestas.