¿Sirve realmente de algo decirle “por favor” y “gracias” a la IA? La ciencia responde

Un estudio revela que la cortesía moderada con la IA puede derivar en respuestas más claras u optimizadas: ser educado en su justa medida es la clave. Un estudio publicado en 2024 por investigadores de la Waseda University de Tokio analizó cómo influye el nivel de cortesía en los prompts dirigidos a modelos de lenguaje como ChatGPT de OpenAI o LLaMA de Meta. Los resultados demostraron que los prompts más groseros tendían a generar peores respuestas, mientras que un tono moderadamente educado producía resultados más fiables.

Los investigadores probaron distintos grados de educación en tres idiomas: inglés, chino y japonés. Un prompt más claro y contextualizado puede guiar a la IA hacia respuestas mejor estructuradas. Instrucciones secas o ambiguas pueden resultar en respuestas más simples. El investigador de Google DeepMind, Murray Shanahan, comparó el funcionamiento de estos sistemas con el de “un becario muy inteligente”, sugiriendo que los modelos de lenguaje adaptan su rol conversacional según el tono del usuario. Si se les habla como a un colaborador, responden de forma más cooperativa y detallada. En cambio, órdenes abruptas pueden limitar las respuestas a lo mínimo.

El debate sobre la utilidad de estos gestos de cortesía sigue abierto. Sam Altman ha señalado que mensajes como “por favor” o “gracias” implican un coste computacional adicional cuando se multiplican por millones de consultas diarias. Sin embargo, muchas encuestas indican que los usuarios continúan utilizándolos, no porque crean que la IA los aprecie, sino por hábitos de educación en conversaciones cotidianas.

¿Deberían los usuarios reconsiderar su forma de interactuar con la IA para optimizar las respuestas que reciben?

.

.

.

RESUMEN BASADO EN EL ARTÍCULO PUBLICADO EN AS EL 15 de marzo de 2026. Leer original

Otras entradas que te pueden interesar