Destacados

Expertos aseguran que la cortesía y el sarcasmo no mejoran las respuestas de los chatbots de IA

Destacan la importancia de instrucciones claras y ejemplos concretos.

Muchas personas buscan trucos para obtener mejores respuestas de chatbots de inteligencia artificial, convencidas de que la cortesía o el sarcasmo pueden influir.

Sin embargo, una revisión realizada por BBC Future señala que muchas de estas tácticas no tienen sustento y que la manera en la que interactuamos con estos sistemas rara vez genera cambios significativos.

Jules White, profesor de informática en la Universidad de Vanderbilt, explicó a BBC Future que no existen fórmulas mágicas que resuelvan cualquier consulta con los modelos de lenguaje. Para White, lo fundamental es expresar con claridad el objetivo de la pregunta.

Rick Battle, ingeniero de aprendizaje automático en Broadcom, coincide: estrategias como la adulación, el insulto o el tono amable han perdido relevancia a medida que los modelos de IA avanzan y se actualizan.

Incluso desde las propias empresas tecnológicas hay reconocimiento del fenómeno. En 2025, Sam Altman, director ejecutivo de OpenAI, comentó en tono humorístico que las palabras educadas enviadas a sus sistemas representaron “decenas de millones de dólares bien gastados”, según recogió BBC Future.

Aunque su frase alude, quizá de forma irónica, a los temores apocalípticos sobre la IA, pone en debate el posible efecto de la cortesía al interactuar con estas tecnologías.

Cómo procesan la información los modelos de lenguaje

Los modelos de lenguaje como ChatGPT o Gemini dividen cada consulta en fragmentos llamados “tokens”. Después, analizan estadísticamente esos elementos para producir una respuesta considerada adecuada.

Este proceso vuelve a los sistemas sumamente sensibles a pequeños detalles del texto, como la elección de palabras o una coma adicional. Sin embargo, tal como indica BBC Future, predecir el impacto real de cualquier cambio menor sigue siendo prácticamente imposible.

Aunque distintos estudios intentaron identificar patrones en las distintas formulaciones, sus resultados suelen ser contradictorios o poco concluyentes.

Las actualizaciones permanentes en los algoritmos de IA hacen que experimentos pasados queden rápidamente obsoletos. Además, en los modelos más recientes, esas variaciones mínimas en la instrucción rara vez producen alteraciones sistemáticas en las respuestas.

Según Battle, la situación cambió de manera notable en los últimos años. En 2024, experimentos con simulaciones de ciencia ficción aún lograban influir en los resultados. Hoy, los modelos priorizan con mayor eficacia la información relevante. La mayoría de veces, los cambios menores en la redacción no afectan ni la precisión ni el fondo de la contestación.

¿La cortesía mejora las respuestas de los chatbots?

Existen estudios recientes sobre el impacto de la cortesía en la precisión de los modelos de lenguaje. En 2024, una investigación halló que, en ciertas pruebas, las preguntas amables generaban respuestas apenas más correctas que las solicitudes directas.

Llamó la atención la aparición de diferencias culturales: en inglés y chino, la cortesía podía favorecer el rendimiento, pero en japonés, un exceso de formalismo incluso disminuía la calidad de las respuestas.

Otras pruebas realizadas con versiones anteriores de ChatGPT revelaron resultados opuestos: el insulto y la rudeza arrojaban a veces respuestas más precisas.

La comunidad científica, según el medio citado, destaca que la evidencia sigue siendo insuficiente y que la evolución constante de estos sistemas impide llegar a conclusiones definitivas.

Para los expertos, variables como la cultura, el idioma y las actualizaciones frecuentes de los modelos dificultan la validez de estos hallazgos. En consecuencia, sugieren no depender ni de la cortesía ni de la agresión como rutas para lograr mayor precisión.

Más allá de la precisión: cortesía y efectos en el usuario

Aunque la cortesía digital no produzca mejoras tangibles en las respuestas de los modelos de lenguaje, sigue siendo común por motivos humanos.

Una encuesta de 2025 mostró que el 70% de los usuarios interactúa amablemente con los chatbots, ya sea por convicción o por considerarlo la actitud adecuada.

Schulhoff sostiene en BBC Future que emplear fórmulas como “por favor” o “gracias” no potencia el desempeño técnico de la IA, pero puede generar comodidad y favorecer el aprovechamiento de la herramienta para el propio usuario.

Así, aunque la IA permanezca indiferente a nuestro lenguaje, el modo en que le hablamos revela cómo queremos relacionarnos con la tecnología y refuerza hábitos que van más allá de la máquina.

Fuente: Infobae

Artículos Relacionados

Volver al botón superior