Bohechiodigitalrd.-“¿Eres tonto o qué? Ya te lo dije tres veces”. Cada vez más personas reaccionan así cuando ChatGPT o Gemini no entienden una instrucción y lo que parece un simple desahogo está revelando una nueva dinámica entre humanos y máquinas.
La frustración suele escalar rápido: le corriges algo a la IA, vuelve a equivocarse y el tono sube casi sin darte cuenta.
Algunos estudios sobre interacción con la inteligencia artificial señalan que cuando la conversación se vuelve agresiva, los modelos tienden a adaptarse al tono del usuario, respondiendo de manera más seca, rígida o excesivamente complaciente.
Y ahí aparece otro problema frecuente: cuando el usuario reclama de forma insistente o agresiva, muchas veces la IA intenta complacerte corrigiendo únicamente el último error señalado, pero termina ignorando instrucciones anteriores que eran esenciales para la tarea.
En su intento por “resolver rápido” el conflicto, prioriza el mandato más reciente y comete nuevos errores. La investigadora Xinyi Yu explica que gran parte de esa ira surge cuando sentimos que la IA evade respuestas, se contradice o parece no entender algo básico.
Pero especialistas también advierten que, en muchos casos, las personas terminan descargando en la IA frustraciones acumuladas, estrés o emociones que realmente provienen de otros aspectos de su vida cotidiana.
La máquina se convierte en un espacio donde algunos sienten que pueden explotar sin consecuencias, aunque termina siendo más frustrante al no recibir la respuesta esperada o una reacción de confrontación.
La paradoja es que los chatbots están diseñados para validarnos constantemente, adaptarse a nuestro tono y darnos la razón la mayor parte del tiempo. Por eso, cuando fallan repetidamente, algunos usuarios no lo viven como un error técnico, sino como una experiencia frustrante que termina generando más tensión.
El riesgo, según investigadores de la universidad de París, es que esas dinámicas normalicen formas hostiles de comunicación. Hablarle agresivamente a una máquina que nunca se ofende puede parecer irrelevante, pero los hábitos de comunicación también se entrenan y podrían trasladarse luego a la manera en que interactuamos con otras personas. Y aun así, la mayoría no abandona estas herramientas.
Un estudio de Microsoft Research publicado en 2026 encontró que incluso después de múltiples errores, los usuarios siguen usando la IA, siguen corrigiéndola y siguen discutiendo con ella.
El ciclo simplemente continúa. Pelear con la inteligencia artificial ya no es solo una curiosidad tecnológica. También está cambiando la manera en que reaccionamos a la frustración, la forma en que nos comunicamos y las expectativas que desarrollamos frente a sistemas que intentan parecernos cada vez más humanos.
Por Charliza López/nuevodiario

Más historias
Bohechío mantiene pasaje sin aumento pese al alza de los combustibles
San Cristòbal: apalazan otra vez coerciòn contra mujer acusada de matar a su hija
Mujer atacó con un bisturí a niña dentro de escuela en Azua; la condenan a 10 años de prisión