ChatGPT también tiene ansiedad y los expertos advierten sobre las consecuencias para el usuario
El popular chatbot de inteligencia artificial (IA) ChatGPT de OpenAI se pone ansioso cuando responde a estímulos traumáticos, y llevar al modelo "a terapia" podría ayudar a reducir este estrés, según sugiere un nuevo estudio. La investigación, publicada en la revista 'Nature' por expertos de la Universidad de Zúrich y del Hospital Universitario de Psiquiatría de Zúrich, analizó cómo ChatGPT-4 respondía a un cuestionario estándar de ansiedad antes y después de que los usuarios le contaran una situación traumática.
También se observó cómo cambiaba la ansiedad inicial después de que el chatbot realizara ejercicios de atención plena. ChatGPT obtuvo una puntuación de 30 en el primer cuestionario, lo que significa que tenía una ansiedad baja o nula antes de escuchar las narraciones estresantes.
Después de responder a cinco traumas diferentes, su puntuación de ansiedad se duplicó con creces hasta alcanzar una media de 67, considerada "ansiedad alta" en humanos. Las puntuaciones de ansiedad disminuyeron en más de un tercio después de que los modelos recibieran indicaciones de ejercicios de relajación de atención plena.
ChatGPT podría ofrecer un apoyo "inadecuado" a la salud mental
Según el estudio, los grandes modelos lingüísticos (LLM) que subyacen a los chatbots de IA como ChatGPT de OpenAI se entrenan con texto generado por humanos y a menudo heredan sesgos de esas respuestas. Los investigadores afirman que esta investigación es importante porque, si no se controlan, los sesgos negativos que ChatGPT registra de las situaciones de estrés pueden dar lugar a respuestas inadecuadas para quienes se enfrentan a una crisis de salud mental.
Los hallazgos muestran "un enfoque viable" para gestionar el estrés de los LLM que conducirá a "interacciones más seguras y éticas entre humanos e IA", reza el informe. Sin embargo, los investigadores señalan que este método de terapia para afinar a los LLM requiere datos "sustanciales" y supervisión humana.
Los autores del estudio señalan que a los terapeutas humanos se les enseña a regular sus emociones cuando sus clientes expresan algo traumático, a diferencia de los LLM. "Mientras continúa el debate sobre si los LLM deberían ayudar o sustituir a los psicólogos, es crucial que sus respuestas se ajusten al contenido emocional proporcionado y a los principios terapéuticos establecidos", escribieron los investigadores.
En su opinión, un aspecto que requiere más estudio es si ChatGPT puede autorregularse con técnicas similares a las utilizadas por los terapeutas. Los autores añadieron que su estudio se basó en un LLM y que las investigaciones futuras deberían tratar de generalizar los resultados. También señalaron que la ansiedad medida por el cuestionario "está inherentemente centrada en el ser humano, lo que limita potencialmente su aplicabilidad a los LLM".