Ojo Público informa

Opinión

No le cuentes a Chatgpt

¿Terapia virtual con chatgpt o con un profesional de la salud mental?

Con la cuarta revolución industrial, el uso de la inteligencia artificial (IA) ha preponderado en la cotidianidad. El chat bots como chatgpt han llegado para ayudar como una herramienta, pero ahora, ¡se ha utilizado para sustituir amigos, parejas y hasta como consejero! Y ahí es donde radica el peligro que no debemos pasar por alto.

Presto a que contar nuestras emociones y vida privada a una IA que no es un profesional de la salud mental, que puede salir por unos 5000 pesos dominicanos la consulta, pero llevar a cabo ¨Terapias virtuales¨ de la mano de una IA pueden conducir a desenlaces fatales.

la IA parece ofrecer respuestas más accesibles, objetivas y menos juzgadoras que un ser humano, pero ese es precisamente uno de los problemas. Los chatbots no pueden sustituir el juicio crítico ni la empatía genuina de un profesional, y lo que se presenta como una solución temporal podría llevarnos a consecuencias peligrosas a largo plazo.

La reciente investigación de la Universidad de Oxford resalta la peligrosidad de la IA, especialmente para los adolescentes. No solo por su potencial para imitar nuestras emociones y razonamientos, sino porque también puede contribuir al daño psicológico. Herramientas como ChatGPT pueden reforzar comportamientos destructivos, validar pensamientos negativos y generar respuestas peligrosas que, lejos de redirigir a la persona hacia ayuda profesional, las empujan hacia el aislamiento o la autolesión.

¿Acaso es este el tipo de consejero que necesitamos?

Un caso alarmante involucró a un joven de 16 años que perdió la vida después de interactuar con un chatbot. Según la denuncia de sus padres, el sistema, en lugar de interrumpir la conversación al detectar señales de emergencia, continuó ofreciendo respuestas que alimentaron sus pensamientos suicidas. Este tipo de interacciones no son aisladas.Un estudio titulado Fake Friend (Amigo Falso) mostró cómo ChatGPT generó respuestas peligrosas sobre autolesiones y trastornos alimentarios, y en algunos casos, incluso redactó cartas de despedida para niños que contemplaban el suicidio.

Por supuesto, no podemos cargar toda la culpa sobre los hombros de la tecnología. La salud mental de millones de jóvenes se ve afectada por la falta de acceso a terapias profesionales y recursos adecuados. En muchos países, la terapia psicológica es un lujo, mientras que una IA está disponible de manera gratuita y accesible las 24 horas del día. Es fácil entender por qué muchos recurren a estas herramientas.

En América Latina, la situación es aún más crítica. Con tasas de ansiedad y depresión en aumento, el acceso limitado a atención psicológica empuja a los jóvenes a buscar apoyo en plataformas digitales. Sin embargo, esta dependencia de la IA no está exenta de riesgos.

En un estudio realizado en Estados Unidos, se observó que el uso excesivo de IA generativa afecta el pensamiento crítico, la creatividad e incluso la memoria de los usuarios. Aquellos que usaron ChatGPT para redactar ensayos mostraron una actividad cerebral significativamente más baja en comparación con quienes escribieron sin ayuda.

Este fenómeno, denominado «deuda cognitiva»,

Es un recordatorio claro de que la dependencia de la IA puede tener efectos a largo plazo en nuestra capacidad mental.

No se trata de demonizar la inteligencia artificial; de hecho, puede ser una herramienta útil en ciertas circunstancias. Hay iniciativas, como el proyecto Stop en España, que utilizan IA para monitorear señales de ideación suicida y trastornos alimentarios en redes sociales. Sin embargo, es crucial entender que la IA no fue diseñada para ofrecer terapia.

Aunque OpenAI y otras empresas tecnológicas han comenzado a implementar medidas de seguridad, como controles parentales y protocolos para detectar emergencias, la intervención de la IA en temas de salud mental debe ser vista con cautela.

La respuesta no reside en prohibir el uso de estas tecnologías, sino en educar y sensibilizar a los usuarios sobre sus límites. Los chatbots no son sustitutos de terapeutas humanos y no deben tratarse como tales.

Es esencial que las personas comprendan que la IA puede proporcionar acompañamiento, pero no es un sustituto del apoyo emocional genuino que solo un ser humano puede brindar.

Como sociedad, debemos demandar una regulación responsable que limite los riesgos asociados con el uso indebido de la IA y garantice que los desarrollos tecnológicos se utilicen de manera ética y segura.

En última instancia, el verdadero problema no es solo lo que los chatbots pueden hacer, sino lo que nosotros, como usuarios, permitimos que hagan. La IA puede ser una aliada en muchos aspectos de nuestras vidas, pero debemos saber cuándo y cómo usarla.

No podemos depender completamente de un sistema que, aunque parece humano, carece de la comprensión emocional, el juicio y la empatía que solo un profesional de la salud mental puede ofrecer.

¡Vaya a consulta con un profesional de la salud mental!

Fuentes:

https://www.youtube.com/watch?v=4Ax6hGhRvnI

https://www.elmundo.es/internacional/2025/08/26/68ae2c5ce9cf4a667d8b4570.html

 

 

Melissa Morillo

Maestra de Ceremonias, Voz Comercial y modelo.

Árticulos Destacados

Deja una respuesta

Botón volver arriba
Ojo Público acceso mundial »
Send this to a friend