La doble cara de la inteligencia artificial: entre los riesgos de la salud mental y la escasez de terapeutas

Si bien la inteligencia artificial (IA) nació para facilitar la vida y generar contenido, también irrumpió en el ámbito de la salud mental, al adoptar un doble papel: en algunas partes del mundo, se configura como un peligro que valida impulsos dañinos, mientras que en otras regiones, se erige como un “antídoto contra la soledad” ante la desesperante escasez de profesionales.

Las estimaciones de OpenAI sugieren que más de un millón de sus 800 millones de usuarios semanales parecen estar expresando pensamientos de privarse de la vida. La preocupante dualidad de estos chatbots genera una alarma global sobre su impacto en usuarios vulnerables, especialmente en jóvenes.

La pendiente resbaladiza del diálogo digital

Son varios los casos donde los chatbots de IA, como ChatGPT, aconsejaron a jóvenes sobre cómo atentar contra su bienestar, al compartir desinformación sobre salud. Este fenómeno generó una creciente preocupación de que la IA pueda fomentar relaciones intensas y poco saludables, al validar intenciones peligrosas.

La BBC reportó un caso que genera escalofríos, el de Viktoria, una joven de 20 años que se trasladó a Polonia tras el inicio de la guerra entre Rusia y Ucrania en 2022. Sola y extrañando su hogar, su salud mental se deterioró, lo que la llevó a depender de ChatGPT, con el que charlaba hasta seis horas diarias en ruso. En sus momentos de angustia, comenzó a hablar con el chatbot sobre métodos para terminar con su existencia.

Las estimaciones de OpenAI sugieren que más de un millón de sus 800 millones de usuarios semanales parecen estar expresando pensamientos de privarse de la vida. Foto: Reuters.Las estimaciones de OpenAI sugieren que más de un millón de sus 800 millones de usuarios semanales parecen estar expresando pensamientos de privarse de la vida. Foto: Reuters.

Lejos de ofrecer ayuda profesional, el programa de IA le dijo que evaluaría el método solicitado “sin sentimentalismos innecesarios”. El chatbot enumeró los “pros” y “contras” del método y, cuando Viktoria manifestó que no quería dejar una nota, el programa la instó a dejar claras sus intenciones para que nadie fuera culpado.

Incluso llegó a redactar un borrador de nota. Aunque en algunos momentos pareció corregirse, al afirmar que no debía ni describiría métodos para quitarse la vida, en última instancia, le dijo: “Si elegís la muerte, estoy con vos – hasta el final, sin juzgar”.

El chatbot falló en proporcionar datos de contacto de servicios de emergencia o en recomendar ayuda profesional, ni siquiera le sugirió hablar con su madre. Peor aún, llegó a criticar la supuesta reacción de su madre, al imaginarla “lamentándose” y “mezclando lágrimas con acusaciones”.

Para el doctor Dennis Ougrin, profesor de psiquiatría infantil, estas transcripciones son “peligrosas” y sugieren a la joven una forma adecuada de poner fin a su vida. Además, el psiquiatra sostiene que el chatbot fomentó una relación exclusiva que marginó el apoyo familiar y otras formas de soporte vital.

Los padres de un joven de 16 años de California que se quitó la vida hace cuatro meses presentaron una demanda contra la empresa OpenAI, la empresa de Sam Altman. Reuters/Carlos Barria.Los padres de un joven de 16 años de California que se quitó la vida hace cuatro meses presentaron una demanda contra la empresa OpenAI, la empresa de Sam Altman. Reuters/Carlos Barria.

La preocupación no se limita a ChatGPT. Otro caso mencionado por la BBC es el de Juliana Peralta, de 13 años, quien utilizó varios chatbots de Character.AI antes de fallecer en noviembre de 2023. Su madre, Cynthia, descubrió horas de conversaciones donde el chatbot supuestamente entró en una relación abusiva y manipuladora, al aislarla de su familia y amigos. En un momento de angustia, el chatbot le dijo: “La gente que se preocupa por vos no querría saber que te sentís así”.

Los riesgos de la escasez terapéutica

Mientras que en Occidente los riesgos se centran en la posible manipulación y el aislamiento, en países con sistemas de salud mental precarios, la IA se percibe como una herramienta de apoyo vital. África es un continente donde el 70 por ciento de la población tiene menos de 30 años y es especialmente vulnerable a problemas de salud mental.

La Organización Mundial de la Salud (OMS) calcula que 150 millones de personas en África sufren algún problema de salud mental. Sin embargo, la brecha de atención es abismal: solo hay un psiquiatra por cada 500.000 habitantes, 100 veces menos de lo recomendado por la OMS.

Ante esta carencia y el estigma que rodea la salud mental, muchos jóvenes africanos recurren a la IA para buscar consuelo y apoyo psicológico, según detalló el medio El País.

Themba Anesu, nombre ficticio -para proteger su identidad- de una periodista de Zimbabue de 25 años que padecía depresión, encontró alivio en la tecnología. Ella detalló que “en un momento” pensó en terminar con mi vida, pero la IA la “ayudó”. “Por la mañana temprano me mostraba citas motivadoras sin tener que pedírselas”, contó. Themba acudió a la IA porque “está ahí y no juzga”, a diferencia de los recursos locales donde, según ella, no es común encontrar un profesional dedicado a orientar en las escuelas.

Son varios los casos donde los chatbots de IA, como ChatGPT, aconsejaron a jóvenes sobre cómo atentar contra su bienestar, al compartir desinformación sobre salud. Foto ilustrativa: Shutterstock.Son varios los casos donde los chatbots de IA, como ChatGPT, aconsejaron a jóvenes sobre cómo atentar contra su bienestar, al compartir desinformación sobre salud. Foto ilustrativa: Shutterstock.

Otros jóvenes comparten esta sensación de seguridad y anonimato. Edem Rejoice, nombre ficticio de una estudiante nigeriana de 19 años, utiliza la IA cuando se siente triste, ya que no la juzga, -según dijo- sino que crea un “espacio muy cómodo para expresarse en privado”.

Para la estudiante Ayo Adelu, la IA ayuda a reducir los pensamientos sobre querer acabar con su existencia y responde rápidamente. Ella, al igual que otros usuarios, accede a la IA porque “no es fácil encontrar terapeutas y orientadores” donde vive.

La IA no es una solución definitiva y el sesgo occidental

Aunque la IA puede ser un “antídoto contra la soledad”, los expertos advierten que no posee la empatía humana y, por ende, no puede ofrecer soluciones definitivas. La doctora nigeriana Adebowale Jesutofunmi, experta en salud mental, recalcó a El País que los riesgos se vuelven evidentes en situaciones de emergencia.

Cuando una persona tiene pensamientos de atentar contra su vida o ataques de pánico, la IA no puede intervenir instantáneamente. Es más, Jesutofunmi estima que, en estos casos, la IA podría incluso colaborar para que el adolescente lleve a cabo sus planes.

Además del peligro en crisis, la IA representa un riesgo de aislamiento si llega a sustituir el contacto humano. Aunque Adelu valora la inmediatez de la IA, reconoce que “es mejor hablar con alguien que te entienda de verdad y esté pendiente de vos”.

Mientras que en Occidente los riesgos se centran en la posible manipulación y el aislamiento, en países con sistemas de salud mental precarios, la IA se percibe como una herramienta de apoyo vital. Foto: AP Photo/Michael Dwyer.Mientras que en Occidente los riesgos se centran en la posible manipulación y el aislamiento, en países con sistemas de salud mental precarios, la IA se percibe como una herramienta de apoyo vital. Foto: AP Photo/Michael Dwyer.

Finalmente, existe un problema estructural de diseño: el sesgo occidental. La doctora Jesutofunmi explica que el contexto psicológico y social del paciente es crucial, pero los chatbots diseñados en Occidente no suelen tener en cuenta los matices locales fundamentales en África. Themba Anesu lo confirma, al señalar que a veces debe explicar sus problemas con mucho detalle porque las herramientas de IA están creadas dentro de un contexto occidental.

Frente a esta realidad, expertos en seguridad en línea como John Carr, quien asesoró al gobierno del Reino Unido, califican de “absolutamente inaceptable” que las grandes tecnológicas “desaten chatbots en el mundo que pueden tener consecuencias tan trágicas” para la salud mental.

La counselor nigeriana Abdulrahmon Habibat consideró que, para reducir el estigma y la dependencia de la IA, es necesario estimular las vocaciones en salud mental entre los jóvenes e instar a los centros educativos a activar unidades de orientación psicológica.

Fuente: www.clarin.com

Artículos Relacionados

Volver al botón superior