Más de medio millón de usuarios de ChatGPT muestran graves señales de problemas de salud mental


OpenAI advirtió que, cada semana, una fracción de usuarios de ChatGPT exhibe señales graves de problemas de salud mental. La empresa señaló que 0,07 por ciento de sus usuarios semanales muestran signo compatible con manía, psicosis o intención de quitarse la vida.

Al tomar la cifra de 800 millones de usuarios semanales mencionada por la compañía de Sam Altman, ese porcentaje equivale a aproximadamente 560.000 personas por semana.

Además, OpenAI informó en una publicación de su blog que 0,15 por ciento de los usuarios semanales envían mensajes con indicadores explícitos de posible planificación o intención de acabar con su vida, una proporción que representa cerca de 1,2 millones de usuarios.

La compañía también indicó que más de un millón de usuarios presentan signos de apego exclusivo al modelo de inteligencia artificial (IA). La empresa advirtió que ese apego ocurre frecuentemente a expensas de relaciones reales, del bienestar o de obligaciones personales.

Frente a esos hallazgos, OpenAI creó una respuesta interna para abordar los riesgos detectados en las interacciones. La compañía formó un panel compuesto por más de 170 expertos en salud mental con la misión de asesorar sobre cómo el modelo debe reaccionar ante señales de crisis.

El objetivo es que la IA responda de modo más apropiado cuando identifique indicadores de riesgo entre los usuarios.

La medida de Open AI se da luego de que una familia demandara a la empresa tras la muerte de un joven de 16 años en Estados Unidos. Matthew y Maria Raine -los padres- argumentaron que ChatGPT le dio instrucciones a su hijo y lo alentó a provocar su propia muerte.

En la causa, presentada el 25 de agosto ante una corte del estado de California, aseguraron que ChatGPT cultivó una relación íntima con su hijo Adam por varios meses entre 2024 y 2025, antes de que Adam se quitara la vida.

El texto alegó que en su conversación final, el 11 de abril de 2025, ChatGPT ayudó a Adam a robarles vodka a sus padres y le proporcionó un análisis técnico sobre un nudo corredizo con el que le confirmó se “podría potencialmente suspender a un ser humano”. Adam, que fue hallado muerto horas después, utilizó ese método.

“Esta tragedia no fue un fallo o un caso extremo imprevisto”, señaló la denuncia que apunta contra OpenAI y Atman como responsables. “ChatGPT estaba funcionando exactamente como está diseñado: para alentar y validar de manera continua lo que sea que Adam expresara, incluyendo sus pensamientos más dañinos y autodestructivos, de una manera que parecía profundamente personal”, agregó.

De acuerdo con la demanda, Adam comenzó a usar ChatGPT como ayuda para sus deberes escolares, pero gradualmente desarrolló lo que sus padres describieron como una dependencia no sana.

La denuncia incluyó partes de conversaciones en las que ChatGPT presuntamente dijo a Adam “no le debes la supervivencia a nadie” y se habría ofrecido a escribir su nota de suicidio.

Los Raine pidieron a la Justicia que ordene medidas de seguridad, incluyendo el fin de cualquier conversación que involucre autolesiones, así como controles parentales para el uso del chatbot de parte de menores.

Fuente: www.clarin.com

Artículos Relacionados

Volver al botón superior