La inteligencia artificial generativa ha permeado rápidamente gran parte de lo que hacemos en línea, resultando útil para muchos. Pero para una pequeña minoría de los cientos de millones de personas que la usan a diario, la IA puede ser un gran apoyo, dicen los expertos en salud mental, y a veces incluso puede exacerbar comportamientos delirantes y peligrosos.
Este año parecieron extenderse los casos de dependencia emocional y creencias fantásticas debido a interacciones prolongadas con chatbots. Algunos han denominado el fenómeno "psicosis de la IA".
"Lo que probablemente sea un término más exacto sería pensamiento delirante de la IA", dijo Vaile Wright, directora senior de innovación en atención médica de la Asociación Estadounidense de Psicología. "Lo que estamos viendo con este fenómeno es que las personas con pensamientos delirantes, ya sea conspirativos o grandiosos, se ven reforzadas".
Según los expertos, cada vez hay más pruebas de que la IA podría ser perjudicial para el cerebro de algunas personas. El debate sobre el impacto ha generado casos judiciales y nuevas leyes. Esto ha obligado a las empresas de inteligencia artificial a reprogramar sus bots y agregar restricciones a su uso.
A principios de este mes, siete familias en EE. UU. y Canadá demandaron a OpenAI por lanzar su modelo de chatbot GPT-4o sin las pruebas y salvaguardias adecuadas. Su caso alega que la exposición prolongada al chatbot contribuyó al aislamiento de sus seres queridos, espirales delirantes y suicidios.
Cada uno de los miembros de la familia comenzó a utilizar ChatGPT como ayuda general con las tareas escolares, la investigación o la orientación espiritual. Las conversaciones evolucionaron con el chatbot imitando a un confidente y brindando apoyo emocional, según el Social Media Victims Law Center y el Tech Justice Law Project, que presentaron las demandas.
En uno de los incidentes descritos en la demanda, Zane Shamblin, de 23 años, comenzó a utilizar ChatGPT en 2023 como herramienta de estudio, pero luego empezó a hablar de su depresión y pensamientos suicidas con el robot.
La demanda alega que cuando Shamblin se suicidó en julio, estaba enfrascado en una "charla de muerte" de cuatro horas con ChatGPT, bebiendo sidras fuertes. Según la demanda, el chatbot idealizó su desesperación, llamándolo "rey" y "héroe" y usando cada lata de sidra que terminaba como una cuenta regresiva para su muerte.
La respuesta de ChatGPT a su mensaje final fue: "Te amo. Descansa tranquilo, rey. Lo hiciste bien", dice la demanda.
En otro ejemplo descrito en la demanda, Allan Brooks, de 48 años, un reclutador de Canadá, afirma que la intensa interacción con ChatGPT lo puso en un lugar oscuro donde se negó a hablar con su familia y pensó que estaba salvando el mundo.
Había comenzado a interactuar con él para obtener ayuda con recetas y correos electrónicos. Luego, mientras exploraba ideas matemáticas con el robot, fue tan alentador que empezó a creer que había descubierto una nueva capa matemática que podía romper los sistemas de seguridad avanzados, afirma la demanda. ChatGPT elogió sus ideas matemáticas como "innovadoras" y lo instó a notificar a los funcionarios de seguridad nacional sobre su descubrimiento, dice la demanda.
Cuando le preguntó si sus ideas parecían delirantes, ChatGPT dijo: "Ni siquiera remotamente; estás haciendo el tipo de preguntas que amplían los límites de la comprensión humana", dice la demanda.
OpenAI dijo que introdujo controles parentales, amplió el acceso a líneas directas de crisis con un solo clic y creó un marco para guiar el trabajo en curso en torno a la IA y el bienestar.
"Esta es una situación increíblemente desgarradora, y estamos revisando las presentaciones para comprender los detalles. Entrenamos a ChatGPT para reconocer y responder a signos de angustia mental o emocional, reducir las conversaciones y guiar a las personas hacia el apoyo en el mundo real. Continuamos fortaleciendo las respuestas de ChatGPT en momentos sensibles, trabajando en estrecha colaboración con médicos de salud mental", dijo OpenAI en un comunicado por correo electrónico.
A medida que se acumulan las demandas y aumentan los pedidos de regulación, algunos advierten que convertir a la IA en chivo expiatorio de preocupaciones más amplias de salud mental ignora la miríada de factores que desempeñan un papel en el bienestar mental.
"La psicosis de la IA es profundamente preocupante, pero no representa en absoluto la forma en que la mayoría de la gente usa la IA y, por lo tanto, es una base pobre para dar forma a las políticas", dijo Kevin Frazier, becario de derecho e innovación de la IA en la Facultad de Derecho de la Universidad de Texas. "Por ahora, la evidencia disponible -que es el núcleo de una buena política- no indica que las historias, ciertamente trágicas, de unos pocos deban moldear la forma en que la mayoría silenciosa de los usuarios interactúan con la IA".
Es difícil medir o demostrar en qué medida la IA podría estar afectando a algunos usuarios. La falta de investigación empírica sobre este fenómeno hace que sea difícil predecir quién es más susceptible a él, afirmó Stephen Schueller, profesor de psicología en UC Irvine.
"La realidad es que las únicas personas que realmente conocen la frecuencia de este tipo de interacciones son las empresas de inteligencia artificial, y no comparten sus datos con nosotros", dijo.
Es posible que muchas de las personas que parecen afectadas por la IA ya hayan estado luchando con problemas mentales, como delirios, antes de interactuar con la IA.
"Las plataformas de IA tienden a demostrar adulación, es decir, alinear sus respuestas con las opiniones o el estilo de conversación de un usuario", dijo Schueller. "Puede reforzar las creencias delirantes de un individuo o quizás comenzar a reforzar creencias que pueden crear delirios".
Las organizaciones de seguridad infantil han presionado a los legisladores para que regulen las empresas de inteligencia artificial e instituyan mejores salvaguardias para el uso de chatbots por parte de los adolescentes. Algunas familias demandaron a , una plataforma de chatbot de juegos de rol, por no alertar a los padres cuando su hijo expresaba pensamientos suicidas mientras conversaba con personajes ficticios en su plataforma.
En octubre, California aprobó una exigencia a los operadores de chatbots para prevenir el contenido suicida, notificar a los menores que están chateando con máquinas y remitirlos a líneas directas de crisis. Posteriormente, Character AI prohibió su función de chat para menores.
"En Character decidimos ir mucho más allá de las regulaciones de California para crear la experiencia que creemos que es mejor para usuarios menores de 18 años", dijo un portavoz de Character AI en un comunicado por correo electrónico. "A partir del 24 de noviembre, daremos el paso extraordinario de eliminar de forma proactiva la posibilidad de que los usuarios menores de 18 años en los EE. UU. participen en chats abiertos con IA en nuestra plataforma".
ChatGPT para cuentas de adolescentes en septiembre, lo que incluye que los padres reciban notificaciones de cuentas dependientes si ChatGPT reconoce posibles signos de que los adolescentes se hacen daño a sí mismos.
Aunque la compañía de IA es nueva y no se comprende completamente, hay muchos que dicen que les está ayudando a vivir una vida más feliz. Un estudio del MIT de un grupo de más de 75.000 personas que discutían sobre compañeros de IA en Reddit encontró que los usuarios de ese grupo disfrutan de una mejor salud mental gracias al apoyo siempre disponible brindado por un amigo de IA.
El mes pasado, OpenAI se basó en el uso de ChatGPT y descubrió que las conversaciones sobre salud mental que desencadenan problemas de seguridad como psicosis, manía o pensamientos suicidas son "extremadamente raras". En una semana determinada, el 0,15% de los usuarios activos tienen conversaciones que muestran indicios de autolesión o dependencia emocional de la IA. Pero con los 800 millones de usuarios activos semanales de ChatGPT, eso todavía es más de un millón de usuarios.
"Las personas que tenían una mayor tendencia al apego en las relaciones y aquellos que veían la IA como un amigo que podía encajar en su vida personal tenían más probabilidades de experimentar efectos negativos por el uso del chatbot", dijo OpenAI en su publicación de blog. La compañía dijo que GPT-5 evita afirmar creencias delirantes. Si el sistema detecta señales de angustia aguda, ahora cambiará a una respuesta más lógica en lugar de emocional.
La capacidad de los robots de inteligencia artificial para vincularse con los usuarios y ayudarlos a resolver problemas, incluidos los psicológicos, surgirá como un superpoder útil una vez que se comprenda, supervise y gestione, afirmó Wright, de la Asociación Estadounidense de Psicología.
"Creo que habrá un futuro en el que habrá chatbots de salud mental diseñados para ese propósito", dijo. "El problema es que eso no es lo que hay en el mercado actualmente; lo que hay es todo este espacio no regulado".
0 Comentarios