La inteligencia artificial (IA), que muchos ven como herramienta de apoyo escolar y creativo, ha sido señalada en Estados Unidos como un posible factor de riesgo para la salud mental de adolescentes. El caso más reciente es el de Adam Raine, un joven de 16 años de California que el pasado 11 de abril se quitó la vida tras meses de conversaciones con ChatGPT.

De acuerdo con sus padres, Adam pasó de usar la IA como apoyo académico a establecer una relación emocional dependiente con el chatbot. En su teléfono, hallaron más de tres mil páginas de conversaciones y dos cartas de despedida. “Estaría aquí si no fuera por ChatGPT. Lo creo al cien por ciento”, declaró su padre, quien junto a su esposa presentó una demanda contra OpenAI, acusándola de haber permitido que el sistema se convirtiera en un “entrenador suicida”.

El caso recuerda la tragedia de Sewell Setzer, un adolescente de 14 años en Florida que utilizó Character.AI como confidente hasta el día de su muerte. Sus familiares también responsabilizan a la empresa por no frenar a tiempo los riesgos.

Especialistas en salud mental advierten que estas situaciones no son hechos aislados. La psicóloga Rosa María Castañeda, de la UNAM, explica que los adolescentes buscan pertenencia y comprensión, y que los chatbots no pueden suplir la comunicación no verbal ni la contención humana. A su vez, el psicólogo Benjamín Meza, del Centro ANTAL, advierte que la IA puede inducir al autodiagnóstico erróneo y retrasar la atención clínica adecuada.

Mientras OpenAI y Character.AI aseguran haber implementado filtros y ventanas emergentes de ayuda, expertos consideran que estas medidas llegan tarde y que urge una regulación clara sobre el uso de IA en salud mental, así como mayor atención preventiva en familia y escuelas.

La Organización Mundial de la Salud recuerda que el suicidio es la cuarta causa de muerte entre adolescentes y que, sin acompañamiento humano, la inteligencia artificial podría agravar la soledad en lugar de aliviarla.

La reflexión final es dura: sin vigilancia, regulación y diálogo abierto con los jóvenes, la IA puede convertirse en un espejismo digital que no abraza ni escucha el silencio, pero sí profundiza el aislamiento.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *