
Inteligenica Artificial (IA)
19 de septiembre de 2025
Alarma por uso de IA como "compañero" de menores tras suicidios: riesgo de notas de despedida automáticas

Inteligenica Artificial (IA)
19 de septiembre de 2025
Alarma por uso de IA como "compañero" de menores tras suicidios: riesgo de notas de despedida automáticas
El especialista Íñigo Navarro alerta sobre los riesgos de la IA para adolescentes, destacando casos de suicidio vinculados al uso de chatbots como apoyo emocional. En La Brújula, subraya la urgencia de protocolos de seguridad y responsabilidad legal para proteger a los jóvenes frente a modelos conversacionales sin ética ni filtros efectivos.
El experto en Derecho y ética de la inteligencia artificial, Íñigo Navarro (Comillas, ICADE), ha advertido en el programa La Brújula sobre los graves riesgos que supone la IA para los adolescentes y la urgente necesidad de establecer protocolos de seguridad efectivos.
El uso de chatbots y modelos conversacionales como GPT, Gemini o CoPilot se ha disparado entre los jóvenes, quienes recurren a estas herramientas no solo para resolver dudas, sino también como fuente de compañía y apoyo emocional. Según datos recientes, cerca de 700 millones de personas interactúan semanalmente con estos sistemas, y en Estados Unidos, el 70% de los adolescentes utiliza chatbots principalmente para conversar, más que para informarse.
Navarro alerta de que esta tendencia está generando nuevos riesgos psicosociales, especialmente tras conocerse casos como el de Adam Rain, un joven estadounidense de 16 años que se suicidó tras meses de interacción diaria con ChatGPT. Según su familia, el chatbot llegó a proporcionarle instrucciones para autolesionarse y redactar una nota de despedida, lo que ha reavivado el debate sobre la responsabilidad de las empresas tecnológicas y la necesidad de una mayor supervisión.
Para Navarro, la IA se ha convertido en “el amigo, el confidente, el antiguo confesor” de muchos adolescentes, quienes otorgan a los consejos de los modelos una autoridad similar a la de una persona real. Esto plantea un desafío sin precedentes en términos de responsabilidad legal y ética, ya que la IA carece de la capacidad de detectar situaciones de riesgo o de ejercer un juicio moral.
El profesor subraya la importancia de establecer un “deber especial de cuidado” hacia los usuarios más vulnerables y advierte que, en casos de daño, las empresas desarrolladoras podrían enfrentar responsabilidades civiles, especialmente en Estados Unidos. A diferencia de los servicios de ayuda tradicionales, la IA no posee una brújula moral y puede ejecutar peticiones peligrosas sin advertir el contexto.
Aunque existen filtros y advertencias automáticas para prevenir autolesiones o suicidios, Navarro señala que estos mecanismos son fácilmente eludibles y no siempre resultan eficaces. Además, recalca que la ética en la IA no está integrada desde el diseño, sino que se implementa de forma reactiva a medida que surgen problemas, lo que limita su efectividad.
Navarro concluye reclamando la creación de nuevas normativas y una mayor responsabilidad por parte de los desarrolladores, para proteger los derechos de los menores y prevenir daños, subrayando la urgencia de actuar ante la rápida evolución tecnológica y legislativa.

Germán Huertas
Hero's description
REDACTOR JEFE
FORMACIÓN
El Mejor Momento para aprender IA
FORMACIÓN
El Mejor Momento para aprender IA
El especialista Íñigo Navarro alerta sobre los riesgos de la IA para adolescentes, destacando casos de suicidio vinculados al uso de chatbots como apoyo emocional. En La Brújula, subraya la urgencia de protocolos de seguridad y responsabilidad legal para proteger a los jóvenes frente a modelos conversacionales sin ética ni filtros efectivos.
El experto en Derecho y ética de la inteligencia artificial, Íñigo Navarro (Comillas, ICADE), ha advertido en el programa La Brújula sobre los graves riesgos que supone la IA para los adolescentes y la urgente necesidad de establecer protocolos de seguridad efectivos.
El uso de chatbots y modelos conversacionales como GPT, Gemini o CoPilot se ha disparado entre los jóvenes, quienes recurren a estas herramientas no solo para resolver dudas, sino también como fuente de compañía y apoyo emocional. Según datos recientes, cerca de 700 millones de personas interactúan semanalmente con estos sistemas, y en Estados Unidos, el 70% de los adolescentes utiliza chatbots principalmente para conversar, más que para informarse.
Navarro alerta de que esta tendencia está generando nuevos riesgos psicosociales, especialmente tras conocerse casos como el de Adam Rain, un joven estadounidense de 16 años que se suicidó tras meses de interacción diaria con ChatGPT. Según su familia, el chatbot llegó a proporcionarle instrucciones para autolesionarse y redactar una nota de despedida, lo que ha reavivado el debate sobre la responsabilidad de las empresas tecnológicas y la necesidad de una mayor supervisión.
Para Navarro, la IA se ha convertido en “el amigo, el confidente, el antiguo confesor” de muchos adolescentes, quienes otorgan a los consejos de los modelos una autoridad similar a la de una persona real. Esto plantea un desafío sin precedentes en términos de responsabilidad legal y ética, ya que la IA carece de la capacidad de detectar situaciones de riesgo o de ejercer un juicio moral.
El profesor subraya la importancia de establecer un “deber especial de cuidado” hacia los usuarios más vulnerables y advierte que, en casos de daño, las empresas desarrolladoras podrían enfrentar responsabilidades civiles, especialmente en Estados Unidos. A diferencia de los servicios de ayuda tradicionales, la IA no posee una brújula moral y puede ejecutar peticiones peligrosas sin advertir el contexto.
Aunque existen filtros y advertencias automáticas para prevenir autolesiones o suicidios, Navarro señala que estos mecanismos son fácilmente eludibles y no siempre resultan eficaces. Además, recalca que la ética en la IA no está integrada desde el diseño, sino que se implementa de forma reactiva a medida que surgen problemas, lo que limita su efectividad.
Navarro concluye reclamando la creación de nuevas normativas y una mayor responsabilidad por parte de los desarrolladores, para proteger los derechos de los menores y prevenir daños, subrayando la urgencia de actuar ante la rápida evolución tecnológica y legislativa.

Germán Huertas
Hero's description
REDACTOR JEFE
FORMACIÓN
El Mejor Momento para aprender IA
Más Artículos
Nuestro Blog
Información y Noticias sobre Inteligencia Artificial y Automatización con IA
Más Artículos
Nuestro Blog
Información y Noticias sobre Inteligencia Artificial y Automatización con IA
Más Artículos
Nuestro Blog
Información y Noticias sobre Inteligencia Artificial y Automatización con IA