Inteligencia Artificial (IA)

19 de septiembre de 2025

ChatGPT revela novedades clave sobre controles parentales: guía completa y actualizaciones 2025

Inteligencia Artificial (IA)

19 de septiembre de 2025

ChatGPT revela novedades clave sobre controles parentales: guía completa y actualizaciones 2025

ChatGPT refuerza la protección de menores con controles parentales, detección de edad y filtros para temas sensibles, buscando un equilibrio entre libertad digital y seguridad adolescente. OpenAI avanza en medidas que priorizan la privacidad y el bienestar juvenil, respondiendo a la creciente preocupación sobre el impacto de la IA en la salud mental de los jóvenes.

ChatGPT vuelve a estar en el centro del debate sobre el uso de inteligencia artificial por parte de menores. El desafío de equilibrar la libertad digital con la seguridad adolescente sigue siendo uno de los grandes dilemas de la era tecnológica. OpenAI, consciente de la presión social y mediática, comienza a definir medidas concretas para responder a esta tensión, buscando restaurar la confianza tras las críticas por la falta de controles adecuados hasta ahora.

Hace dos semanas adelantamos en AcademyNoCode.com que ChatGPT implementaría controles parentales: vinculación de cuentas entre padres e hijos, límites de funciones según la edad, alertas ante señales de crisis emocional y mayor control sobre la memoria e historial del chat. Ahora, OpenAI detalla su hoja de ruta y sitúa la protección de adolescentes como prioridad central en su servicio.

La compañía ha anunciado un sistema de detección de edad que restringe el acceso a menores de 18 años, ofreciéndoles una versión adaptada. Este entorno limita temas sensibles, especialmente los relacionados con sexualidad o autolesiones, y utiliza modelos diseñados para minimizar riesgos. El objetivo es claro: proporcionar una experiencia útil y segura, evitando que una consulta inocente exponga a los adolescentes a información inadecuada o peligrosa.

Para los adultos, OpenAI contempla la verificación mediante documento de identidad, aunque aún no ha especificado el calendario ni los detalles técnicos del proceso. Esto pone en primer plano la importancia de la privacidad y la gestión de datos, aspectos sobre los que la empresa deberá ofrecer transparencia: criterios de verificación, almacenamiento, duración y auditoría serán claves para mantener la confianza de los usuarios.

El plan de protección incluye también alertas automáticas a los padres si el sistema detecta signos de angustia en un menor. Si no es posible contactar con los progenitores, se prevé la notificación a las autoridades competentes. Aunque la intención es crear una red de seguridad adicional, quedan por definir aspectos cruciales como los umbrales de activación, la intervención humana y las garantías contra falsos positivos, elementos que determinarán el impacto real de la medida.

Este movimiento no surge en el vacío. El caso de Adam Raine y la demanda presentada por su familia han intensificado el escrutinio sobre el papel de la IA en la salud mental juvenil. En este contexto, el anuncio de OpenAI no cierra el debate, pero marca un avance significativo: controles parentales efectivos, filtros de edad diferenciados y opciones de verificación para adultos, todo bajo un compromiso explícito con la privacidad.

Es fundamental que este nuevo enfoque no convierta a ChatGPT en un laberinto de permisos, sino en una herramienta valiosa y accesible que proteja a los más vulnerables. La utilidad para adolescentes se medirá tanto por su capacidad de prevenir riesgos como por su potencial para ofrecer información clara y acceso seguro a recursos de ayuda. Si OpenAI logra este equilibrio, la conversación sobre IA y menores podrá evolucionar del miedo a la oportunidad: cómo aprovechar el potencial de la tecnología sin renunciar a la protección que una sociedad responsable debe garantizar.

Germán Huertas

Investigador Tecnológico y Pensador Independiente. #NoCode #IA

REDACTOR JEFE

IA

Automatización, Marketing, Desarrollo webs y apps.

Únete a AcademyNoCode y Domina las Habilidades del Mañana

FORMACIÓN

Master

100% PRÁCTICA

Aprenderás creando proyectos reales paso a paso. Olvídate de pasar horas de clases de teoría aburrida.

Aquí aprenderás haciendo desde el primer día.

Diseños

Personalizamos

Calidad

Rebeldes

Somos Creativos

Innovamos

Relaciónes Largo Plazo

Experiencias Positivas

Sinceridad

Pasión

Te Ayudamos

no necesitas experiencia

100%

NoCODE

no necesitas experiencia

100%

NoCODE

ChatGPT refuerza la protección de menores con controles parentales, detección de edad y filtros para temas sensibles, buscando un equilibrio entre libertad digital y seguridad adolescente. OpenAI avanza en medidas que priorizan la privacidad y el bienestar juvenil, respondiendo a la creciente preocupación sobre el impacto de la IA en la salud mental de los jóvenes.

ChatGPT vuelve a estar en el centro del debate sobre el uso de inteligencia artificial por parte de menores. El desafío de equilibrar la libertad digital con la seguridad adolescente sigue siendo uno de los grandes dilemas de la era tecnológica. OpenAI, consciente de la presión social y mediática, comienza a definir medidas concretas para responder a esta tensión, buscando restaurar la confianza tras las críticas por la falta de controles adecuados hasta ahora.

Hace dos semanas adelantamos en AcademyNoCode.com que ChatGPT implementaría controles parentales: vinculación de cuentas entre padres e hijos, límites de funciones según la edad, alertas ante señales de crisis emocional y mayor control sobre la memoria e historial del chat. Ahora, OpenAI detalla su hoja de ruta y sitúa la protección de adolescentes como prioridad central en su servicio.

La compañía ha anunciado un sistema de detección de edad que restringe el acceso a menores de 18 años, ofreciéndoles una versión adaptada. Este entorno limita temas sensibles, especialmente los relacionados con sexualidad o autolesiones, y utiliza modelos diseñados para minimizar riesgos. El objetivo es claro: proporcionar una experiencia útil y segura, evitando que una consulta inocente exponga a los adolescentes a información inadecuada o peligrosa.

Para los adultos, OpenAI contempla la verificación mediante documento de identidad, aunque aún no ha especificado el calendario ni los detalles técnicos del proceso. Esto pone en primer plano la importancia de la privacidad y la gestión de datos, aspectos sobre los que la empresa deberá ofrecer transparencia: criterios de verificación, almacenamiento, duración y auditoría serán claves para mantener la confianza de los usuarios.

El plan de protección incluye también alertas automáticas a los padres si el sistema detecta signos de angustia en un menor. Si no es posible contactar con los progenitores, se prevé la notificación a las autoridades competentes. Aunque la intención es crear una red de seguridad adicional, quedan por definir aspectos cruciales como los umbrales de activación, la intervención humana y las garantías contra falsos positivos, elementos que determinarán el impacto real de la medida.

Este movimiento no surge en el vacío. El caso de Adam Raine y la demanda presentada por su familia han intensificado el escrutinio sobre el papel de la IA en la salud mental juvenil. En este contexto, el anuncio de OpenAI no cierra el debate, pero marca un avance significativo: controles parentales efectivos, filtros de edad diferenciados y opciones de verificación para adultos, todo bajo un compromiso explícito con la privacidad.

Es fundamental que este nuevo enfoque no convierta a ChatGPT en un laberinto de permisos, sino en una herramienta valiosa y accesible que proteja a los más vulnerables. La utilidad para adolescentes se medirá tanto por su capacidad de prevenir riesgos como por su potencial para ofrecer información clara y acceso seguro a recursos de ayuda. Si OpenAI logra este equilibrio, la conversación sobre IA y menores podrá evolucionar del miedo a la oportunidad: cómo aprovechar el potencial de la tecnología sin renunciar a la protección que una sociedad responsable debe garantizar.

Germán Huertas

Investigador Tecnológico y Pensador Independiente. #NoCode #IA

REDACTOR JEFE

IA

Automatización, Marketing, Desarrollo webs y apps.

Únete a AcademyNoCode y Domina las Habilidades del Mañana

FORMACIÓN

100% PRÁCTICA

Aprenderás creando proyectos reales paso a paso. Olvídate de pasar horas de clases de teoría aburrida.

Aquí aprenderás haciendo desde el primer día.

Diseños

Personalizamos

Calidad

Rebeldes

Somos Creativos

Innovamos

Relaciónes Largo Plazo

Experiencias Positivas

Sinceridad

Pasión

Te Ayudamos

no necesitas experiencia

100%

NoCODE

Más Artículos

Nuestro Blog

Información y Noticias sobre Inteligencia Artificial y Automatización con IA

Más Artículos

Nuestro Blog

Información y Noticias sobre Inteligencia Artificial y Automatización con IA