OpenAI acaba de actualizar su “especificación de modelo”, esencialmente su libro de reglas de IA, con un conjunto específico de políticas para menores de 18 años (U18) diseñadas para cambiar la forma en que ChatGPT habla con adolescentes de 13 a 17 años. Tienen diferentes necesidades emocionales y de desarrollo que requieren fuertes barreras de seguridad, especialmente cuando las conversaciones son pesadas o arriesgadas.
Un nuevo marco para la interacción de IA centrada en el estaño
Esta actualización explica exactamente cómo ChatGPT debe manejar a los usuarios adolescentes sin dejar de seguir las reglas generales que se aplican a todos los demás. OpenAI dice que el objetivo es crear una experiencia que se sienta segura y apropiada para la edad, con un enfoque en la prevención y la transparencia.
Estas tampoco son simplemente reglas aleatorias; Los principios U18 se basan en la ciencia del desarrollo y han sido validados por expertos externos, incluida la Asociación Estadounidense de Psicología.
El marco se basa en cuatro compromisos principales: poner la seguridad de los adolescentes por encima de todo (incluso si hace que la IA sea menos “útil” en el momento), empujar a los adolescentes hacia el apoyo del mundo real en lugar de depender de un chatbot, tratarlos como adolescentes reales en lugar de niños pequeños o adultos, y ser honesto acerca de las limitaciones de la IA.
Estas políticas formalizan cómo ChatGPT toma precauciones adicionales cuando surgen temas como autolesiones, roles sexuales, desafíos peligrosos, uso de sustancias, problemas de imagen corporal o solicitudes de privacidad sobre comportamientos inseguros.
Lo que significa para las familias y lo que viene después
Esto es importante porque la IA se está convirtiendo rápidamente en una herramienta estándar para que los jóvenes aprendan y encuentren respuestas. Sin límites claros, existe un peligro real de que los adolescentes recurran a la IA en un momento en el que realmente necesitan un padre, un médico o un consejero.
OpenAI afirma que estas nuevas reglas garantizan que cuando un chat cruce hacia un territorio peligroso, el asistente ofrecerá opciones seguras, establecerá límites estrictos y le pedirá al adolescente que busque un adulto de confianza. Si algo parece una emergencia inmediata, el sistema está diseñado para dirigirlos a la línea directa de crisis o a los servicios de emergencia.

Para los padres, ofrece un poco más de tranquilidad. OpenAI está vinculando estas nuevas políticas con su Teen Safety Blueprint y los controles parentales existentes. Las protecciones también se están ampliando para cubrir nuevas funciones como chats grupales, el navegador ChatGPT Atlas y la aplicación Sora, con recordatorios integrados para tomar descansos para que los niños no estén pegados a la pantalla.
De cara al futuro, OpenAI está comenzando a implementar una herramienta de predicción de edad para cuentas ChatGPT individuales. Este sistema intentará adivinar si el usuario es menor de edad y activará automáticamente estas protecciones juveniles.
Si esto no se confirma, el valor predeterminado será una experiencia U18 segura. La compañía dice que esta no es una solución “única”; Planean modificar estas protecciones basándose en nuevas investigaciones y comentarios, dejando en claro que la protección juvenil será un proyecto a largo plazo.











