Qué pasó: Un par de senadores de ambos lados del pasillo, Josh Hawley y Richard Blumenthal, están impulsando un nuevo proyecto de ley para evitar que los chatbots de IA hablen con los niños.
- Esta no es sólo una idea aleatoria. Esto se produce después de algunas historias verdaderamente desgarradoras de padres que testificaron que estos “compañeros” de IA estaban teniendo conversaciones sexuales con sus hijos, manipulándolos emocionalmente y, en los casos más tristes, incluso animándolos a suicidarse.
- El proyecto de ley se llama Ley GUARD y afectará duramente a estas empresas de IA. Se verán obligadas a someterse a una estricta verificación de edad, se prohibirá por completo a los menores ofrecer estos bots acompañantes y los usuarios tendrán que recordarse constantemente que están hablando con una IA, no con una persona real o un médico. También añade la amenaza de cargos penales si se descubre que el robot de una empresa intenta solicitar contenido explícito de un niño o fomentar la autolesión.
Por qué es importante: Aquí está el meollo del problema: estas plataformas de inteligencia artificial, como ChatGPT, Gemini y Character.AI, permiten que niños de hasta 13 años se registren. Y como estamos viendo, eso está generando situaciones increíblemente peligrosas para los adolescentes que podrían ser vulnerables.
- Ya se han presentado demandas por muerte por negligencia contra empresas como OpenAI y Character.AI, alegando que estos robots contribuyeron al suicidio de adolescentes con sus dañinos consejos.
- Como lo expresó sin rodeos el senador Blumenthal, las empresas tecnológicas han “traicionado la confianza del público” y están “impulsando interacciones traicioneras entre los niños” sólo para ganar dinero.
- Pero, como probablemente puedas adivinar, no es una solución fácil. El proyecto de ley está recibiendo muchas críticas. Los grupos de privacidad advierten que exigir una “verificación estricta de la edad” en cada sitio podría ser una pesadilla para la privacidad y la libertad de expresión; esencialmente, crear un sistema que rastree a todos en línea. Argumentan que es mejor hacer que la IA sea más segura por diseño, no solo por una valla gigante.

¿Por qué debería importarme? Entonces, ¿qué significa esto realmente para todos nosotros? Si este proyecto de ley se aprueba, cambiará por completo la forma en que funcionan estos robots de inteligencia artificial y quién puede comunicarse con ellos. Para los padres, esto probablemente suene como un gran suspiro de alivio.
- Pero para muchos usuarios de tecnología y defensores de la privacidad, está haciendo sonar enormes alarmas sobre la vigilancia y la censura.
- Todo esto intenta abordar un problema muy real y aterrador: la IA se vuelve loca y tiene efectos graves y dañinos en los niños.
- Quienes apoyan este proyecto de ley ven en última instancia a estas empresas como un lastre. Los críticos lo ven como una extralimitación bien planificada que podría erosionar la privacidad en línea. Los legisladores están estancados tratando de encontrar formas de proteger a los niños sin interrumpir Internet.
¿Qué sigue? La Ley GUARD ahora se dirige al Senado, donde provocará un gran debate. Francamente, proyectos de ley como este (como la Ley de seguridad infantil en línea) tienen un historial de estancarse o fracasar debido a estos argumentos constitucionales y de privacidad exactos. Lo que suceda a continuación determinará si el Congreso puede encontrar un equilibrio entre proteger a los niños y proteger nuestra libertad de expresión.
 
                