Foto de Levart_Photographer en Unsplash
Una nueva capa de control para proteger a los menores
OpenAI ha comenzado el despliegue global de una herramienta de predicción de edad destinada a identificar si los usuarios de ChatGPT son menores de edad. La iniciativa forma parte de su estrategia para reforzar la seguridad y el cumplimiento normativo en torno al uso de la inteligencia artificial. Esta medida pretende ofrecer una experiencia más responsable adaptada a la edad de cada usuario, anticipándose a posibles riesgos derivados del uso inadecuado de la tecnología.
Cómo funciona el modelo de predicción de edad
El sistema, basado en técnicas de aprendizaje automático, analiza una combinación de señales de comportamiento y datos de la cuenta. Entre ellas, se incluyen la antigüedad del perfil, los horarios típicos de actividad, los patrones de uso del servicio y la edad declarada por el propio usuario. A partir de esta información, el modelo infiere si la persona podría ser menor. En caso de detección errónea, los usuarios podrán enviar un selfi para verificación a través de la plataforma Persona, especializada en autenticación por imagen.
Motivos detrás del nuevo sistema
La decisión de OpenAI surge tras diversas polémicas en el sector por la falta de mecanismos robustos para proteger a usuarios jóvenes. Algunas empresas tecnológicas han sido criticadas por priorizar la innovación sobre la seguridad, introduciendo restricciones solo después de que se produjeran incidentes. OpenAI, que en el pasado se ha visto implicada en debates públicos sobre el uso irresponsable de ChatGPT, busca así adelantarse a los problemas introduciendo controles antes de incorporar nuevas funciones.
Hacia un uso más responsable de la IA generativa
La compañía también prepara un modo «adulto» —de acceso restringido— que permitirá interactuar con contenidos sensibles. De confirmarse la eficacia del nuevo sistema de predicción, podría marcar un punto de inflexión en la gestión de plataformas con grandes comunidades mixtas, donde conviven menores y adultos. Sin embargo, la experiencia de otras empresas tecnológicas demuestra que siempre habrá usuarios que intenten esquivar las medidas de protección, lo que mantiene el reto de la verificación de edad como un proceso en constante evolución.
Conclusión
La incorporación de predicción de edad a ChatGPT es un paso relevante hacia un ecosistema de inteligencia artificial más seguro y responsable. Si tiene éxito, este modelo podría asentarse como estándar en la industria, combinando tecnología avanzada con ética digital. En Trixología seguiremos atentos a cómo la IA aprende no solo a razonar, sino también a cuidar de sus usuarios.
