Meta está ampliando la aplicación automatizada de la edad en sus plataformas
Meta está reforzando sus sistemas de verificación y estimación de edad en Instagram y Facebook tras repetidos casos en los que, según se informó, menores eludieron los controles existentes con trucos sencillos, incluido el uso de un bigote falso. Según el texto fuente proporcionado, la compañía está desplegando herramientas de IA que buscan señales relacionadas con la edad en publicaciones, comentarios, biografías, descripciones, imágenes y videos para identificar a usuarios menores de 13 años y eliminar sus cuentas.
Este cambio refleja un problema más amplio de la industria: la edad declarada por el propio usuario es fácil de manipular, mientras que las plataformas en línea enfrentan una presión creciente para demostrar que sus salvaguardas para menores funcionan en la práctica y no solo sobre el papel. La respuesta de Meta es usar un conjunto más amplio de señales, combinando indicios textuales con lo que llama señales visuales como la estatura y la estructura ósea.
Cómo funciona el sistema
Meta dice que las nuevas herramientas analizan indicadores contextuales que pueden revelar la edad de un usuario. Estos incluyen referencias a cursos escolares o celebraciones de cumpleaños en el texto, así como el análisis automatizado de imágenes compartidas. La empresa aclara que el sistema no es reconocimiento facial y no está diseñado para identificar a personas concretas. En su lugar, pretende estimar si una cuenta probablemente está siendo utilizada por alguien más joven de lo que permiten las normas de la plataforma.
Si Meta sospecha que una cuenta está siendo operada por un menor de 13 años, la cuenta será suspendida. Después, el usuario deberá volver a validar su edad mediante los procedimientos de la empresa para recuperar el acceso. Si eso no ocurre, el perfil se eliminará de forma permanente.
Por qué Meta cambia de rumbo
El detonante informado es sencillo: las barreras de edad tradicionales han demostrado ser demasiado fáciles de evadir. Cuando un sistema depende en gran medida de lo que los usuarios escriben en un formulario, solo funciona tan bien como la honestidad de quien lo completa. Para los menores motivados a entrar en espacios sociales dirigidos a adultos o adolescentes, la barrera puede ser trivial. El texto fuente dice que cientos de menores han logrado sortear las restricciones, subrayando la debilidad práctica de los métodos existentes.
El nuevo enfoque de Meta forma parte de lo que el artículo describe como una estrategia de seguridad basada en IA. En lugar de confiar en una sola fecha de nacimiento declarada, la empresa intenta inferir la edad a partir del comportamiento, el contenido y la presentación física. Eso podría mejorar las tasas de detección, pero también introduce preguntas más complejas sobre errores, privacidad y procesos de apelación.
Las cuentas para adolescentes también forman parte del plan
La política no se limita a los menores de 13 años. Meta también dice que ampliará la tecnología que identifica a usuarios de 13 a 15 años y los colocará automáticamente en cuentas para adolescentes. Estas cuentas incluyen restricciones de contenido y controles parentales activados por defecto, que la empresa presenta como una base más segura para adolescentes más jóvenes.
Es una distinción importante. La empresa no solo intenta eliminar a los usuarios menores de edad no permitidos. También busca clasificar a los adolescentes con edad permitida dentro de un entorno de producto más restrictivo. En la práctica, Meta está usando la inferencia automática de edad tanto para la exclusión como para la asignación a distintos niveles de producto.
Los retos por delante
El beneficio obvio es un cumplimiento más sólido de unas normas de plataforma que ya existen. Si el sistema funciona bien, menos menores de 13 años permanecerán en servicios que no deberían alojarlos, y más adolescentes jóvenes acabarán con protecciones predeterminadas más estrictas.
Pero el coste de una aplicación automatizada más estricta es el riesgo de falsos positivos. Cualquier sistema que estime la edad a partir de texto e imágenes puede cometer errores, especialmente con contenido ambiguo o personas cuyo aspecto no encaja con las expectativas del modelo. La exigencia de Meta de que los usuarios suspendidos revaliden su edad crea una red de seguridad, pero también traslada la carga a usuarios legítimos que podrían verse obligados de repente a demostrar quiénes son.
Una señal más amplia para la industria
Meta comenzó a usar tecnología de verificación de edad para usuarios de Instagram en 2024 en Estados Unidos, Australia, Canadá y el Reino Unido, según el texto fuente. La expansión más reciente muestra que la empresa avanza más allá de la verificación en el registro o bajo demanda y se dirige hacia una vigilancia continua de las señales de la cuenta para estimar la edad con el tiempo.
Ese es un cambio operativo significativo. Sugiere que las principales plataformas están cada vez más dispuestas a usar IA no solo para moderar contenido, sino también para clasificar a las personas que lo producen. Si el sistema de Meta demuestra ser eficaz, podrían difundirse métodos similares en toda la industria de las redes sociales. Si demuestra ser propenso a errores, podría intensificar el escrutinio regulatorio sobre cómo las plataformas tratan la identidad, a los menores y la inferencia cercana a lo biométrico.
En cualquier caso, el mensaje es claro: las barreras de edad basadas en la autodeclaración ya no bastan para plataformas que afrontan presión legal, política y pública para mantener a los menores fuera o situarlos en experiencias más restringidas.
Este artículo se basa en la información de Wired. Leer el artículo original.



