A Meta está ampliando a aplicação automatizada de regras de idade em suas plataformas
A Meta está reforçando os sistemas de verificação e estimativa de idade no Instagram e no Facebook após casos repetidos em que crianças supostamente contornaram verificações existentes com truques simples, incluindo o uso de um bigode falso. De acordo com o texto-fonte fornecido, a empresa está implementando ferramentas de IA que buscam sinais relacionados à idade em publicações, comentários, biografias, descrições, imagens e vídeos para identificar usuários com menos de 13 anos e remover suas contas.
A mudança reflete um problema mais amplo do setor: a idade informada pelo próprio usuário é fácil de manipular, enquanto as plataformas online enfrentam pressão crescente para provar que suas salvaguardas para menores funcionam na prática, e não apenas no papel. A resposta da Meta é usar um conjunto mais amplo de sinais, combinando pistas textuais com o que chama de indícios visuais, como altura e estrutura óssea.
Como o sistema funciona
A Meta diz que as novas ferramentas analisam indicadores contextuais que podem revelar a idade de um usuário. Isso inclui referências a anos escolares ou comemorações de aniversário em textos, além da análise automatizada de imagens compartilhadas. A empresa faz questão de afirmar que o sistema não é reconhecimento facial e não foi projetado para identificar pessoas específicas. Em vez disso, ele foi criado para estimar se uma conta provavelmente está sendo usada por alguém mais jovem do que as regras da plataforma permitem.
Se a Meta suspeitar que uma conta está sendo operada por uma criança com menos de 13 anos, a conta será suspensa. O usuário deverá então revalidar sua idade por meio dos procedimentos da empresa para recuperar o acesso. Se isso não acontecer, o perfil será excluído permanentemente.
Por que a Meta está mudando de rumo
O gatilho relatado é simples: os controles tradicionais de idade se mostraram fáceis demais de contornar. Quando um sistema depende fortemente do que os usuários digitam em um formulário, ele funciona apenas tão bem quanto a honestidade de quem o preenche. Para crianças motivadas a entrar em espaços sociais voltados para adultos ou adolescentes, a barreira pode ser trivial. O texto-fonte diz que centenas de crianças conseguiram burlar as restrições, destacando a fragilidade prática dos métodos existentes.
A nova abordagem da Meta faz parte do que o artigo descreve como uma estratégia de segurança baseada em IA. Em vez de confiar em uma única data de nascimento declarada, a empresa tenta inferir a idade a partir do comportamento, do conteúdo e da apresentação física. Isso pode melhorar as taxas de detecção, mas também introduz questões mais complexas sobre erro, privacidade e processos de recurso.
Contas de adolescentes também fazem parte do plano
A política não se limita a crianças com menos de 13 anos. A Meta também afirma que vai expandir a tecnologia que identifica usuários de 13 a 15 anos e os coloca automaticamente em contas para adolescentes. Essas contas vêm com restrições de conteúdo e controles parentais ativados por padrão, o que a empresa apresenta como uma base mais segura para adolescentes mais jovens.
Essa é uma distinção importante. A empresa não está apenas tentando remover usuários menores de idade proibidos. Ela também busca enquadrar adolescentes elegíveis em um ambiente de produto mais restritivo. Na prática, a Meta está usando a inferência automatizada de idade tanto para exclusão quanto para atribuição de nível de produto.
Os trade-offs à frente
O benefício óbvio é uma aplicação mais forte das regras da plataforma que já existem. Se o sistema funcionar bem, menos crianças com menos de 13 anos permanecerão em serviços que não deveriam hospedá-las, e mais adolescentes mais jovens acabarão com proteções padrão mais rígidas.
Mas o custo de uma aplicação automatizada mais forte é o risco de falsos positivos. Qualquer sistema que estime idade a partir de texto e imagens pode cometer erros, especialmente em conteúdos ambíguos ou em pessoas cuja aparência não se encaixa nas expectativas do modelo. A exigência da Meta de que usuários suspensos revalidem a idade cria uma rede de segurança, mas também transfere o ônus para usuários legítimos que podem, de repente, ter de provar quem são.
Um sinal maior para o setor
A Meta começou a usar tecnologia de verificação de idade para usuários do Instagram em 2024 nos Estados Unidos, Austrália, Canadá e Reino Unido, segundo o texto-fonte. A expansão mais recente mostra a empresa indo além da verificação no cadastro ou sob demanda e avançando para uma vigilância contínua dos sinais da conta para estimar a idade ao longo do tempo.
Isso representa uma mudança operacional significativa. Sugere que as principais plataformas estão cada vez mais dispostas a usar IA não apenas para moderar conteúdo, mas também para classificar as pessoas que o produzem. Se o sistema da Meta se mostrar eficaz, métodos semelhantes poderão se espalhar pelo setor de mídia social. Se se mostrar sujeito a erros, isso poderá intensificar o escrutínio regulatório sobre como as plataformas tratam identidade, menores de idade e inferências próximas à biometria.
De qualquer forma, a mensagem é clara: controles de idade baseados apenas na informação declarada já não bastam para plataformas sob pressão legal, política e pública para manter crianças fora ou colocá-las em experiências mais restritas.
Este artigo é baseado na cobertura da Wired. Leia o artigo original.


