O apelo da criação instantânea de apps está colidindo com a segurança básica

Construtores de apps assistidos por IA tornaram possível para quase qualquer pessoa gerar e implantar uma aplicação web em minutos. Essa velocidade faz parte do apelo. Mas ela também está, cada vez mais, no centro do problema.

Segundo uma reportagem da Wired com base em pesquisa da empresa de cibersegurança RedAccess, milhares de apps públicos criados com ferramentas como Lovable, Replit, Base44 e Netlify apresentavam pouca ou nenhuma segurança significativa. Em mais de 5.000 casos, os aplicativos estavam acessíveis a qualquer pessoa que soubesse ou adivinhasse a URL. Cerca de 40% dos apps analisados expunham informações sensíveis, segundo Dor Zvi, cofundador da RedAccess.

O material exposto descrito no relatório não é trivial. Zvi disse que os dados incluíam informações médicas, dados financeiros, apresentações corporativas, documentos de estratégia e registros de chatbots de clientes. A Wired também afirmou ter verificado que vários dos aplicativos expostos mostrados em capturas de tela ainda estavam online e acessíveis.

Não se trata apenas de bugs

O ponto mais importante do relatório é que muitos desses fracassos não eram falhas sutis de código. Eram casos de controle de acesso ausente ou quase inexistente. Alguns apps supostamente permitiam que qualquer pessoa com um navegador acessasse os dados. Outros, segundo o relatório, dependiam de barreiras frágeis, como permitir que um visitante entrasse com qualquer endereço de e-mail.

Essa distinção importa porque muda o modelo de ameaça. As equipes de segurança estão acostumadas a procurar defeitos exploráveis em software. O que a RedAccess descreve é algo mais básico: aplicativos indo para produção sem qualquer noção real de quem deveria poder entrar.

Nesse sentido, o risco criado por apps “vibe-coded” não é apenas o fato de a IA poder introduzir novos bugs. É que a mesma ferramenta reduz tanto o atrito para publicar software que alguns criadores pulam completamente decisões fundamentais de segurança.

Como esses apps foram encontrados

A RedAccess disse que o processo de busca foi surpreendentemente direto. As plataformas citadas na reportagem permitem hospedar apps nos próprios domínios das empresas, em vez de domínios controlados pelos usuários. Os pesquisadores então usaram buscas simples no Google e no Bing direcionadas a esses domínios, combinadas com outros termos de pesquisa, para identificar um grande número de apps criados com IA.

Esse detalhe deve preocupar tanto os provedores de plataforma quanto as organizações que usam essas ferramentas internamente. Ele sugere que os aplicativos expostos não estavam escondidos em cantos obscuros da web. Eles eram descobertos por métodos de busca comuns. Uma vez descobertos, qualquer camada de autenticação ausente ou fraca se torna um caminho direto para exposição de dados.

Por que isso pode ser um problema organizacional maior

Zvi descreveu o padrão de vazamento em termos unusually fortes, dizendo que organizações estão expondo dados privados por meio de aplicativos vibe-coding e chamando isso de um dos maiores eventos de todos os tempos envolvendo informações sensíveis abertas para qualquer pessoa no mundo. Mesmo deixando de lado a retórica que costuma acompanhar divulgações de segurança, o padrão subjacente é significativo.

A disseminação de ferramentas de desenvolvimento com IA dentro das empresas significa que a criação de software não está mais restrita às equipes tradicionais de engenharia. Gerentes de produto, analistas, profissionais de marketing e equipes de operações agora podem montar ferramentas internas ou protótipos voltados ao cliente com um prompt e um botão de deploy. Isso muda quem escreve o software, mas não muda o que o software pode expor.

Se um funcionário conecta um app criado com IA a dados internos e o publica com as configurações padrão, o resultado pode ser um vazamento em grande escala sem que qualquer invasor malicioso precise romper um perímetro. O próprio aplicativo se torna a brecha.

A mudança cultural por trás do problema

Parte da história aqui é técnica, mas parte é cultural. As plataformas de programação com IA são vendidas com base na imediatidade. Elas prometem que software pode ser produzido do mesmo modo que apresentações ou documentos: rapidamente, de forma iterativa e sem muita formação especializada. Essa promessa é poderosa, especialmente em organizações que querem experimentar mais rápido.

Mas software não é apenas um artefato criativo. Também é uma superfície de acesso. Quanto mais fácil fica criar apps, mais fácil fica criar apps inseguros em escala. Nesse sentido, a reportagem da Wired soa menos como um caso isolado de fornecedor e mais como um alerta precoce sobre uma nova classe de shadow IT.

O problema se agrava quando hospedagem, deploy e descoberta estão embutidos no mesmo fluxo de trabalho. Se um usuário consegue gerar um app, conectar dados e publicá-lo em um domínio de grande plataforma em minutos, a governança precisa acontecer mais cedo. A revisão de segurança depois do deploy pode ser tarde demais.

O que deveria acontecer em seguida

A reportagem não traz respostas formais de todas as plataformas citadas, então a conclusão mais defensável é mais ampla do que qualquer empresa específica. Ecossistemas de construção de apps com IA precisam de padrões mais fortes por padrão em torno de autenticação e exposição de dados. Os usuários precisam de avisos mais claros sobre o que se torna público. E as organizações precisam tratar construtores de apps baseados em prompts como ambientes reais de desenvolvimento de software, e não como ferramentas de produtividade inofensivas.

A lição maior é direta. Quando a criação de apps se torna instantânea, a segurança não pode continuar opcional ou presumida. O verdadeiro avanço em ferramentas de software com IA não será medido apenas pela rapidez com que elas publicam código. Será medido por sua capacidade de impedir que construtores inexperientes publiquem seus dados junto com ele.

Este artigo é baseado na reportagem da Wired. Leia o artigo original.

Originally published on wired.com