O Ano em que a Bolha de IA Encontrou a Realidade

Em apenas alguns anos, a inteligência artificial saiu de um campo de pesquisa de nicho para a tecnologia mais exagerada da história moderna. Trilhões de dólares em capitalização de mercado, bilhões em financiamento de risco e um torrente de previsões entusiastas sobre inteligência geral artificial se combinaram para criar uma atmosfera de exuberância irracional que rivalizava com a era das pontocom. Depois veio 2025, e a hora de pagar chegou.

O MIT Technology Review compilou sua avaliação abrangente do que deu errado em um novo eBook, documentando a desconexão entre o que as empresas de IA prometeram e o que realmente entregaram. A série "Correção de Hype" da publicação argumenta que a indústria entrou em uma fase necessária pós-hype, que requer um acerto de contas honesto com as capacidades genuínas da tecnologia e suas limitações igualmente genuínas.

O eBook chega em um momento em que a indústria de IA está lidando com uma crise de identidade. A tecnologia revolucionária que deveria transformar todas as indústrias, eliminar milhões de empregos e potencialmente alcançar inteligência sobre-humana, em vez disso produziu uma realidade mais modesta de ferramentas úteis mas limitadas que funcionam melhor quando cuidadosamente integradas em fluxos de trabalho humanos existentes.

A Taxa de Falha de 95%

Talvez a estatística mais condenatória no acerto de contas venha do próprio relatório "GenAI Divide" do MIT, publicado em julho de 2025. O estudo descobriu que noventa e cinco por cento das implementações empresariais de IA não proporcionaram valor comercial mensurável. Este não é um número de céticos ou críticos. Surgiu da análise rigorosa de implementações corporativas reais em múltiplas indústrias.

A taxa de falha requer contexto. Durante 2023 e 2024, empresas em todos os setores se apressaram em adotar IA generativa, frequentemente sob pressão de conselhos, investidores e narrativas de mídia que tratavam a implementação de IA como existencial. Executivos que não conseguiam articular uma estratégia de IA enfrentavam perguntas perspicazes de acionistas. O resultado foi uma onda de implementações apressadas e mal planejadas impulsionadas mais por medo de perder oportunidades do que por necessidade comercial genuína.

Muitas dessas implementações seguiram um padrão previsível. Uma empresa licenciaria um modelo de linguagem grande, construiria um protótipo de chatbot ou ferramenta de resumo de documentos, o demonstraria aos executivos em um ambiente controlado e depois descobriria que o desempenho se degradava dramaticamente quando implantado para usuários reais que lidam com tarefas reais com dados reais. A lacuna entre demo e produção se mostrou muito maior do que os fornecedores sugeriram.

Agentes Autônomos: A Promessa que Desabou

Nenhum segmento da indústria de IA experimentou uma correção de hype mais dramática do que os agentes autônomos. Durante 2024 e início de 2025, as principais empresas de IA promoveram uma visão de agentes de software que poderiam completar independentemente tarefas complexas no local de trabalho, desde reservar viagens até escrever relatórios e gerenciar projetos, com supervisão humana mínima.

Um estudo de pesquisadores da Upwork testou essa proposição sistematicamente, implantando agentes alimentados por modelos de linguagem grande líderes da OpenAI, Google DeepMind e Anthropic em uma gama de tarefas padrão de locais de trabalho. Os resultados foram desanimadores. Esses agentes falharam em completar muitas tarefas simples por conta própria. Modelos como GPT-5 e Gemini alcançaram taxas de conclusão de pouco mais de vinte por cento em tarefas que exigiam mais do que simples recuperação de informações.

Tarefas que exigem nuances culturais se mostraram particularmente problemáticas. A geração de cópia de marketing, tradução de idiomas, design de layout de site e qualquer trabalho que exija compreensão de público, contexto ou julgamento estético fracassou completamente. Os agentes poderiam gerar texto que superficialmente se assemelhava a trabalho competente, mas desabou sob escrutínio, produzindo saídas que eram genéricas, culturalmente insensíveis ou fatualmente não confiáveis.

O Paradoxo da Codificação

Uma das descobertas mais surpreendentes na correção de hype dizia respeito aos assistentes de codificação de IA, que haviam sido entre as aplicações mais celebradas e amplamente adotadas de modelos de linguagem grande. Múltiplos estudos lançados em 2025 convergiram para uma conclusão inesperada: os desenvolvedores que usam assistentes de codificação de IA realmente completam tarefas dezenove por cento mais lentamente do que aqueles que trabalham sem eles.

A explicação parece envolver os custos ocultos da codificação assistida por IA. Enquanto as ferramentas acelerassem a geração inicial de código, os desenvolvedores passaram tempo adicional considerável revisando, testando e corrigindo a saída da IA. Os modelos frequentemente introduziam bugs sutis, usavam APIs descontinuadas ou geravam código que tecnicamente compilava mas violava convenções arquitetônicas ou melhores práticas de segurança. O tempo economizado na escrita foi mais do que consumido pelo tempo gasto na verificação e correção.

Essa descoberta contradisse diretamente as afirmações de empresas de IA, que projetaram enormes ganhos de produtividade dos assistentes de codificação. Vários estudos proeminentes encomendados pelas próprias empresas de IA mostraram economias de tempo dramáticas, mas geralmente eram conduzidos em ambientes controlados com tarefas simples e bem definidas em vez do trabalho desordenado e ambíguo que caracteriza o desenvolvimento de software real.

A Miragem da AGI

Subjacente a grande parte do hype de IA estava a promessa, ou ameaça, da inteligência artificial geral, um sistema hipotético capaz de corresponder ou exceder as capacidades cognitivas humanas em todos os domínios. Durante 2023 e 2024, os líderes das principais empresas de IA cultivaram ativamente expectativas de que a AGI era iminente ou quase iminente, com prazos variando de dois a cinco anos.

Até o final de 2025, essa narrativa havia desabado amplamente. Pesquisadores proeminentes de IA começaram a declarar publicamente que a era de avanços revolucionários havia terminado e que os modelos de linguagem grande, a tecnologia que impulsiona a geração atual de sistemas de IA, não são um caminho para a AGI. As leis de escala que impulsionaram melhorias rápidas no desempenho do modelo mostraram sinais de atingir uma parede de escala cognitiva, onde simplesmente fazer modelos maiores e treiná-los em mais dados produzia retornos diminutos.

As razões técnicas são cada vez mais bem compreendidas. Os modelos de linguagem grande são sistemas sofisticados de correspondência de padrões treinados em texto gerado por humanos. Eles podem recombinar e interpolar padrões de maneiras impressionantes, mas carecem do raciocínio causal, modelos de mundo e compreensão genuína que caracterizariam a verdadeira inteligência geral. A lacuna entre produzir texto fluente e entender o que esse texto significa permanece tão ampla quanto sempre, independentemente da escala do modelo.

O Custo Humano do Hype

A correção de hype de IA não foi puramente uma questão abstrata de avaliação de tecnologia. Consequências reais se seguiram a expectativas infladas. Empresas que fizeram compromissos prematuros com automação impulsionada por IA enfrentaram reversões caras. Trabalhadores que foram informados que seus empregos seriam eliminados pela IA experimentaram ansiedade prolongada apenas para descobrir que suas funções permaneceram praticamente inalteradas. Estudantes que reestruturaram suas educações em torno de habilidades adjacentes à IA agora estão questionando se o mercado de trabalho que lhes foi prometido se materializará.

Talvez mais consequentemente, os recursos dedicados à IA durante o ciclo de hype representavam custos de oportunidade. Capital, talentos de engenharia e atenção organizacional direcionados para projetos de IA com retorno mínimo poderiam ter sido investidos em outras tecnologias ou na abordagem de desafios não tecnológicos urgentes.

O Que Sobrevive à Correção

A correção de hype não significa que a inteligência artificial seja inútil. Ao contrário, ao despojar as expectativas irrealistas, ela esclarece onde a tecnologia realmente se destaca. As ferramentas de IA são eficazes para tarefas específicas e bem definidas: resumir documentos, traduzir idiomas com revisão humana, acelerar a busca em grandes conjuntos de dados, gerar primeiros rascunhos que os humanos depois refinam e identificar padrões em dados estruturados.

O fio comum entre aplicações bem-sucedidas é a supervisão humana. A IA funciona melhor não como um agente autônomo, mas como uma ferramenta que aumenta o julgamento humano, lidando com o rotineiro e repetitivo enquanto os humanos fornecem o contexto, criatividade e pensamento crítico que a tecnologia não possui. Esta é uma visão menos dramática do que a AGI, mas é uma realista, e descreve um mercado de centenas de bilhões de dólares.

O eBook do MIT Technology Review argumenta que a fase pós-hype, embora dolorosa para aqueles que apostaram fortemente nas projeções mais ambiciosas, é em última análise saudável para o desenvolvimento de longo prazo da tecnologia. Expectativas realistas levam a implementações melhores, que levam a valor genuíno, que sustentam o investimento necessário para pesquisa contínua. A grande correção de hype de IA em 2025 pode, em última análise, ser lembrada não como uma falha da tecnologia, mas como uma maturação necessária da indústria que a constrói.

Este artigo é baseado em reportagens do MIT Technology Review. Leia o artigo original.