Hoje em dia muito se especula que o hype cedeu vez à bolha da IA, e que a fase pulsante dos grandes modelos de linguagem (LLMs) estagnou. Já que o salto tecnológico veio mesmo no lançamento do GPT-2 para o GPT-3, bem como do GPT-3 para o GPT-4. O que não parece ser o caso do GPT-5, onde houve um ganho incremental em relação a certas capacidades dos modelos de IA anteriores, como a de ser mais preciso e lidar com múltiplas tarefas mais facilmente, contudo não exatamente uma revolução no setor.
Mesmo porque há quem não concorde que a Inteligência Artificial Geral – AGI deva ser o próximo passo da IA, muito menos com o rumo frenético em direção aos sistemas autônomos inteligentes e à automação total / ponta a ponta advinda deles (a fim de se aproximar cada vez mais das habilidades humanas, e assim cumprir a meta definida desde o início pelo Vale do Silício, quase que em tom profético).
Logo, a corrida para se alcançar uma AGI e, em seguida, uma Superinteligência seria um exagero, assim como tê-las como objetivo final um grande erro estratégico derivado de uma ilusão utópica do ser humano ao superestimar suas reais capacidades: a exemplo da visão otimista de que apenas passamos por uma fase transitória de desilusão rumo a de uma maior maturidade dos sistemas e consolidação das expectativas. Como se vê por suas ondas de impacto:

Fonte:https://emt.gartnerweb.com/ngw/globalassets/intl-br/artigos/ondas-de-impacto-da-ia.png
Quando, na prática, seria preciso uma correção de rumos para encarar os limites atuais da tecnologia! Pois até poderíamos chegar a uma Superinteligência, na melhor das hipóteses, somente em 2030; porém bem menos inteligente e avançada do que se espera.
Afinal, parte dessa distorção de percepções quanto ao futuro da IA decorre de o setor insistir nos LLMs (grandes modelos de linguagem) e na arquitetura Transformer em que se baseia como pontos de partida, já que haveria outros caminhos possíveis para chegar até lá.
Ademais, muito dinheiro está sendo investido em “uma IA que superará o intelecto humano”, mas alimentado por expectativas irreais de rápido retorno. Assim como não há consenso nem garantias suficientes de que isso irá mesmo acontecer, visto que “há limites claros nos sistemas probabilísticos atuais”. Conjuntura essa que, portanto, recorda períodos clássicos de crise que sustentam a tese de que a bolha da IA está para estourar em algum momento, inflada pela disparada no valor das empresas de tecnologia. Uma questão, portanto, não de “se”, e sim de “quando”, segundo referências distintas vindas desde o Banco da Inglaterra; de Jamie Dimon, chefe do banco JP Morgan; e até mesmo de prognósticos do FMI – Fundo Monetário Internacional.
Não por acaso, essa sensação de que o futuro é incerto e que vivemos uma relação de ambivalência e contrastes com os rumos da IA se reflete nos dados recentes publicados em relatórios do Pew Research Center e do Global Government Technology Centre Berlin em parceria ao Banco Mundial. Isto é, de que ainda lidamos com sentimentos ambíguos de esperança e incerteza, confiança e descrença face ao avanço na autonomia da IA e ao risco da perda de controle sobre a mesma.
O que dizem os relatórios
Partindo das análises realizadas globalmente, inclusive sobre a percepção pública no Brasil, isto é, de ‘como as pessoas veem a IA”, para o Pew Research Center “mais pessoas estão preocupadas do que entusiasmadas com seu uso”. Portanto, existe um mix de entusiasmo e cautela envolvidos: muitos a veem como um passo inevitável, embora temam seus impactos imediatos no trabalho, na empregabilidade, assim como na questão ética. Curioso notar que países com estruturas regulatórias mais claras e transparentes tendem a mostrar menos temor e, por consequência, maior aceitação social da IA. E, assim, confiam mais nos modelos nacionais para regulamentá-la do que nos estrangeiros.
O fator confiança depende mais do nível de transparência do que propriamente do conhecimento técnico. É assim que, no geral, a maioria, ou seja 61% dos adultos, diz que usa a tecnologia no cotidiano, mas apenas 43% acreditam que a mesma seja usada de forma responsável por agentes de governo e empresas.Nos países desenvolvidos com economia mais avançada que nos países em desenvolvimento a confiança, no entanto, é menor, demonstrando que a proximidade com a tecnologia por si só não reduz o medo. A pesquisa associa essa inversão à fadiga tecnológica e saturação no uso.
Já o Brasil desponta entre os mais preocupados, com um índice na casa dos 34%, acima da média global. Pouco mais da metade (52%) está mais apreensiva do que empolgada com a IA. E apenas 22% dos brasileiros declararam entusiasmo, embora 61% tenham usado a IA já de alguma forma. O país, então, mistura baixo nível de confiança com alta exposição,refletindo um sentimento difuso com relação aos impactos éticos e sociais da tecnologia.Demonstrando, assim, que familiaridade com a tecnologia não é o mesmo que aceitação coletiva.
O estudo revela ainda diferentes percepções a depender de qual geração e do nível de escolaridade avaliado. Assim, os jovens e aqueles com maior nível educacional tendem a ver a IA de modo mais positivo, enquanto adultos de maior idade e menor renda tenham uma preocupação maior com perda de controle e segurança.
No geral, a pesquisa aponta, enfim, para um otimismo coletivo, mesmo que contido: a maioria das pessoas reconhece o potencial da IA em melhorar as suas vidas, porém ainda tem dúvidas sobre a da capacidade de empresas e governo controlá-la de modo ético e transparente.
Por sua vez, o relatório The Agentic State, fruto do trabalho conjunto entre o Global Government Technology Centre Berlin e o Banco Mundial, tendo como um dos autores o brasileiro Tiago C. Peixoto, especialista em tecnologia e governo, dispõe sobre o avanço dos agentes de Inteligência Artificial no serviço público, adiantando uma revolução ainda por vir e com mais intensidade no ano de 2026. Trata-se da promessa de sistemas que, diferente dos modelos atuais, serão agora capazes de resolver problemas e executar tarefas, agindo e tomando decisões sozinhos, por conta própria e de forma menos dependente dos humanos, “raciocinando” ainda que dentro de regras pré-estabelecidas.
Aqui o objetivo em perquirir o que são e como os agentes de IA irão contribuir de modo que os grandes modelos de linguagem – LLMs sejam agora “o cérebro provido das mãos da automação”, é tornar a máquina pública não só mais útil, célere e eficiente, como também mais inteligente, barata e confiável, a fim de promover mudanças estruturais e assim desburocratizar os serviços prestados. Fazendo com que o governo interaja como se fosse um assistente digital que encontra e resolve pendências de forma automática.
Através de cinco níveis de agência, o relatório compara esse novo modelo de “Estado Agêntico” a uma administração pública que não apenas faz o que já vinha fazendo, mas que “ressignifica” o papel do poder público em um mundo em “co-pilot” com o cidadão. Como diz o próprio subtítulo do documento, “repensa” qual a função do governo face a essa nova era de transformação da IA generativa para os agentes de IA, ao propor uma virada paradigmática por meio da implantação desses sistemas agênticos.
A mudança não será automática. A “virada” é então no sentido de reestruturação dos negócios através da qual um agente de IA totalmente amadurecido comece também a “aprender e decidir” com o ambiente e a experiência diária do usuário, só que em conjunto com o humano, de forma gradual, supervisionada e mais transparente do que antes, indo além da mera digitalização dos serviços públicos. Cenário esse que se sustenta por projeções de mercado: segundo a Gartner e a Forrester – empresas de consultoria que oferecem insigths sobre marketing, negócios, experiência do cliente e tecnologia para que executivos e suas empresas tomem melhores decisões estratégicas.
O porquê da virada de chave
Perquire-se, entretanto, qual a urgência dessa força tarefa, derivada da necessidade de agora governos e inteligências artificiais trabalharem lado a lado, de modo a minimizar a burocracia e passar a servir o cidadão, colocando-o no centro da atenção. Curiosamente (ou não) em decorrência de movimentos que correm em paralelo ao da automatização total: o do backlash e estouro da bolha da personalização. Assim, diante dos processos judiciais decorrentes de muitas das falhas da IA, clama-se pelo retorno do atendimento humano ao cliente, pelo menos enquanto não houver um avanço significativo e eficiente no setor. Justamente pelo receio de que, com a adoção acelerada dos agentes de IA, a máquina pública se perca no caminho e tenda a ficar ainda mais obsoleta e ineficiente, gerando frustação para o cidadão que já anda descontente. Pois do jeito que está, a IA agêntica tende a ampliar ainda mais esse gap ou lacuna de obsolescência, “a menos que os governos melhorem seu desempenho”.

Fonte: https://emt.gartnerweb.com/ngw/globalassets/intl-br/artigos/agente-inteligente-em-ia.png
A contribuição central desses estudos é, então, no sentido de que a adoção da IA, mormente no setor público, não deve ser somente tecnicista, mas também institucional, direcionada sobretudo para a realidade de países em desenvolvimento, como o Brasil, onde se procura reduzir as desigualdades através da aceleração da transformação digital. Já os que não fizerem a tempo, correrão não só o risco de ficar para trás, mas se tornarem dependentes daqueles que detém o domínio do manejo tecnológico.
Em contrapartida, seguir cegamente o receituário tipicamente neoliberal em nome do aumento da produtividade e da redução dos custos pode acobertar uma situação ainda mais assimétrica: quando os humanos delegam cada vez mais tarefas e atividades críticas a sistemas supostamente inteligentes em razão de sua automação ponta a ponta, em tempo real, desde a análise de dados à tomada de decisões, mesmo que supervisionadas, pode em contrapartida gerar a tão temida perda gradual de autonomia e controle humanos.
O diagnóstico
Hoje há, de fato, vozes distintas de que a indústria da Inteligência Artificial não estaria no caminho certo já que insiste no avanço de um modelo limitado por sua própria natureza probabilística, os LLMs. Pois, ao contrário dos agentes de IA que estão por vir e irão operar de modo mais autônomo independente, respondem apenas aos prompts que os usuários fizeram. Trata-se de um erro estratégico rumo a uma Superinteligência que pode vir a ser maior do que a nossa. Mas que, no entanto, ainda estaríamos distantes dela, em uma fase prévia e anterior de transição: primeiro com a IA Generativa, e agora com IA Agêntica, até conseguir alcançá-la de fato.
Por outro lado, há quem diga, como a professora Anat Admati, da Stanford Graduate School of Business, que é difícil fazer esse exercício de futurologia e conseguir prever uma bolha até que essa estoure. Dados empíricos, entretanto, apontam o contrário. Pois, da leitura dos relatórios, fica a sensação de que o futuro da IA não dependerá só dos avanços técnicos da tecnologia, como também da confiança em torno de quem e como se usa e a desenvolve.
Pois quando não se compreende mais o que a máquina faz, ou confia-se nela cegamente os resultados, ainda que aparentem ser mais funcionais que os nossos, toda a integridade do processo decisório poderá ficar seriamente comprometida pela opacidade.
Resta, então, a dúvida de como ficará o lado humano na história das IAs, prestes a delegarmos muito de nossa autonomia e liberdade individual em troca supostamente de maior eficiência, produtividade e redução de gastos na prestação de serviços e produtos digitais. Valeria mesmo o custo desse trade-off? Ou não há necessariamente troca de uma coisa pela outra, podendo-se equilibrar na prática? Só mesmo os próximos passos rumo a uma inteligência artificial realmente mais avançada e independente dirão.
Por Anderson Röhe, Pesquisador Fellow Sênior no Think Tank ABES (GT-IA)