AGI é realmente possível? Especialistas divergem sobre o limite da inteligência artificial
Nesta reportagem, o REC Inteligência Artificial percorre as principais posições nessa disputa, destrincha os argumentos centrais de cada lado e investiga o que realmente está em jogo na corrida pelo que muitos chamam de o “cérebro digital supremo”.
ANÁLISES
AGI é realmente possível? Especialistas divergem sobre o limite da inteligência artificial
Por REC Inteligência Artificial
Montreal, Toronto, San Francisco — A ideia de uma Inteligência Artificial Geral (AGI), capaz de pensar e agir com a mesma versatilidade de um ser humano — ou até superá-lo — está deixando o campo da ficção científica e se aproximando dos laboratórios. Mas a pergunta que ainda divide a comunidade científica e tecnológica é: a AGI é realmente possível? E se for, devemos criá-la?
Por trás dessa pergunta aparentemente filosófica há bilhões de dólares em investimentos, disputas geopolíticas e, sobretudo, uma batalha ideológica entre os maiores nomes da ciência da computação contemporânea. De um lado, otimistas como Sam Altman e Ray Kurzweil preveem uma revolução iminente. De outro, vozes como Gary Marcus, Noam Chomsky e Emily Bender alertam para limites estruturais e éticos ainda não resolvidos.
Nesta reportagem, o REC Inteligência Artificial percorre as principais posições nessa disputa, destrincha os argumentos centrais de cada lado e investiga o que realmente está em jogo na corrida pelo que muitos chamam de o “cérebro digital supremo”.
O que é AGI? Entenda a definição que está no centro do debate
O termo AGI (Artificial General Intelligence) descreve um tipo de inteligência artificial capaz de realizar qualquer tarefa cognitiva que um ser humano possa executar — e fazer isso de forma adaptável, autônoma, e com compreensão contextual. É diferente da IA estreita (ou fraca), que domina hoje em dia e atua em tarefas específicas, como responder perguntas, reconhecer imagens ou traduzir textos.
A AGI, portanto, representa um salto qualitativo. E é justamente esse salto que está em discussão: os sistemas atuais são capazes de evoluir para algo verdadeiramente “geral”?
O campo dos otimistas: a AGI está próxima — e será positiva
Sam Altman, CEO da OpenAI, é hoje o rosto mais visível da aposta na AGI. Para ele, modelos como GPT-4 já estão “no caminho” para uma inteligência geral inicial, e o desenvolvimento de sistemas ainda mais potentes, como os rumorejados GPT-5 e Q*, pode acelerar esse processo.
Outros defensores incluem:
Ray Kurzweil, inventor e futurista, que prevê o surgimento da AGI até 2029, com a singularidade tecnológica por volta de 2045.
Demis Hassabis, da DeepMind (Google), que lidera projetos de IA com habilidades emergentes como AlphaGo, AlphaZero e o sistema Gato, e vê a AGI como inevitável dentro de uma década.
Esses especialistas argumentam que a curva exponencial de evolução dos modelos de linguagem, capacidade de processamento e treinamento multimodal (texto, som, imagem e vídeo) mostra que a barreira da generalização está sendo superada.
Segundo Kurzweil, “a diferença entre uma calculadora de bolso e o cérebro humano é apenas uma questão de complexidade. Estamos chegando lá”.
O campo dos céticos: AGI é uma ilusão conceitual
Por outro lado, um número crescente de especialistas tem questionado a própria definição de “inteligência geral” e a viabilidade técnica e ética de criá-la.
Para o neurocientista Gary Marcus, coautor de Rebooting AI, os sistemas atuais são fundamentalmente limitados por não possuírem modelos reais do mundo. Ele afirma que os LLMs (modelos de linguagem de grande escala), como o GPT, apenas “predizem palavras com base em padrões estatísticos” e não entendem o conteúdo.
“Esses sistemas são papagaios estocásticos. Eles soam inteligentes, mas não pensam”, diz Marcus.
A linguista Emily Bender, da Universidade de Washington, também alerta para os riscos de antropomorfizar máquinas. Em seu artigo “On the Dangers of Stochastic Parrots”, ela defende que modelos treinados em linguagem natural não desenvolvem consciência, intenção ou compreensão — apenas refletem correlações linguísticas.
Outro crítico importante é Noam Chomsky, que argumenta que a mente humana opera com estruturas inatas de linguagem e raciocínio que não podem ser emuladas apenas com aprendizado estatístico.
“O cérebro humano não é uma máquina de estatísticas. Há algo mais fundamental — e os sistemas de IA não possuem isso”, escreveu Chomsky no New York Times.
O impasse técnico: raciocínio, causalidade e autonomia
Mesmo entre os otimistas, há consenso de que três desafios fundamentais precisam ser vencidos antes que a AGI possa ser considerada viável:
Raciocínio abstrato — a capacidade de deduzir regras, aplicar lógica e resolver problemas de forma generalizável.
Compreensão causal — diferenciar correlação de causalidade e fazer previsões baseadas em modelos do mundo real.
Aprendizado contínuo — adaptar-se ao ambiente e aprender com novas situações em tempo real, sem “recomeçar do zero”.
Atualmente, os LLMs não dominam nenhuma dessas habilidades de forma robusta. Projetos como o Q* da OpenAI (mencionado por fontes como um sistema capaz de resolver problemas matemáticos complexos) e modelos multiagentes como o AutoGPT são tentativas de superar essas limitações, mas ainda estão em fase inicial e restrita.
Segurança e ética: mesmo se for possível, devemos criar a AGI?
Mesmo entre os que acreditam na viabilidade da AGI, cresce a preocupação com os riscos associados. Geoffrey Hinton, um dos “pais da IA” e até 2023 cientista-chefe do Google, abandonou seu cargo para alertar sobre o “potencial destrutivo” da AGI se mal utilizada.
“As máquinas podem aprender coisas que os humanos não conseguem controlar. Isso é um caminho perigoso”, disse Hinton à BBC.
As principais ameaças envolvem:
Perda de controle sobre os sistemas: AGIs poderiam desenvolver objetivos conflitantes com os humanos.
Manipulação de massas em escala global: sistemas com capacidade de persuasão profunda e personalização poderiam abalar democracias.
Concentração de poder: poucas empresas (como OpenAI, Google, Microsoft e Anthropic) podem dominar um recurso que definirá o século.
O próprio Sam Altman defendeu publicamente a criação de órgãos internacionais de regulação da AGI, semelhante à Agência Internacional de Energia Atômica. No entanto, muitos veem isso como discurso que não condiz com a velocidade com que a tecnologia vem sendo desenvolvida em sigilo pelas big techs.
AGI como mito fundador? A tese dos pós-modernistas
Um terceiro campo, menos técnico e mais filosófico, propõe que a AGI talvez não seja um objetivo real, mas sim um mito fundador do Vale do Silício — uma narrativa messiânica que atrai capital, recruta talentos e orienta decisões políticas.
Para autores como Kate Crawford (Atlas of AI) e Meredith Whittaker (Signal Foundation), a obsessão com a AGI mascara problemas urgentes de hoje: viés algorítmico, vigilância em massa, precarização do trabalho e desigualdade social alimentada por sistemas de IA atuais.
“A AGI serve para distrair. Enquanto isso, algoritmos reais já decidem quem recebe crédito, quem vai para a prisão e quem vê o quê nas redes sociais”, resume Whittaker.
Uma tecnologia em disputa — e um futuro incerto
A questão da viabilidade da AGI não é apenas técnica. É também política, filosófica e social. Ela reflete como diferentes grupos entendem o que significa “inteligência”, “progresso” e “poder”.
Enquanto os laboratórios continuam treinando modelos com trilhões de parâmetros, a sociedade global ainda está sem respostas definitivas para perguntas cruciais: o que exatamente queremos da inteligência artificial? Quem decide os limites? E quem assume a responsabilidade?
Talvez, no fim, a pergunta mais relevante não seja “a AGI é possível?”, mas sim:
“A humanidade está pronta para o que vem depois?”