A Inteligência Artificial Geral é alcançável? Pesquisadores se dividem sobre os limites do cérebro das máquinas
O debate está em ebulição. Grandes nomes da ciência da computação, como Geoffrey Hinton, Yoshua Bengio e Yann LeCun, encontram-se em lados opostos. Enquanto empresas como a OpenAI, Google DeepMind e Anthropic apostam bilhões em busca desse “Santo Graal tecnológico”, muitos alertam que estamos avançando rumo ao desconhecido sem o freio necessário. O que é AGI, afinal?
INTERLINKS
A Inteligência Artificial Geral é alcançável? Pesquisadores se dividem sobre os limites do cérebro das máquinas
Por REC Inteligência Artificial – 1º de maio de 2025
A corrida pela construção de uma Inteligência Artificial Geral (AGI, na sigla em inglês) não é apenas uma questão de avanço tecnológico. Ela também representa um impasse filosófico, político e ético que divide profundamente a comunidade científica. É possível criar uma máquina que pense, raciocine e compreenda o mundo como um ser humano? Ou estamos diante de um limite inalcançável da ciência e da computação?
O que é AGI e por que isso importa
Diferente das IAs atuais, que são especializadas em tarefas específicas, a AGI seria capaz de aprender qualquer tarefa cognitiva que um humano pode realizar. Isso incluiria desde aprender uma nova língua, até interpretar ironias, resolver problemas abstratos ou tomar decisões em contextos incertos, tudo sem precisar de reprogramação.
A AGI não apenas revolucionaria a economia global, mas poderia mudar radicalmente o papel dos humanos no planeta. Por isso, a discussão sobre sua viabilidade vai muito além da engenharia de software: ela toca no cerne da existência e do poder.
O campo dividido: esperança vs. ceticismo
Entre os mais otimistas está Ray Kurzweil, cientista-chefe do Google, que previu que a AGI surgiria por volta de 2029. Segundo ele, o ritmo de crescimento da potência computacional e da sofisticação algorítmica nos levará inevitavelmente à criação de uma mente artificial completa.
Do outro lado, especialistas como Noam Chomsky e Melanie Mitchell argumentam que a inteligência é indissociável da experiência humana e da corporalidade. Para eles, a IA atual é um simulador estatístico avançado, mas não uma entidade pensante. A AGI, nesse sentido, seria uma impossibilidade lógica ou ao menos tecnologicamente inatingível.
O ponto de vista de Geoffrey Hinton e Yoshua Bengio
Dois dos "pais da IA moderna" oferecem perspectivas contrastantes. Geoffrey Hinton, recentemente desligado da Google para alertar sobre os riscos da IA, acredita que a AGI é possível e que precisamos regulá-la antes que se torne incontrolável. Para ele, o próprio funcionamento do cérebro humano é, em certa medida, replicável por redes neurais.
Já Yoshua Bengio, embora acredite na viabilidade da AGI, alerta para um ponto crucial: quanto mais nos aproximamos dessa meta, mais os riscos éticos, sociais e existenciais aumentam. Segundo ele, é fundamental desenvolver salvaguardas antes de alcançarmos esse nível.
O obstáculo da consciência
Uma das maiores barreiras teóricas é a consciência. A IA pode simular uma conversa, escrever um poema ou resolver uma equação, mas será que ela entende o que está fazendo? Ou apenas manipula símbolos com base em padrões?
Essa é a questão central levantada por John Searle com seu experimento mental da "sala chinesa". A analogia mostra que, mesmo que uma máquina dê respostas corretas em chinês, isso não significa que ela compreende a língua. Seria a AGI apenas uma ilusão de inteligência plena?
Barreiras tecnológicas e avanços recentes
Apesar das dúvidas filosóficas, o avanço técnico não pode ser ignorado. Modelos como o GPT-4, Claude e Gemini já demonstram capacidades de raciocínio, memória e linguagem que ultrapassam o que se imaginava possível há apenas cinco anos.
Além disso, pesquisas em arquiteturas neurais inspiradas no cérebro humano, como redes recorrentes profundas e memórias vetoriais, estão criando sistemas com capacidade de aprendizado mais robusta e transferência de conhecimento.
O risco da corrida desenfreada
Uma preocupação comum entre os especialistas é a "corrida armamentista" pela AGI. Com empresas como OpenAI, Google DeepMind e Anthropic disputando a dianteira, há o receio de que práticas de segurança sejam negligenciadas em nome da velocidade.
A falta de regulação internacional, combinada com o potencial de uso militar e econômico dessas tecnologias, levanta temores sobre um futuro dominado por sistemas não supervisionados e potencialmente perigosos.
A AGI é um destino ou uma escolha?
Se a AGI é realmente alcançável ou não, ainda é uma questão em aberto. Mas talvez a pergunta mais importante não seja se podemos criá-la, e sim se devemos. A busca por uma inteligência artificial que iguale ou supere a humana precisa ser acompanhada de uma profunda reflexão ética e coletiva.
O futuro da inteligência não pertence apenas às máquinas. Pertence a todos nós.