ChatGPT está fora de controle? O que está acontecendo com a OpenAI

A OpenAI, criadora do ChatGPT, está no centro de uma tempestade que combina disputas internas, críticas de especialistas, segredos industriais e receios globais sobre o rumo da IA. Mas o que realmente está acontecendo com a startup que nasceu como um bastião da transparência e da ética?

INTERLINKS

Cristiano Rodrigues

5/4/20254 min read

a man riding a skateboard down the side of a ramp
a man riding a skateboard down the side of a ramp

ChatGPT está fora de controle? O que está acontecendo com a OpenAI

Por REC Inteligência Artificial

São Francisco, Califórnia — A empresa que prometeu democratizar a inteligência artificial agora enfrenta sua maior crise de confiança. A OpenAI, criadora do ChatGPT, está no centro de uma tempestade que combina disputas internas, críticas de especialistas, segredos industriais e receios globais sobre o rumo da IA. Mas o que realmente está acontecendo com a startup que nasceu como um bastião da transparência e da ética?

O nascimento de uma revolução

Fundada em 2015 por nomes como Elon Musk, Sam Altman, Ilya Sutskever e Greg Brockman, a OpenAI tinha uma missão clara: desenvolver inteligência artificial geral (AGI) para beneficiar toda a humanidade. No início, funcionava como uma organização sem fins lucrativos, com todos os seus resultados e pesquisas abertos ao público.

Mas essa postura durou pouco. Em 2019, a empresa anunciou a criação de um braço com fins lucrativos “limitados” — o chamado capped-profit. A justificativa: atrair investimentos robustos para competir com gigantes como Google, Amazon e Meta. O acordo com a Microsoft, que injetou mais de US$ 13 bilhões, selou o destino da empresa.

GPT-4, crescimento explosivo e sigilo absoluto

O lançamento do ChatGPT em novembro de 2022 mudou tudo. Em questão de semanas, a ferramenta ultrapassou 100 milhões de usuários, tornando-se o aplicativo com crescimento mais rápido da história.

Acompanhado por modelos cada vez mais poderosos — GPT-3.5, GPT-4, e versões especializadas como o ChatGPT Enterprise — o sucesso consolidou a OpenAI como referência mundial em IA generativa. Mas também acendeu alarmes entre pesquisadores, reguladores e até mesmo membros da empresa.

O GPT-4, por exemplo, foi lançado sem publicação científica detalhada, sem divulgação dos dados de treinamento e sem auditoria externa — uma guinada radical em relação à promessa inicial de transparência.

Essa mudança gerou críticas severas de nomes como Geoffrey Hinton, que apontou a OpenAI como “um novo Google, mas sem a moderação científica de antes” (leia o artigo completo sobre Hinton aqui).

A rebelião interna: um sinal de alerta

Em novembro de 2023, a OpenAI entrou em colapso institucional. Sam Altman, CEO carismático e rosto público da empresa, foi removido abruptamente pelo conselho de administração, que alegou “falta de franqueza em suas comunicações”.

A decisão gerou caos. Greg Brockman, presidente da empresa, renunciou em solidariedade. Mais de 700 dos 770 funcionários ameaçaram sair em massa. A Microsoft, principal investidora, ficou no escuro sobre os motivos da demissão. E Ilya Sutskever, cientista-chefe e um dos que votaram contra Altman, se retratou publicamente dias depois.

A crise foi resolvida com o retorno de Altman, a dissolução do antigo conselho e a entrada de novos membros, como Bret Taylor (ex-Salesforce) e Larry Summers (ex-secretário do Tesouro dos EUA). Mas os danos à imagem foram profundos.

O episódio revelou um embate silencioso entre duas visões: uma que prioriza o avanço rápido da IA a qualquer custo, e outra que defende mais cautela e ética no desenvolvimento de tecnologias que podem impactar bilhões.

A divisão entre ideologia e mercado

A OpenAI foi fundada com a premissa de evitar que a IA caísse nas mãos erradas — mas agora é acusada justamente disso. Críticos apontam que, ao se alinhar fortemente com a Microsoft e esconder os bastidores de seus modelos, a empresa comprometeu sua missão original.

Organizações como o Center for AI Safety e o AI Now Institute questionam a concentração de poder na mão de poucas corporações. A comparação com a indústria de energia nuclear não é exagero: “Estamos criando ferramentas com poder transformador global, sem a mínima regulação efetiva”, afirmou a pesquisadora Meredith Whittaker.

Mesmo cofundadores estão em lados opostos. Elon Musk, que deixou a OpenAI em 2018, chegou a processar a empresa em 2024 por “traição aos princípios originais” e lançou seu próprio modelo concorrente, o Grok, pela xAI.

A corrida pela AGI: um risco calculado?

Internamente, a OpenAI mantém o foco em alcançar a chamada Inteligência Artificial Geral — um sistema capaz de realizar qualquer tarefa cognitiva humana. Muitos dos conflitos recentes giram em torno do projeto secreto Q*, que teria demonstrado sinais iniciais de raciocínio lógico avançado.

Alguns engenheiros internos alertaram que a empresa poderia estar próxima de ultrapassar limites de segurança. Sutskever chegou a criar uma equipe de superalignment, voltada especificamente para garantir que futuros modelos permaneçam alinhados com os valores humanos.

Mas a pergunta permanece: é possível controlar algo que ainda nem compreendemos totalmente?

Especialistas como Yoshua Bengio defendem uma pausa coordenada no desenvolvimento de AGI para discussão ética profunda — uma proposta que até o momento encontra resistência no mercado (leia mais sobre Bengio e ética aqui).

As consequências globais

Governos ao redor do mundo estão tentando alcançar o ritmo da inovação. A União Europeia aprovou o AI Act, o primeiro regulamento abrangente para inteligência artificial. A Casa Branca lançou diretrizes de uso responsável, e a ONU discute um pacto internacional.

Mas enquanto as regulamentações são negociadas, a OpenAI e suas rivais continuam expandindo seus modelos. O ChatGPT já é usado em tribunais, escolas, clínicas médicas e até em diagnósticos financeiros — sem que existam padrões globais de validação.

Essa corrida tecnológica sem freios levou nomes como Geoffrey Hinton a afirmar que a IA pode representar um risco existencial para a humanidade, semelhante às mudanças climáticas ou à proliferação nuclear.

E agora, OpenAI?

Apesar das polêmicas, a empresa segue crescendo. Lançamentos como o GPT-4 Turbo, com menor custo e maior velocidade, consolidam sua presença no mercado corporativo. Novas parcerias com universidades e governos também mostram uma tentativa de recuperar a credibilidade científica.

Mas o cenário continua nebuloso. Afinal, a OpenAI ainda é — ao mesmo tempo — símbolo de inovação, alerta de perigo e exemplo de como grandes ideais podem ser engolidos pelo pragmatismo do mercado.

Talvez, como sugeriu Hinton, a verdadeira questão não seja o que a OpenAI está fazendo, mas se a humanidade está preparada para o que vem a seguir.