Sua Alexa nunca será inteligente de verdade, e a ciência acaba de provar o porquê
TecnologiaMe deparei com o artigo "Robust Agents Learn Causal World Models" e ele traz uma visão precisa e matemática que muda todo o jogo da AGI.
Vamos bater um papo sobre Inteligência Artificial. Eu sei, eu sei, você abre seu celular e o ChatGPT escreve um poema sobre o seu cachorro no estilo de Fernando Pessoa. Você vê vídeos de carros que dirigem sozinhos (quase sempre sem bater) e pensa: "Caramba, o futuro chegou. Skynet está logo ali na esquina, só esperando o momento certo".
É impressionante, não dá para negar. A gente vive numa era em que algoritmos criam imagens, compõem músicas e respondem perguntas existenciais com uma confiança de dar inveja. Esses modelos, como o GPT-4, Gemini e outros, são verdadeiros monstros em devorar dados e cuspir padrões. Eles leem a internet inteira e se tornam mestres em... bem, em imitar o que leram.
Mas... você já teve aquela sensação estranha? Aquela pulga atrás da orelha de que algo não se encaixa?
Você pede para a IA criar uma imagem de uma pessoa com três braços, e ela te entrega uma aberração com dedos saindo do cotovelo. Você pergunta algo que exige um pingo de bom senso sobre uma situação que nunca aconteceu antes, e a resposta é um delírio lindamente escrito, mas completamente sem noção.

É como conversar com o aluno mais CDF da sala, aquele que decorou todos os livros, todas as fórmulas, todas as respostas das provas antigas. Ele é imbatível no que já viu. Mas se você muda uma vírgula na pergunta, se apresenta um problema ligeiramente diferente, o sistema dele entra em pane. Ele não entendeu a matéria; ele memorizou as respostas.
A grande questão que assombra os pesquisadores de IA há décadas é justamente essa: o que falta para a IA pular do barco da memorização para o da compreensão genuína? O que é necessário para uma inteligência que seja robusta, adaptável, que não quebre na primeira vez que o mundo joga uma curva para ela?
Muitos (principalmente os que ganham com o hype da IA e com ações da NVidia) achavam que a resposta era "mais dados". "Modelos maiores". "Mais poder computacional". Uma força bruta de trilhões de parâmetros que, eventualmente, por pura mágica estatística, faria a compreensão emergir.
Pois é, senta aí, pega um café, porque um artigo científico publicado no início de 2024 (e eu só vi esses dias) chegou com os dois pés na porta para dizer que essa galera toda talvez estivesse olhando para o lado errado. E a resposta que ele traz é tão fundamental, tão óbvia em retrospecto, que chega a ser irônico.
Vamos mergulhar no antes e no depois deste artigo, que atende pelo nome de "Robust Agents Learn Causal World Models" ("Agentes Robustos Aprendem Modelos Causais do Mundo"). E prepare-se, porque isso muda tudo.
O mundo "antes": Causalidade era aquele acessório de luxo
Primeiro, vamos alinhar os ponteiros. Como a IA funcionava (e em grande parte ainda funciona) na cabeça da maioria das pessoas e de muitos desenvolvedores?
A palavra-chave é correlação.
Os modelos de deep learning são fantásticos em encontrar correlações. Eles analisam milhões de exemplos e aprendem que, quando a palavra "bom" aparece perto de "filme", a avaliação tende a ser positiva. Eles aprendem que pixels com essa forma e cor geralmente correspondem a um "gato".
O problema? Você já deve ter ouvido o mantra: correlação não implica causalidade.
O exemplo clássico é o das vendas de sorvete e dos ataques de tubarões. Se você olhar os dados, vai ver que os dois sobem e descem juntos. Uma IA baseada em correlação poderia concluir que, para reduzir os ataques de tubarões, deveríamos proibir a venda de sorvetes. Uma conclusão estúpida, claro, porque ela ignorou a causa comum: o calor. É o sol e o calor que fazem as pessoas comprarem mais sorvete E irem mais à praia, o que aumenta a chance de ataques de tubarão.

É aí que entra o conceito de modelo causal.
Pense num modelo causal como um mapa do porquê das coisas. Não é só um registro do que acontece junto, mas um diagrama de causa e efeito. Ele diz: "Virar este interruptor causa a luz a acender". "Tomar este remédio causa a dor de cabeça a passar". "O calor causa o aumento nas vendas de sorvete".
Antes do artigo de Richens e Everitt, a visão geral sobre modelos causais na IA era mais ou menos assim:
"Ah, causalidade... que conceito profundo e filosófico! Sim, seria maravilhoso se nossas IAs pudessem entender causa e efeito. Isso resolveria muitos problemas de segurança e justiça. Mas, honestamente? Parece complicado demais. E olha só o sucesso que estamos tendo sem isso! Nossos modelos gigantes estão passando em provas de medicina e direito só com base em correlação. Talvez a gente nem precise disso. É um 'plus a mais', um acessório de luxo para quem tem tempo e orçamento para pesquisa acadêmica."
Era uma visão compreensível. Os modelos de linguagem gigantes (LLMs) e outros sistemas de IA estavam avançando a uma velocidade alucinante sem que ninguém programasse explicitamente neles uma única regra de causa e efeito. A crença era que, com escala suficiente, a IA poderia "trapacear" e encontrar atalhos estatísticos tão bons que a compreensão causal se tornaria irrelevante.
Era a aposta na força bruta contra a fineza do raciocínio. E por um tempo, pareceu que a força bruta estava ganhando.
Até que a gente começou a prestar atenção nos momentos em que ela falhava. E é aí que o caldo entorna.
O pulo do gato: quando o mundo muda as regras do jogo
Pensa comigo: o mundo real não é um livro de exercícios com respostas no final. Ele é caótico, imprevisível e está sempre mudando.
Os cientistas de IA têm um termo chique para isso: mudança de distribuição (ou distributional shift, em inglês). Parece complicado, mas a ideia é simples. Significa que as regras do jogo mudaram. Os dados que o seu modelo vai encontrar no mundo real não são mais como os dados com os quais ele foi treinado.
Exemplos de mudança de distribuição:
- Medicina: Uma IA treinada para diagnosticar pacientes numa cidade como São Paulo, com uma certa demografia e equipamentos, é levada para uma cidade ribeirinha na Amazônia. A população é diferente, as doenças prevalentes são outras, os equipamentos são mais antigos. Os padrões que a IA aprendeu não valem mais.
- Carros Autônomos: Um carro treinado sob o sol da Califórnia é colocado para dirigir durante uma nevasca em Gramado. A visibilidade é outra, a aderência dos pneus é outra, a aparência das faixas na pista é outra.
- Economia: Um modelo treinado para prever o mercado de ações com dados até 2019 de repente precisa lidar com uma pandemia global. As relações entre as variáveis econômicas foram para o espaço.
É nessas horas que os modelos baseados em correlação quebram de forma épica. O aluno que só decorou as respostas fica perdido quando o professor muda a pergunta. A IA, que aprendeu que "asfalto escuro e seco" se correlaciona com "dirigir seguro", não sabe o que fazer com "asfalto branco e escorregadio".
Aqui entra outra palavra importante: robustez. Um agente robusto é aquele que consegue lidar com essas mudanças de distribuição. Ele não precisa ser perfeito, mas ele se adapta. Ele não entra em pane. Ele demonstra... bom senso.
E a grande pergunta que o artigo se propôs a responder foi: o que é matematicamente necessário para um agente ser robusto?
A bomba: o artigo que virou a mesa
Segura essa, porque aqui vem o plot twist da nossa história.
O artigo "Robust Agents Learn Causal World Models" não veio com opiniões ou hipóteses. Ele veio com uma prova matemática. E a conclusão é categórica, quase brutal na sua simplicidade:
Qualquer agente que consiga se adaptar de forma robusta a um conjunto grande o suficiente de mudanças de distribuição PRECISA, necessariamente, ter aprendido um modelo causal do seu ambiente.
Traduzindo:
Não é mais uma escolha. Não é um luxo. Não é uma filosofia. Se você quer construir uma IA que não seja um "castelo de cartas" prestes a desmoronar ao primeiro sopro de realidade, essa IA tem que entender de causa e efeito.
O artigo mostra isso de uma forma genial. Vamos definir mais alguns termos para você ficar por dentro do assunto:
- Agente: É qualquer coisa que toma decisões para atingir um objetivo. Pode ser o seu chatbot, o robô da fábrica, o algoritmo de recomendação da Netflix.
- Arrependimento (Regret): Essa é ótima. "Arrependimento" é a medida de quão idiota foi a decisão do agente. É a diferença entre a recompensa que ele conseguiu e a recompensa máxima que ele poderia ter conseguido se tivesse feito a escolha perfeita. Um agente bom é um agente de "baixo arrependimento".
- Intervenção: É uma mudança deliberada no sistema. No nosso exemplo, proibir sorvete seria uma intervenção. Dar um tratamento para um paciente é uma intervenção. Uma nevasca é como uma intervenção da natureza.
O que os autores provaram (Teorema 2 do artigo) é que se um agente consegue consistentemente tomar decisões de baixo arrependimento mesmo depois de várias intervenções (ou seja, mudanças de distribuição), então a única forma de ele fazer isso é se ele tiver um modelo causal aproximado do mundo.
E a parte mais espetacular: a precisão desse modelo causal interno está diretamente ligada ao desempenho do agente. Quanto melhor o agente (menor seu arrependimento), mais preciso e detalhado é o seu mapa de causa e efeito. É uma relação suave: melhore um, você necessariamente melhora o outro.
Pense no médico humano. Um médico recém-formado pode saber algumas correlações: "febre e tosse podem ser gripe". Um médico experiente e robusto, que consegue diagnosticar casos estranhos e se adaptar a novas doenças, não pensa só em correlação. Ele tem um modelo causal na cabeça: "Este vírus causa inflamação no pulmão, que causa a tosse, que por sua vez causa a febre". Ele consegue raciocinar sobre o que aconteceria se ele interviesse com um anti-inflamatório, por exemplo.
O artigo prova que a IA, para chegar a esse nível de robustez, precisa fazer a mesma coisa.
O mundo "depois": causalidade virou a coluna vertebral da IA
Essa descoberta não é só um detalhe técnico. Ela vira a mesa de como devemos pensar e construir a próxima geração de IAs. A causalidade deixou de ser o primo esquisito da estatística e se tornou a viga mestra da inteligência artificial robusta.
Implicação 1: Aprendizagem por Transferência (Transfer Learning) não é mágica, é ciência causal.
A gente sonha com uma IA que aprende a fazer uma coisa e "transfere" esse conhecimento para outra. O artigo mostra que isso tem limites muito claros e causais.
Imagine uma IA para prever o sucesso de uma lavoura. Ela foi treinada no Brasil e aprendeu que "chuva em agosto" se correlaciona com "boa colheita de café". Agora, você quer transferir essa IA para o Vietnã, onde o clima e o solo são diferentes.
Se a IA não entendeu o modelo causal (que a chuva causa a hidratação do solo, que causa o crescimento da planta, que causa uma boa colheita), ela é inútil. Ela vai continuar procurando por "chuva em agosto" e não vai achar nada. O artigo mostra que o sucesso da transferência de conhecimento depende fundamentalmente de os dados disponíveis permitirem que a IA descubra essas relações causais escondidas. É um problema de descoberta causal disfarçado.
Implicação 2: O possível fim da "competência sem compreensão".
Lembra do AlphaFold, a IA do Google que previu a estrutura de milhões de proteínas, um feito monumental?. Muitos dizem que ele é um exemplo de competência sem compreensão. Ele acerta a estrutura final, mas não necessariamente "entende" a física e a bioquímica do enovelamento de proteínas da mesma forma que um cientista.
O artigo nos dá uma nova e otimista perspectiva sobre isso. De acordo com seus teoremas, se o AlphaFold fosse tornado ainda mais poderoso e robusto — ou seja, capaz de prever corretamente as estruturas sob todo tipo de condição maluca (temperaturas extremas, solventes estranhos, mutações genéticas bizarras) —, ele teria, por necessidade matemática, que ter aprendido um modelo causal da bioquímica.
Isso é gigantesco. Significa que, se construirmos uma IA super-robusta para controlar um sistema complexo que não entendemos (como um reator de fusão nuclear ou o clima da Terra), podemos, em tese, "abrir a cabeça" da IA, extrair o modelo causal que ela aprendeu e, com isso, aumentar a nossa própria compreensão científica do universo. Acabou a caixa-preta. A robustez exige transparência causal.
Implicação 3: o verdadeiro caminho para a Inteligência Artificial Geral (AGI).
O sonho da AGI é uma IA com inteligência no nível humano, capaz de aprender e raciocinar sobre qualquer tarefa. O artigo sugere que o caminho para chegar lá não é só empilhar mais e mais dados.
O próprio ato de treinar uma IA para ser boa em muitos ambientes e tarefas diferentes (que é o que se faz hoje em dia) já é um forte incentivo para ela aprender um modelo causal. Para conseguir generalizar e ter baixo arrependimento em todos esses cenários, a IA é forçada a parar de decorar e começar a entender as regras subjacentes do jogo.
A busca pela robustez é, na verdade, uma busca implícita pela causalidade.
Conclusão: bem-vindo à Era da IA que pensa
Então, da próxima vez que você se maravilhar com uma IA, pergunte a si mesmo: ela está apenas repetindo um padrão que já viu um milhão de vezes ou ela conseguiria se virar se as coisas mudassem? Ela é um aluno que decorou ou um que entendeu?
O artigo de Richens e Everitt nos deu a régua para medir isso. Ele estabeleceu uma ponte formal entre o mundo da performance (ser robusto, adaptável) e o mundo da compreensão (ter um modelo causal).
A fronteira da IA está, finalmente, se movendo da era do "Big Data" para a era do "Big Understanding". O próximo grande salto pode não ser um modelo com mais um trilhão de parâmetros, mas o primeiro a demonstrar, de forma inequívoca, que não está apenas respondendo, mas sim compreendendo o porquê por trás das suas respostas.
E quanto à sua Alexa? Bem, enquanto ela não conseguir entender que chutar a tomada causa a falta de energia (em vez de apenas correlacionar "chute" com "silêncio"), ela continuará sendo um papagaio muito sofisticado. Um papagaio que, graças a este artigo, agora sabemos exatamente o que lhe falta para ter a chance de se tornar uma águia.
Deixe seu comentário aí embaixo. A discussão sobre o futuro da inteligência, seja ela artificial ou natural, está mais interessante do que nunca.
Leia o artigo na íntegra:
Comments