GPT-5 mostra que chegamos a um platô das IA's
Meus 20 centavos sobre o GPT-5. Pra mim está claro o platô que chegamos. Não tem como melhorar algo que é limitado. E chegamos no limite.
Trabalho com desenvolvimento de software há mais de vinte anos. Já vi muita coisa nascer, explodir em popularidade e depois, silenciosamente, encontrar seu lugar no mundo — um lugar muitas vezes bem mais modesto do que os profetas da tecnologia previam. Vi o hype do "Write Once, Run Anywhere" do Java, as promessas messiânicas das ferramentas CASE que automatizariam a programação, a bolha das ponto-com que iria digitalizar até a nossa alma. Cada ciclo teve seus evangelistas, seus céticos e, no final, uma acomodação com a realidade.
E agora, cá estamos nós de novo, no meio do que talvez seja o maior hype de todos: a Inteligência Artificial Generativa. Confesso que, no começo, até que eu fiquei abalado. A euforia era contagiante. Quando a OpenAI publicou aquele paper de janeiro de 2020, "Scaling Laws for Neural Language Models", a tese parecia irrefutável. Liderado por Jared Kaplan, o estudo basicamente dizia que, ao contrário do que muitos de nós, velhos cínicos, pensávamos, esses modelos não iriam apenas memorizar dados e se tornar inúteis. Pelo contrário, eles melhorariam seguindo uma "lei de potência". A implicação era clara e, ao mesmo tempo, assustadora e excitante: bastava injetar mais poder computacional e mais dados para que os modelos se tornassem chocantemente bons.
E, por um tempo, a profecia se cumpriu. O lançamento do GPT-3, dez vezes maior que seu antecessor, foi um salto quântico. De repente, a ideia de uma Inteligência Artificial Geral (AGI), algo que antes pertencia à ficção científica, parecia estar ao nosso alcance. Sam Altman, CEO da OpenAI, chegou a publicar um post intitulado "Moore's Law for Everything", prevendo uma revolução que criaria uma riqueza inimaginável e tornaria o trabalho humano obsoleto. A mensagem era: "esta revolução tecnológica é imparável".

A comunidade de IA abraçou essa ideia com um fervor quase religioso. Críticos como Gary Marcus, que em 2022 ousou dizer que as "leis de escalonamento" eram apenas "meras observações que podem não durar para sempre", foram tratados como hereges. Marcus conta que foi ridicularizado por figuras como Sam Altman e Yann LeCun e praticamente "excomungado" do mundo do machine learning. O lançamento do ChatGPT e, em seguida, do GPT-4 em março de 2023, que um paper da Microsoft descreveu como tendo "faíscas de Inteligência Artificial Geral", só jogou mais lenha nessa fogueira. O dinheiro jorrou, com o investimento de capital de risco em IA saltando 80% em um ano.
Mas então... algo começou a mudar. O ritmo alucinante de avanços pareceu desacelerar. As promessas grandiosas começaram a soar um pouco ocas. E eu me pergunto: e se a IA não ficar muito melhor do que isso?
GPT-5 e a realidade decepcionante
Depois de uma longa espera de mais de dois anos, a OpenAI finalmente lançou o GPT-5, e a recepção foi, para dizer o mínimo, morna. O modelo que deveria ser o próximo grande salto evolutivo se mostrou apenas um pequeno passo incremental.
Claro, houve melhorias. Teve um YouTuber de tecnologia, que esqueci o nome agora, descobriu que o GPT-5 era melhor para criar um jogo de xadrez usando Pokémon como peças e para escrever um roteiro para seu canal do que os modelos anteriores. Uma funcionalidade que achei uma bosta é que o GPT-5 agora roteia automaticamente as consultas para o modelo mais adequado, sem que o usuário precise escolher manualmente. Eu gosto de estar no controle, achei isso péssimo. Mas essas são melhorias de "qualidade de vida", não uma revolução. O mesmo YouTuber notou que modelos mais antigos eram melhores para gerar uma thumbnail para o vídeo e um convite de aniversário. E, para a surpresa de ninguém, o GPT-5 continuava a inventar fatos com a mesma desenvoltura de sempre.
A comunidade não demorou a expressar sua frustração. No subreddit r/ChatGPT, um post o chamou de "o maior lixo, mesmo para um usuário pago". Altman e seus engenheiros tiveram que se defender em uma sessão de "Ask Me Anything". Gary Marcus, o crítico antes renegado, resumiu o lançamento como "atrasado, superestimado e decepcionante".
A verdade é que essa decepção já era esperada nos bastidores. Segundo o The Information, a OpenAI já sabia desde o outono de 2024 que seu próximo grande modelo, de codinome "Orion", embora superior ao GPT-4, representava um salto de qualidade muito menor em comparação com o avanço entre o GPT-3 e o GPT-4. O fracasso de Orion solidificou o medo de que a lei de escalonamento da IA não era uma lei, afinal. Isso tava meio que na cara já.
A era das "melhorias pós-treinamento"
Quando ficou claro que simplesmente construir modelos maiores com mais dados estava gerando retornos decrescentes, a indústria precisou de uma nova estratégia. E a solução encontrada foi o que se pode chamar de "melhorias pós-treinamento".
Se o pré-treinamento, onde o modelo digere a internet inteira, é como construir o carro, o pós-treinamento é como "turbinar" esse carro já existente. As empresas começaram a usar técnicas como aprendizado por reforço para ensinar um modelo pré-treinado a se comportar melhor em tarefas específicas, ou a dedicar mais tempo de computação para responder a perguntas mais difíceis. Os engenheiros, que antes eram construtores de motores cada vez mais potentes (do sedan GPT-3 para o carro esportivo GPT-4), viraram mecânicos especializados em ajustar e otimizar o que já tinham em mãos.
Satya Nadella, da Microsoft, chegou a falar no surgimento de uma "nova lei de escalonamento". A OpenAI lançou uma enxurrada de modelos especializados: o1, o3-mini, o4-mini-high, e assim por diante, cada um "turbinado" com uma combinação específica de técnicas. A Anthropic seguiu o mesmo caminho com sua família de modelos Claude, e até a xAI de Elon Musk, após o Grok 3 (treinado com uma quantidade absurda de poder computacional) não conseguir superar significativamente os concorrentes, também abraçou a abordagem de pós-treinamento.
O GPT-5 é o ápice dessa tendência: menos um modelo novo e mais um pacote que integra e refina esses produtos recentes. O problema é que, embora esses ajustes gerem melhorias mensuráveis em benchmarks específicos — o GPT-5, por exemplo, é comprovadamente melhor em programação — a sensação é de que são avanços incrementais, como os de uma atualização de software, e não as amplas expansões de capacidade que vimos antes. Ninguém precisou de um gráfico de barras para perceber o salto que foi o GPT-4. Agora, a OpenAI precisa de dezenas de gráficos para nos convencer de que o novo modelo é melhor.
A ilusão do raciocínio e a realidade dos negócios
O mais preocupante é que muitos desses benchmarks podem não medir o que dizem medir. As empresas de IA alardeiam progressos em "raciocínio passo a passo". No entanto, um artigo de pesquisadores da Apple, intitulado "A Ilusão do Pensamento", descobriu que esses modelos de "raciocínio" de última geração entram em colapso total quando a complexidade dos problemas ultrapassa um nível modesto. Pesquisadores da Universidade do Arizona foram ainda mais diretos, concluindo que o que as empresas de IA chamam de raciocínio "é uma miragem frágil que desaparece quando é empurrada para além das distribuições de treinamento". Eu demonstrei isso mais de uma vez aqui no blog.
Isso bate com o que vejo no dia a dia. Superar um benchmark é uma coisa; raciocinar sobre os problemas complexos e multifacetados que enfrentamos em nossos trabalhos é outra completamente diferente. Como disse Gary Marcus, "não ouço muitas empresas que usam IA dizendo que os modelos de 2025 são muito mais úteis para elas do que os modelos de 2024, embora os modelos de 2025 tenham um desempenho melhor nos benchmarks".
A metáfora do carro é perfeita aqui: você pode fazer muitas melhorias em seu Corolla, mas nenhuma quantidade de ajustes o transformará em uma Ferrari. E isso nos leva a uma questão financeira espinhosa. Críticos como o analista de tecnologia Ed Zitron preveem que a IA generativa será um mercado de cinquenta, talvez cem bilhões de dólares — um valor enorme, mas muito longe dos trilhões previstos pelos evangelistas.
Zitron aponta para uma desconexão perigosa: as sete maiores empresas de tecnologia ("Magnificent Seven"), que representam cerca de 35% do valor do mercado de ações dos EUA, gastaram incríveis 560 bilhões de dólares em despesas de capital relacionadas à IA nos últimos 18 meses, enquanto suas receitas com IA foram de apenas 35 bilhões. "Quando você olha para esses números, você se sente insano", disse Zitron. Será que estamos inflando uma nova bolha, apostando tudo em uma tecnologia cujos retornos estão diminuindo?
A IA é a nova "Write Once, Run Anywhere"?
Como um veterano da indústria, é impossível não ver paralelos com outras ondas tecnológicas. Lembro-me vividamente da promessa do Java da Sun Microsystems nos anos 90: "Write Once, Run Anywhere". A ideia era revolucionária: um único código compilado que funcionaria em qualquer sistema com uma Máquina Virtual Java (JVM). Para nós, desenvolvedores, que vivíamos compilando código para cada sistema operacional, parecia o paraíso.
A realidade, como sempre, foi mais complicada. Rapidamente, a comunidade cunhou uma frase mais precisa: "Write Once, Debug Everywhere". Diferenças sutis nas implementações da JVM e nos sistemas operacionais criavam bugs bizarros e específicos de cada plataforma. O Java foi, e ainda é, uma tecnologia transformadora, mas nunca cumpriu 100% sua promessa original e utópica.

Vejo a mesma dinâmica com a IA generativa. A promessa é de uma inteligência que pode "raciocinar", "entender" e "criar" de forma geral. A realidade é que temos um sistema extremamente poderoso em tarefas específicas (como resumir um texto ou gerar um código boilerplate), mas que falha de maneiras inesperadas e muitas vezes inexplicáveis quando sai de sua "zona de conforto" do treinamento. Assim como as abstrações da JVM vazavam e nos forçavam a lidar com as idiossincrasias do sistema operacional subjacente, as abstrações da IA também vazam, revelando uma falta de compreensão real do mundo.
Outro paralelo pode ser traçado com as ferramentas CASE (Computer-Aided Software Engineering) dos anos 80 e 90. Elas prometiam automatizar o ciclo de vida do desenvolvimento de software, desde a análise de requisitos até a geração de código, tornando os programadores quase obsoletos. O hype era imenso. O resultado? Ferramentas caras, rígidas e que, na prática, engessavam o processo de desenvolvimento em vez de acelerá-lo. Elas encontraram seu nicho, mas a revolução prometida nunca aconteceu. A promessa de "eliminar" o trabalho complexo e criativo foi uma miragem.
A IA de hoje parece sofrer do mesmo mal. Promete-se que ela vai "eliminar" empregos de colarinho branco e "automatizar" a criatividade. Mas, na prática, ela se mostra uma ferramenta útil para tarefas específicas e repetitivas, uma assistente que pode acelerar o trabalho, mas não substituí-lo em sua totalidade.
Um futuro mais sóbrio
Se as visões mais moderadas estiverem corretas, o futuro da IA será de avanços constantes, mas graduais. Usaremos IA de forma regular, mas limitada, para acelerar tarefas irritantes como resumir relatórios ou escrever o primeiro rascunho de um e-mail. Algumas áreas, como programação e pesquisa acadêmica, podem mudar significativamente, e algumas profissões específicas, como a de redator de mídias sociais, podem de fato desaparecer. Mas a disrupção massiva do mercado de trabalho e o surgimento de uma superinteligência podem se provar ideias fantasiosas.
O perigo é continuarmos a acreditar no hype. O investimento maciço baseado em expectativas infladas pode levar a uma correção de mercado dolorosa. E, mais importante, o foco excessivo na IA generativa pode estar nos distraindo de outras áreas importantes da computação e da ética digital.
É irônico que, nos apêndices do próprio artigo sobre as leis de escalonamento de 2020, os autores tenham incluído uma seção de "Ressalvas". Eles escreveram: "No momento, não temos uma compreensão teórica sólida para nenhuma de nossas leis de escalonamento propostas". As leis de escalonamento funcionaram até o momento em que deixaram de funcionar.
A verdade é que toda a empreitada de ensinar computadores a pensar continua sendo um grande mistério. Talvez seja hora de abandonarmos a arrogância dos profetas da tecnologia e abraçarmos a humildade dos verdadeiros construtores. A IA é uma ferramenta poderosa, uma das mais incríveis que já criamos. Mas é uma ferramenta, não uma divindade iminente. O que mais pareceu mais promissor até hoje, para sair desse loop, foi a descoberta da Null Tower que mencionei aqui.
A questão que deixo para reflexão não é "quando a IA vai tirar nossos empregos?", mas sim: "Estamos usando essa ferramenta da forma mais inteligente, ou estamos apenas nos afogando em nosso próprio hype, construindo a bolha mais cara da história da tecnologia?".
Comments ()