
- Andrej Karpathy, cofundador da OpenAI, afirma que agentes de IA são superestimados e ainda carecem de inteligência e aprendizado contínuo.
- Ele criticou a busca por IAs autônomas que substituem humanos e defendeu a colaboração homem-máquina para evitar conteúdo de baixa qualidade.
- Segundo Karpathy, até mesmo o “vibe coding”, conceito cunhado por ele, também teria limitações de segurança e controle.
Apesar do otimismo do Vale do Silício, os agentes de IA — assistentes virtuais projetados para executar tarefas de forma autônoma — continuam longe de cumprir suas promessas. A avaliação é do cofundador da OpenAI e ex-chefe de IA da Tesla, Andrej Karpathy.
Em uma participação recente no Dwarkesh Podcast, Karpathy foi direto: “Eles simplesmente não funcionam”. Segundo ele, as ferramentas atuais ainda carecem de inteligência, multimodalidade e capacidade de aprendizado contínuo.
“Eles são cognitivamente deficientes e simplesmente não estão funcionando”, completou, estimando que levará “cerca de uma década” para resolver essas questões.
Agentes de IA x realidade
A declaração de Karpathy joga um balde de água fria em um dos temas mais promovidos pela indústria de tecnologia. Como observa o Business Insider, muitos investidores chegaram a apelidar 2025 de “o ano do agente”. A promessa é que esses sistemas possam, no futuro, realizar tarefas como agendar viagens, gerenciar e-mails ou até mesmo desenvolver softwares com pouca, ou nenhuma, intervenção humana.
O site lembra que o líder de crescimento da ScaleAI, Quintin Au, já havia explicado como os erros dos agentes se acumulam. Segundo o executivo, se um modelo de linguagem tem 80% de precisão em cada ação individual, a chance de um agente completar corretamente uma tarefa de cinco passos é de apenas 32%, pois a margem de erro se multiplica a cada etapa.
Entretanto, em uma publicação no X/Twitter após o podcast, Karpathy reforça que sua crítica é, principalmente, à direção que a indústria está tomando. Para ele, “a indústria vive em um futuro onde entidades totalmente autônomas colaboram em paralelo para escrever todo o código e os humanos são inúteis”.
O cofundador da OpenAI defende a colaboração entre humanos e IA. “Eu quero que [a IA] puxe a documentação da API e me mostre que usou as coisas corretamente. Quero que ela faça menos suposições e colabore comigo quando não tiver certeza de algo”, escreveu.
Um dos riscos de criar agentes que tornam humanos obsoletos, segundo Karpathy, é a proliferação de AI slop, conteúdo de baixa qualidade gerado por inteligência artificial. Esse já é um grande problema nas redes sociais.
Vibe coding também é limitado, segundo Karpathy

Andrej Karpathy também é conhecido por cunhar o termo “vibe coding”, uma nova abordagem de programação que, segundo ele, consiste em esquecer “que o código existe”. Nela, em vez de escrever linhas de comando, o programador apenas descreve o que deseja em linguagem natural e a IA faz o trabalho pesado.
Mais cedo neste ano, o próprio Karpathy contou, no X, que usa ferramentas como o Composer (da startup Cursor AI) e o modelo de linguagem Sonnet (da Anthropic) para desenvolver aplicações. Por elas, ele dita os comandos por voz e, quando encontra um erro, simplesmente copia e cola a mensagem de volta na IA. Essa é a mesma abordagem da plataforma Opal, do Google, que chegou ao Brasil há poucas semanas.
Curiosamente, o próprio admitiu recentemente que não conseguiu codificar seu programa de vibe coding, o Nanochat, por IA. Em resposta a um comentário, Karpathy diz que tentou usar agentes como o Claude e Codex, mas preferiu programar tudo à mão.
Para o executivo, o método permite criar produtos a partir de poucas instruções, mas ainda é limitado. Segundo Karpathy, a geração de código pode se tornar incontrolável em projetos maiores e também pode criar vulnerabilidades de segurança.
Inteligência Artificial (IA)OpenAIVale do SilícioTeslaAPIX (Twitter)ClaudeAnthropicBrasilGoogle