Somente o código em nuvem contribui com US$ 2,5 bilhões em receita recorrente anual (ARR), que mais que dobrou desde janeiro de 2026. Os clientes empresariais foram responsáveis por 80% dessa receita, o que significa que o vazamento entregou aos concorrentes um plano literal para a construção de agentes de IA altamente escaláveis e comercialmente viáveis. O código-fonte exposto revela não apenas recursos não enviados, mas também o roteiro do modelo interno da Anthropic, gerenciamento de memória e lógica de orquestração, levantando preocupações estratégicas e de segurança para usuários e desenvolvedores.
Claude Code Leak Shock: A Anthropic revelou acidentalmente seus modelos secretos de IA?
O vazamento veio de um mapa de origem incluído no lançamento do npm. Os mapas de origem traduzem o código minificado em sua forma original, fornecendo aos desenvolvedores uma ferramenta de depuração. No entanto, neste caso, expôs inadvertidamente a plena implementação interna do código Claude. No início da manhã, horário do leste dos EUA, Chaofan Shou, estagiário do Solar Lab, tornou o vazamento público, solicitando rápida replicação e análise na Internet.
Para a Antrópica, o momento desse vazamento é crítico. O código em nuvem é fundamental para a taxa de receita anual de US$ 19 bilhões da empresa. Concorrentes que vão desde grandes empresas de IA até startups ágeis como a Cursor agora têm acesso a estruturas avançadas de memória de agente, daemons autônomos e padrões de orquestração.
Que segredos técnicos o vazamento revelou sobre o código da nuvem?
Os desenvolvedores que examinaram a fonte descobriram uma arquitetura de memória complexa de três camadas projetada para evitar a entropia de contexto, um problema comum onde longas sessões de IA produzem alucinações ou conflitos. Essa “memória autocurativa” depende de um índice leve (MEMORY.md) contendo ponteiros para arquivos de tópicos distribuídos, evitando contexto redundante. As atualizações seguem uma “disciplina rígida de gravação”, garantindo que apenas as alterações escritas com sucesso sejam refletidas na memória.
Outra característica crítica revelada CairoUm modo daemon em segundo plano que permite que o código clod consolide a memória, mescle observações e mantenha a integridade do contexto quando os usuários estão ociosos. A Source também bifurca subagentes que lidam com tarefas de manutenção para proteger o fluxo de trabalho do agente principal, permitindo um desempenho de IA suave e sempre ativo.
O que o vazamento significa para concorrentes e construtores?
O projeto revelado oferece insights incomparáveis para desenvolvedores rivais. Com mais de 2.500 linhas de lógica de avaliação bash, estratégias de orquestração multiagentes e sistemas de memória detalhados, os concorrentes agora podem acelerar o desenvolvimento de agentes como Claude sem incorrer em custos reais de P&D. Capivara, FenechE Noventa Revelado com métricas de desempenho. Por exemplo, Capivara v8 mostra uma taxa de reclamações falsas de 29-30%, subindo para 16,7% na v4. Esses dados permitem que os adversários comparem os limites de desempenho dos agentes e compreendam as limitações atuais no tratamento da determinação e da lógica de refatoração.
Quais são os riscos de segurança para usuários de código em nuvem?
Além da exposição estratégica, os vazamentos representam altos riscos de segurança. A fonte detalha ganchos e lógica de orquestração do servidor MCP que permitem que invasores projetem repositórios maliciosos para ignorar prompts ou exfiltrar dados. Um ataque simultâneo à cadeia de suprimentos ao pacote axios npm aumenta a vulnerabilidade. Os usuários que atualizaram o código do Cloud via npm entre 00h21 e 03h29 UTC de 31 de março de 2026 podem ter extraído versões maliciosas contendo trojans de acesso remoto (RATs).
As etapas de mitigação incluem auditoria de package-lock.json, yarn.lock ou bun.lock para versões comprometidas, migração para o instalador nativo da Anthropic para atualizações binárias seguras e rotação de chaves de API. As empresas devem adotar uma postura de confiança zero, testando todos os ganchos e configurações antes de executar o código da nuvem em repositórios desconhecidos.
Como os usuários podem continuar a usar o Clod Code com segurança?
A Anthropic recomenda abandonar totalmente a versão npm em favor do instalador nativo, que fornece atualizações automáticas e depende de cadeias de dependência instáveis. Os usuários devem desinstalar a versão 2.1.88 e reverter para uma versão segura verificada, como 2.1.86, se o npm for necessário.
Além disso, é essencial monitorar o uso da API em busca de anomalias e garantir que as máquinas locais estejam livres de infecções de RAT. Embora os dados armazenados na nuvem permaneçam seguros, os ambientes locais agora estão mais vulneráveis devido ao acesso público à orquestração do código da nuvem e à lógica de memória.
Quais recursos do Clod Code estavam ocultos até o vazamento?
O código-fonte revelou 44 sinalizadores de recursos, incluindo recursos totalmente construídos, mas não lançados:
- Agentes em segundo plano constantes em execução 24 horas por dia, 7 dias por semana, com integração ao GitHub
- Orquestração multiagente com classes de trabalhadores gerenciados
- Agendamento Cron usando webhooks externos
- Modo de comando de voz completo com sua própria CLI
- Controle original do navegador por Playwright
- Recursos de suspensão e reinicialização automática para agentes
- Memória de sessão persistente sem armazenamento externo
Esses recursos indicam que o roteiro da Anthropic estava à frente dos lançamentos públicos, com a maioria dos recursos já implementados e prontos para lançamento quinzenal.
Por que vazamentos de código em nuvem mudarão o mercado de IA
Lee efetivamente nivela o campo de jogo para o desenvolvimento de IA. Os concorrentes agora têm acesso a um sistema operacional maduro e multithread para agentes de software autônomos, incluindo gerenciamento de memória, orquestração e manipulação de tarefas em segundo plano. Empresas e desenvolvedores que aprendem sobre vazamentos podem ignorar anos de pesquisa e desenvolvimento e lançar soluções como o Clod por uma fração do custo.
Para a Anthropic, a exposição é uma preocupação financeira e estratégica, mas para o ecossistema mais amplo de IA, os vazamentos aceleram a inovação, fornecendo uma referência comum para as capacidades e riscos da IA dos agentes.
PERGUNTAS FREQUENTES:
1. O que exatamente foi revelado no vazamento do código de Claude e por que isso é importante? Claude revelou todo o código-fonte interno do Agent AI da Anthropic, incluindo vazamentos de código, arquitetura de memória, lógica de orquestração e 44 sinalizadores de recursos não enviados. Esta exposição dá aos adversários um plano detalhado para a construção de agentes de IA autónomos, ao mesmo tempo que aumenta os riscos de segurança para os utilizadores existentes. As empresas agora enfrentam a possibilidade de coleções maliciosas explorarem os ganchos exatos e os processos em segundo plano detalhados no código vazado.
2. Como os usuários do código Clod podem se proteger após vazamentos do código-fonte?
Os usuários devem desinstalar imediatamente a versão 2.1.88 vazada, migrar para o instalador nativo do anthropic e auditar todas as dependências do npm em busca de pacotes comprometidos, como o axios 1.14.1. A implementação de uma postura de confiança zero, a rotação de chaves de API e o monitoramento de atividades suspeitas garantem segurança contínua. Essas medidas protegem os ambientes locais e, ao mesmo tempo, aproveitam as atualizações oficiais do código da nuvem para operações seguras e autônomas.