Caveman Mode: a skill open-source que corta 65% dos tokens no Claude Code
Conheca o Caveman Mode: uma skill instalavel em 30 segundos que faz o Claude Code (e mais 30 agentes) falar como caveman, cortando ate 87% dos tokens de saida sem perder precisao tecnica.

Token caro. Contexto curto. Resposta do Claude longa demais com filler tipo "Sure! I'd be happy to help you with that..." antes de chegar na substancia. O Caveman Mode ataca exatamente esse problema: uma skill open-source que faz qualquer agente de IA falar como caveman, mantendo precisao tecnica e cortando em media 65% dos tokens de saida (chegando a 87% em algumas tarefas).
O que e o Caveman Mode?
Caveman e uma skill plugavel no Claude Code (e tambem Codex, Gemini CLI, Cursor, Windsurf, Cline, Copilot e mais de 30 agentes) que aplica um conjunto de regras de compressao na saida do modelo: remove artigos (a/o), filler ("basically", "actually"), pleasantries ("sure", "of course"), hedging, e prefere fragmentos a frases completas. Termos tecnicos ficam intactos. Codigo, commits e logs de erro nao sao alterados.
Slogan do projeto resume bem a filosofia: why use many token when few token do trick.
Antes e depois: o mesmo bug, 75% menos texto
Mesmo prompt ("por que meu componente React re-renderiza?"), duas respostas:
Claude normal (69 tokens): "A razao pela qual seu componente React esta re-renderizando provavelmente e porque voce esta criando uma nova referencia de objeto a cada ciclo. Quando voce passa um objeto inline como prop, a comparacao rasa do React o ve como um objeto diferente toda vez, o que dispara um re-render. Eu recomendaria usar useMemo para memoizar o objeto."
Caveman Claude (19 tokens): "Nova ref de objeto a cada render. Inline obj prop = nova ref = re-render. Wrap em
useMemo."
Mesma resposta. 75% menos palavra. Cerebro continua grande.
Quanto economiza na pratica?
Benchmark oficial do projeto usando a API real do Claude em 10 prompts variados (range 22% a 87%):
- Media geral: 65% de reducao na saida (1214 tokens -> 294 tokens)
- Pico: 87% em "Implement React error boundary" (3454 -> 456)
- Velocidade: ~3x mais rapido (menos token gerado = menos tempo)
- Precisao tecnica: 100% mantida (paper de marco/2026 mostrou que brevidade ate aumenta acuracia em 26 pontos em alguns benchmarks)
Como instalar em 30 segundos
Um comando, detecta todos os agentes instalados, instala em cada um. Precisa Node 18+:
bash# macOS / Linux / WSL / Git Bash curl -fsSL https://raw.githubusercontent.com/JuliusBrussee/caveman/main/install.sh | bash # Windows (PowerShell 5.1+) irm https://raw.githubusercontent.com/JuliusBrussee/caveman/main/install.ps1 | iex
Apos instalar, digite /caveman no Claude Code para ativar. Para sair: stop caveman ou normal mode.
Os 4 niveis de compressao
Voce escolhe a intensidade conforme o contexto:
lite: so remove filler obvio, mantem leitura naturalfull(padrao): caveman classico, fragmentos curtos, ~65% economiaultra: telegrafico, abreviacoes (DB, auth, fn, req/res), setas pra causalidade (X -> Y), ~75-85% economiawenyan: modo classico chines, ainda mais curto (experimental)
Comandos extras que vem junto
/caveman-commit: mensagens de commit Conventional, max 50 chars no subject, foco em "why" sobre "what"/caveman-review: comentarios de PR em uma linha so (ex: "L42: bug: user null. Add guard.")/caveman-stats: estatisticas reais da sessao (tokens economizados + USD)/caveman-compress <arquivo>: reescreve arquivos de memoria (CLAUDE.md, notas) em caveman-speak, corta ~46% dos tokens de entrada toda sessao
Vale a pena no dia-a-dia?
Sim. Tres ganhos imediatos: leitura mais rapida (menos texto pra parsear), contexto mais longo (saidas curtas consomem menos da janela de contexto) e custo menor (output tokens sao cobrados ~5x mais caro que input). Importante: caveman so afeta tokens de saida, nao mexe em reasoning/thinking tokens. Codigo, commits e logs ficam intactos.
Repositorio: . MIT, +59k estrelas. Brain still big. Mouth small.
Comentários
Nenhum comentário ainda. Seja o primeiro a compartilhar suas ideias.