Neve Code é um agente de codificação integrado ao VS Code que viabiliza a execução de modelos de linguagem de grande porte (LLMs) diretamente em seu ambiente de desenvolvimento local. Ao operar inteiramente offline e sem dependência de APIs de terceiros, a solução oferece uma experiência de assistência por IA focada em privacidade e soberania de dados, utilizando o ecossistema llama.cpp para processar modelos no formato GGUF. A ferramenta disponibiliza um painel de chat dedicado para interação direta com o modelo, proporcionando suporte contínuo ao fluxo de trabalho de programação dentro do editor.
|
|
- O servidor llama.cpp é iniciado localmente na porta
8080com o modelo GGUF da pastamodels/ - A extensão VS Code abre um painel de chat na barra lateral secundária
- O painel se comunica com o servidor via API compatível com OpenAI (
/v1/chat/completions) - O CLI pode ser usado no terminal como alternativa ao chat visual
A extensão Neve Code adiciona um painel de chat à barra lateral secundária do VS Code.
Funcionalidades:
- Chat com o modelo local em tempo real
- Histórico de sessões com possibilidade de restaurar conversas anteriores
- Suporte a streaming de resposta, blocos de raciocínio e chamadas de ferramentas
- Tema escuro integrado: NeveCode Terminal Black
- Windows 10/11 64-bit
- VS Code
1.95+ - GPU compatível com Vulkan ou CUDA (recomendado), ou CPU
Execute instalar.bat na raiz do projeto. Ele cuida de tudo, incluindo empacotar e instalar esta extensão.
O instalador vai:
- Verificar/instalar Node.js e Bun
- Rodar
bun installe compilar o projeto - Baixar o llama.cpp do GitHub (detecta CUDA, fallback para Vulkan)
- Empacotar e instalar a extensão VS Code
- Configurar variáveis de ambiente e
settings.json
Depois da instalação, reinicie o VS Code e execute:
iniciar.batcd vscode-extension\nevecode-vscode
npx @vscode/vsce package --no-dependencies
code --install-extension nevecode-vscode-0.2.0.vsix --forceColoque qualquer arquivo .gguf na pasta models/. O servidor detecta automaticamente o primeiro modelo encontrado.
O iniciar.bat detecta o modelo automaticamente e seta OPENAI_MODEL para o nome do arquivo.
| Comando | Descrição |
|---|---|
Neve Code: Abrir Painel de Chat |
Abre o chat na barra lateral secundária |
Neve Code: Nova Conversa |
Inicia uma conversa nova |
Neve Code: Retomar Sessão |
Abre o histórico de sessões |
Neve Code: Interromper Geração |
Cancela a resposta em andamento |
Neve Code: Iniciar no Terminal |
Abre o CLI no terminal integrado |
Neve Code: Iniciar na Raiz do Workspace |
Inicia o CLI no diretório raiz do projeto aberto |
Atalho: Ctrl+Shift+L (Cmd+Shift+L no macOS)
Neve Code/
├── models/ # Modelos GGUF (coloque o seu aqui)
├── llama-bin/ # Binários do llama.cpp (baixados pelo instalador)
├── src/ # Código-fonte do CLI
├── dist/ # Build compilado
├── scripts/
│ └── start-llamacpp.ps1 # Inicialização do servidor llama
├── python/ # Provedores Python alternativos (llama.cpp)
├── vscode-extension/
│ └── nevecode-vscode/ # Extensão VS Code
├── instalar.bat # Instalador completo
└── iniciar.bat # Inicia servidor + CLI
O painel do Neve Code fica na barra lateral secundária (lado direito do VS Code). Para abri-la:
- Menu View → Secondary Side Bar (
Ctrl+Alt+B) - Ou use o atalho
Ctrl+Shift+L
# Rodar testes
npm run test
# Lint
npm run lint
# Empacotar
npm run packageA extensão inclui o tema NeveCode Terminal Black — um tema escuro e de alto contraste otimizado para sessões longas de codificação com IA.
Ative em: Ctrl+Shift+P → Preferences: Color Theme → NeveCode Terminal Black


