Skip to content
View Etamus's full-sized avatar
🎯
Focusing
🎯
Focusing

Organizations

@EpicGames @Py-Contributors @pysnippet @Fixedge @Fixaware @NeveIA

Block or report Etamus

Block user

Prevent this user from interacting with your repositories and sending you notifications. Learn more about blocking users.

You must be logged in to block users.

Maximum 250 characters. Please don’t include any personal information such as legal names or email addresses. Markdown is supported. This note will only be visible to you.
Report abuse

Contact GitHub support about this user’s behavior. Learn more about reporting abuse.

Report abuse
Etamus/README.md

bannerteste

sobre



PT-BR PT-BR

Com um background consolidado em Ciência da Computação, atuo na intersecção entre o desenvolvimento de software e a engenharia de Machine Learning, com foco profundo no ecossistema de Large Language Models (LLMs). Minha especialidade cobre o ciclo completo de IA (end-to-end): desde a exploração de arquiteturas, técnicas de otimização e fine-tuning (PEFT, QLoRA), até a construção das aplicações e interfaces que conectam esses modelos aos usuários finais.

Atualmente, lidero a engenharia e o desenvolvimento da Neve AI — uma plataforma de IA local privacy-first para execução de LLM offline de alta performance, sem dependência de APIs ou serviços externos. Em paralelo, sou contribuidor e pesquisador na organização Fixaware, desenvolvendo infraestrutura e colaborando em projetos open-source voltados para o avanço da Inteligência Artificial.


EN-US

With a solid background in Computer Science, I operate at the intersection of software engineering and Machine Learning, focusing deeply on the Large Language Models (LLMs) ecosystem. My expertise covers the end-to-end AI lifecycle: from exploring architectures, optimization techniques, and fine-tuning (PEFT, QLoRA), to building the applications and interfaces that connect these models to end-users.

Currently, I lead the engineering and development of Neve AI — a privacy-first local AI platform for high-performance offline LLM execution, with no dependence on external APIs or services. In parallel, I am a researcher and contributor at the Fixaware organization, developing infrastructure and collaborating on open-source projects aimed at advancing Artificial Intelligence.




teste


Frontend Backend DevOps
Design Gamedev




projetoemand




testad Descrição Técnica:
Neve é um Large Language Model (LLM) de alta escala, especializado em fluxos de trabalho autonômos (Agentic Workflows) e raciocínio lógico profundo. Através de técnicas avançadas de fine-tuning como PEFT e QLoRA, o modelo foi otimizado para manter coerência em janelas de contexto estendidas e precisão em geração de código complexo.

Architecture: MTP    |    Context: 256K    |    Status: Post-Trained



Benchmarks e Avaliação de Desempenho

Resultados comparativos evidenciando a evolução do modelo Neve em relação aos baselines de mercado.


Benchmark (Evals) Qwen3.5 27B Gemma4 31B Qwen3.5 35B Neve Strata 35B
(Meu Fine-Tune)
Coding & General Agents (Repositórios e Ferramentas)
SWE-bench Verified 75.0 52.0 70.0 73.4
Terminal-Bench 2.0 41.6 42.9 40.5 51.5
QwenWebBench 1068 1197 978 1397
MCP-Atlas 68.4 57.2 62.4 62.8
STEM & Deep Reasoning (Lógica e Matemática)
LiveCodeBench v6 80.7 80.0 74.6 80.4
AIME 26 92.6 89.2 91.0 92.7
GPQA 85.5 84.3 84.2 86.0
Vision & Spatial Intelligence (OCR e Documentos)
MMMU 82.3 80.4 81.4 81.7
RealWorldQA 83.7 72.3 84.1 85.3
OmniDocBench1.5 88.9 80.1 89.3 89.9



Testes






tgeste Descrição Técnica:
Plataforma open-source self-hosted e extensível para orquestração de Inteligência Artificial. Projetada para operar em ambientes offline e cloud-native, integra motores de inferência locais (llama.cpp), oferecendo infraestrutura completa para RAG nativo, chamadas de função (Function Calling), multimodalidade e gestão de acessos em nível Enterprise.

Deploy: Docker & K8s    |    Auth: RBAC & SCIM 2.0    |    Scale: Redis & WebSockets    |    Metrics: OpenTelemetry



Arquitetura de Sistema e Capacidades Técnicas

Visão geral dos módulos de integração, engenharia de dados e segurança da plataforma.


Domínio da Arquitetura Especificações e Tecnologias Suportadas
Inteligência & Orquestração de Modelos
Multi-Engine Integração fluida entre modelos locais (llama.cpp). Suporte nativo a inferência simultânea (Many Models), permitindo execução paralela para otimização de respostas.
Extensibilidade & Pipelines Pipelines Plugin Framework para injeção de lógica customizada (rate limiting, filtros, Langfuse). Suporte a Native Python Function Calling (BYOF), permitindo execução de código e ferramentas diretamente pelo LLM.
Processamento Multimodal Integração de geração e edição de imagens (ComfyUI, AUTOMATIC1111).
Engenharia de RAG & Armazenamento
Vector & Knowledge Bases Motor RAG nativo com suporte a 9+ Vector Databases (ChromaDB, PGVector, Qdrant, Milvus, etc.). Extração de conteúdo via Tika, Docling, Mistral OCR e Document Intelligence.
Retrieval & Cloud Storage Injeção de contexto em tempo real via 15+ provedores de Web Search (SearXNG, Tavily, Perplexity). Integração Cloud-Native para importação direta via Google Drive, OneDrive e SharePoint.
Persistência de Artefatos Armazenamento em SQLite (com criptografia) ou PostgreSQL, com suporte a backends de storage em nuvem (S3, GCS, Azure Blob). Key-value store interno para retenção de artefatos e histórico entre sessões.
Infraestrutura Enterprise & Segurança
Identidade & Controle de Acesso Implementação estrita de RBAC com permissões granulares. Autenticação Enterprise via LDAP/AD, SSO (OAuth) e provisionamento automatizado de ciclo de vida de usuários via protocolo SCIM 2.0 (Okta, Azure AD).
Escalabilidade Horizontal Sessões gerenciadas via Redis e suporte a WebSockets, viabilizando deployments multi-node e multi-worker operando atrás de load balancers.
Observabilidade (APM) Suporte built-in a OpenTelemetry para exportação de traces, métricas e logs, garantindo monitoramento profundo integrado a stacks de observabilidade de produção.


estatisticas



GitHub Streak




contato



LinkedIn Empresa




github contribution snake animation

Pinned Loading

  1. NeveAI NeveAI Public

    Neve AI é uma plataforma de IA local privacy-first baseada em FastAPI, SvelteKit e llama.cpp. Oferece inferência GGUF multimodal, RAG híbrido, execução de código via Pyodide e busca web, garantindo…

    Python 6 1

  2. NeveCode NeveCode Public

    Neve Code é uma extensão de agente de codificação para VS Code que opera de forma totalmente offline, dispensando o uso de APIs pagas ou conexão com a internet. Ela integra um painel de chat intera…

    TypeScript 2 1

  3. NeveCascade NeveCascade Public

    Neve Cascade é uma LLM ultraleve e autoral de 90 milhões de parâmetros, com pipeline profissional de fine-tuning, quantização e exportação. O repositório inclui scripts, configs, notebooks e docume…

    Python 2 1

  4. Claudecpp Claudecpp Public

    Claudecpp é uma adaptação do OpenClaude v0.1.8, agora focada exclusivamente em inferência local via llama.cpp. Sem APIs externas, sem nuvem, sem dependências. Agente de código totalmente offline, o…

    TypeScript 2

  5. Nevebot Nevebot Public

    Nevebot é um agente multimodal para Discord operando self-hosted. O sistema integra inferência local de LLMs (GGUF) a pipelines de processamento de áudio bidirecional acelerados por GPU (Faster-Whi…

    Python 2 1

  6. Loucpp Loucpp Public

    Agente conversacional full-stack operando localmente via llama-cpp-python (GGUF/CUDA). A arquitetura combina um backend HTTP modular em Python com uma interface web, orquestrando retenção profunda …

    Python 1