Ollama 是本项目中用于本地代码总结的核心模型服务。通过配置 Ollama,可以在本地运行轻量级语言模型,为 Claude Code 提供快速的代码理解、文档生成和上下文总结能力。
为什么选择 gemma3:1b?
- 轻量级:仅需约 1GB 内存占用
- 响应迅速:本地推理,无需网络请求
- 性价比高:在资源受限环境下表现优异
- 开源免费:Google Gemma 系列模型
# 使用 PowerShell
winget install Ollama.Ollama
# 或访问官网下载安装包
# https://ollama.com/downloadbrew install ollamacurl -fsSL https://ollama.com/install.sh | sh安装完成后,Ollama 服务会自动启动。你可以通过以下命令验证:
# 检查服务状态
ollama --version
# 预期输出:
# ollama version is 0.1.x# 下载 gemma3:1b 模型(推荐)
ollama pull gemma3:1b
# 验证模型安装
ollama list
# 预期输出应包含:
# NAME ID SIZE MODIFIED
# gemma3:1b xxx...xxx 1.0GB 2024-xx-xx# 交互式测试
ollama run gemma3:1b
# 输入测试问题:
# > 请用一句话解释什么是递归?
#
# 预期会收到模型的回复在项目根目录下创建 .env 文件:
# 复制示例配置文件
cp .env.example .env编辑 .env 文件,设置以下变量:
# ===== Ollama 模型配置 =====
# 指定使用的模型名称
OLLAMA_MODEL=gemma3:1b
# 可选:设置 Ollama API 端点(默认为 http://localhost:11434)
# OLLAMA_API_BASE=http://localhost:11434
# 可选:设置超时时间(秒)
# OLLAMA_TIMEOUT=30# 确保 Ollama 服务正在运行
# Windows: 在服务管理器中查看 Ollama 服务状态
# macOS/Linux: pgrep ollama
# 测试 API 连接
curl http://localhost:11434/api/tags
# 预期返回已安装的模型列表Ollama 配置完成后,项目中的以下功能会自动使用本地模型:
| 功能 | 描述 |
|---|---|
| 代码总结 | 自动生成代码片段的简洁摘要 |
| 文档生成 | 基于代码结构生成技术文档 |
| 上下文压缩 | 压缩长对话历史以节省 Token |
| 问题分析 | 快速理解代码问题并提供建议 |
如果你需要更强的能力,可以考虑以下替代模型:
# 2B 参数版本(更强,但需要更多资源)
ollama pull gemma3:2b
# 4B 参数版本(更强,适合开发环境)
ollama pull gemma3:4b
# 修改 .env 文件中的 OLLAMA_MODEL 变量即可切换模型对比:
| 模型 | 内存占用 | 推荐场景 |
|---|---|---|
| gemma3:1b | ~1GB | 资源受限环境、快速响应 |
| gemma3:2b | ~2GB | 日常开发、平衡性能 |
| gemma3:4b | ~4GB | 复杂任务、高质量输出 |
# Windows: 以管理员身份运行 PowerShell,重启服务
Restart-Service Ollama
# macOS/Linux
ollama serve# 使用镜像加速(如适用)
# 或手动下载后放置到 Ollama 模型目录
# Windows: C:\Users\<用户名>\.ollama\models
# macOS/Linux: ~/.ollama/models# Windows: 事件查看器 -> 应用程序和服务日志 -> Ollama
# macOS: Console.app -> 搜索 "ollama"
# Linux: journalctl -u ollama -f配置完成后,你可以: