一个基于 LLM (大语言模型) 的现代化 Markdown 批量翻译工具。专为翻译大型文档项目、博客和技术文档而设计。它具备智能分片、并发控制和断点续传功能,确保在大规模翻译任务中的稳定性和效率。
- 智能长文分片: 自动根据 Token 上限将大型 Markdown 文件切分为安全的小块,翻译后自动合并,完美解决上下文溢出问题。
- 并发翻译控制: 支持自定义并发数量,充分利用 API 速率限制 (Rate Limit),大幅提升翻译速度。
- 所见即所得的任务管理:
- 实时进度监控(Token 消耗、耗时、成功/失败状态)。
- 支持任务暂停、取消、删除。
- 断点续传/单文件重试: 失败的文件可以单独重试,无需从头开始。
- 配置热更新: 模型参数调整后,可对单个文件执行“刷新配置”,按新参数重新切分并翻译。
- 多模型支持: 兼容所有 OpenAI 格式的 API (GPT-4, Claude, DeepSeek, Gemini 等)。支持自定义 Base URL。
- 美观的现代化 UI: 基于 React + Ant Design 构建,支持响应式布局和深色模式适配(系统级)。
- 数据统计: 内置仪表盘,可视化展示 Token 使用量、请求次数和模型性能对比。
- Frontend: React 18, TypeScript, Vite, Ant Design, Recharts
- Backend: Go (Golang), Gin Web Framework, GORM (SQLite with WAL mode)
- Architecture: 前后端分离,RESTful API,Server-Sent Events (可选/预留), Worker Pool 模式
- Go 1.21+
- Node.js 16+
- SQLite3 (通常内置)
cd backend
go mod tidy
go run cmd/server/main.go后端服务默认运行在 http://localhost:8080。
cd frontend
npm install
npm run dev前端页面默认运行在 http://localhost:5173。
项目包含自动构建脚本:
./build.ps1
cd release
./server.exe-
配置模型:
- 进入 "模型管理" 页面。
- 点击 "新建模型",输入 API Key, Base URL 和模型名称 (e.g.,
gpt-4o,deepseek-chat)。 - 设置 Token 上限 (Max Input/Output) 以确保分片安全。
-
创建任务:
- 进入 "任务列表" -> "新建任务"。
- 填写源文件夹路径 (Source Dir) 和目标文件夹路径 (Target Dir)。
- 选择使用的模型和并发数。
-
监控与管理:
- 任务创建后处于 "Paused" 或 "Created" 状态。
- 点击 "开始" 启动翻译。
- 点击任务卡片进入详情页,查看每个文件的翻译进度。
- 如果某文件失败,点击 "重试" 即可。如果修改了模型 Token 限制,点击 "刷新模型" 重新计算分片后再重试。
MIT License








