本地优先的个人 AI 助手,通过 LangGraph ReAct 代理与个人知识图谱实现完全的数据主权与隐私保护,所有推理默认通过 Ollama 在本地完成。
核心定位#
Thoth 是面向个人用户的桌面端 AI 助手,采用纯本地架构——无账号系统、无服务器、无遥测,所有 LLM 推理默认通过 Ollama 在本地完成(支持无 GPU 的 CPU 推理),彻底解决云端 AI 服务在隐私泄露和数据主权方面的痛点。
智能体核心#
- 基于 LangGraph 的 ReAct 代理,具备自主工具调用与流式响应能力
- 智能上下文管理:自动摘要 + 硬裁剪 + 动态工具预算
- 破坏性操作需用户确认(interrupt 机制),每个节点间检查取消以支持优雅停止
- 30 个核心工具模块 + 插件工具 + 外部 MCP 工具 + 自动生成的频道工具
个人知识图谱与记忆#
- 10 种实体类型(person、preference、fact、event、place、project、organisation、concept、skill、media)
- 67 种有效关系类型 + 60+ 别名映射
- FAISS 语义检索(Qwen3-Embedding-0.6B)+ 1-hop 图扩展自动召回
- 交互式知识图谱可视化(全图 / ego-graph 切换)
- Obsidian 兼容 Wiki Vault 导出(.md + YAML frontmatter + [[wiki-links]])
Dream Cycle(知识图谱夜间精炼)#
5 阶段后台守护进程:重复合并(≥0.93 相似度)→ 描述充实 → 置信度衰减 → 关系推理 → 洞察生成。包含 3 层反污染机制、梦境日志、Ollama 忙碌检测、可配置静默窗口(默认凌晨 1-5 点)。
文档知识提取#
三阶段 map-reduce LLM 流水线:Map(~6K 字窗口摘要)→ Reduce(300-600 词综合)→ Extract(结构化实体+关系提取)。支持 PDF、DOCX、TXT、Markdown、HTML、EPUB,具备源溯源追踪、交叉窗口去重与跨源合并保护。
Designer Studio(设计创作)#
5 种设计模式:deck / document / landing / app_mockup / storyboard。沙盒交互式运行时、批评-修复循环、可编辑导出(PDF / HTML / PNG / PPTX)、可发布交互式链接分享。
多模态能力#
- 语音:本地 faster-whisper STT + Kokoro TTS(10 种语音),音频不离开本地
- 视觉:摄像头捕获、屏幕捕获、工作区图片分析
- 图像/视频生成:对接 OpenAI、Google(Imagen 4 / Veo)、xAI(Grok Imagine / Grok Imagine Video)
自动化与连接#
- 工具集:搜索(Tavily/DuckDuckGo/Wikipedia/Arxiv/YouTube/URL Reader)、Gmail/Calendar、沙盒文件系统、Shell(3 级安全)、Chromium 浏览器自动化、X (Twitter) OAuth 2.0 PKCE、健康追踪(药物/症状/运动/情绪/睡眠 + Plotly 图表)
- 工作流引擎:7 种调度类型(daily/weekly/weekdays/weekends/interval/cron/delay)、Webhook 触发、条件分支、审批步骤、子任务、并发组、每工作流模型/工具覆盖
- 消息频道:5 个内置频道(Telegram、WhatsApp、Discord、Slack、SMS/Twilio),支持流式传输、表情反应、审批路由、Tunnel (ngrok) 管理
- MCP 客户端:支持 stdio / Streamable HTTP / SSE 三种传输协议连接外部工具服务器
隐私与安全#
- 无账号、无服务器、无遥测
- API 密钥存储于 OS 凭据存储(Windows Credential Manager / macOS Keychain / Linux Secret Service)
- 文件系统沙盒(仅限工作区文件夹)
- 5 层提示注入防御:指令覆盖检测、角色冒充、数据泄露、编码逃避、社会工程
架构概览#
前端:NiceGUI(Web UI)+ pywebview(桌面原生窗口 + 系统托盘)。核心代理:LangGraph ReAct Agent。数据层:SQLite(记忆/对话线程)+ FAISS(语义向量)+ NetworkX(图结构),所有持久化数据位于 ~/.thoth/。
模型支持#
- 39 个预筛选的 Ollama 工具调用模型,默认大脑模型 qwen3:14b(~9 GB)
- 可选 Provider:OpenAI、Anthropic、Google AI、xAI、OpenRouter、ChatGPT/Codex
- 支持每线程、每工作流模型动态覆盖
安装方式#
- Windows:下载 .exe 安装程序,自动安装 Python、Ollama 及所有依赖
- macOS:下载 DMG,拖入 Applications,首次运行自动配置 Homebrew/Python/Ollama
- 源码:git clone 后 pip install -r requirements.txt,启动 Ollama 后运行 python launcher.py
系统要求#
- Python 3.11+
- 最低 8 GB RAM(8B 模型),推荐 16-32 GB(14B-30B 模型)
- GPU 可选(CPU 也可运行),推荐 NVIDIA 8+ GB VRAM 或 Apple Silicon
已知局限#
- 图像/视频生成仍需依赖外部 API,非完全本地
- 无独立网站与 Web 部署形态,定位为桌面单机应用
- Linux 桌面支持未明确验证
- ChatGPT/Codex 集成标注为可能随上游变化