发现 AI 代理的未来

Thoth(𓁟)

收录于 2026年5月4日
智能体与应用工具
开源
桌面应用LangGraphMCP多模态AI代理智能体框架智能体与应用工具模型与推理框架知识管理/检索/RAG安全/隐私

本地优先的个人 AI 助手,通过 LangGraph ReAct 代理与个人知识图谱实现完全的数据主权与隐私保护,所有推理默认通过 Ollama 在本地完成。

核心定位#

Thoth 是面向个人用户的桌面端 AI 助手,采用纯本地架构——无账号系统、无服务器、无遥测,所有 LLM 推理默认通过 Ollama 在本地完成(支持无 GPU 的 CPU 推理),彻底解决云端 AI 服务在隐私泄露和数据主权方面的痛点。

智能体核心#

  • 基于 LangGraph 的 ReAct 代理,具备自主工具调用与流式响应能力
  • 智能上下文管理:自动摘要 + 硬裁剪 + 动态工具预算
  • 破坏性操作需用户确认(interrupt 机制),每个节点间检查取消以支持优雅停止
  • 30 个核心工具模块 + 插件工具 + 外部 MCP 工具 + 自动生成的频道工具

个人知识图谱与记忆#

  • 10 种实体类型(person、preference、fact、event、place、project、organisation、concept、skill、media)
  • 67 种有效关系类型 + 60+ 别名映射
  • FAISS 语义检索(Qwen3-Embedding-0.6B)+ 1-hop 图扩展自动召回
  • 交互式知识图谱可视化(全图 / ego-graph 切换)
  • Obsidian 兼容 Wiki Vault 导出(.md + YAML frontmatter + [[wiki-links]])

Dream Cycle(知识图谱夜间精炼)#

5 阶段后台守护进程:重复合并(≥0.93 相似度)→ 描述充实 → 置信度衰减 → 关系推理 → 洞察生成。包含 3 层反污染机制、梦境日志、Ollama 忙碌检测、可配置静默窗口(默认凌晨 1-5 点)。

文档知识提取#

三阶段 map-reduce LLM 流水线:Map(~6K 字窗口摘要)→ Reduce(300-600 词综合)→ Extract(结构化实体+关系提取)。支持 PDF、DOCX、TXT、Markdown、HTML、EPUB,具备源溯源追踪、交叉窗口去重与跨源合并保护。

Designer Studio(设计创作)#

5 种设计模式:deck / document / landing / app_mockup / storyboard。沙盒交互式运行时、批评-修复循环、可编辑导出(PDF / HTML / PNG / PPTX)、可发布交互式链接分享。

多模态能力#

  • 语音:本地 faster-whisper STT + Kokoro TTS(10 种语音),音频不离开本地
  • 视觉:摄像头捕获、屏幕捕获、工作区图片分析
  • 图像/视频生成:对接 OpenAI、Google(Imagen 4 / Veo)、xAI(Grok Imagine / Grok Imagine Video)

自动化与连接#

  • 工具集:搜索(Tavily/DuckDuckGo/Wikipedia/Arxiv/YouTube/URL Reader)、Gmail/Calendar、沙盒文件系统、Shell(3 级安全)、Chromium 浏览器自动化、X (Twitter) OAuth 2.0 PKCE、健康追踪(药物/症状/运动/情绪/睡眠 + Plotly 图表)
  • 工作流引擎:7 种调度类型(daily/weekly/weekdays/weekends/interval/cron/delay)、Webhook 触发、条件分支、审批步骤、子任务、并发组、每工作流模型/工具覆盖
  • 消息频道:5 个内置频道(Telegram、WhatsApp、Discord、Slack、SMS/Twilio),支持流式传输、表情反应、审批路由、Tunnel (ngrok) 管理
  • MCP 客户端:支持 stdio / Streamable HTTP / SSE 三种传输协议连接外部工具服务器

隐私与安全#

  • 无账号、无服务器、无遥测
  • API 密钥存储于 OS 凭据存储(Windows Credential Manager / macOS Keychain / Linux Secret Service)
  • 文件系统沙盒(仅限工作区文件夹)
  • 5 层提示注入防御:指令覆盖检测、角色冒充、数据泄露、编码逃避、社会工程

架构概览#

前端:NiceGUI(Web UI)+ pywebview(桌面原生窗口 + 系统托盘)。核心代理:LangGraph ReAct Agent。数据层:SQLite(记忆/对话线程)+ FAISS(语义向量)+ NetworkX(图结构),所有持久化数据位于 ~/.thoth/。

模型支持#

  • 39 个预筛选的 Ollama 工具调用模型,默认大脑模型 qwen3:14b(~9 GB)
  • 可选 Provider:OpenAI、Anthropic、Google AI、xAI、OpenRouter、ChatGPT/Codex
  • 支持每线程、每工作流模型动态覆盖

安装方式#

  • Windows:下载 .exe 安装程序,自动安装 Python、Ollama 及所有依赖
  • macOS:下载 DMG,拖入 Applications,首次运行自动配置 Homebrew/Python/Ollama
  • 源码:git clone 后 pip install -r requirements.txt,启动 Ollama 后运行 python launcher.py

系统要求#

  • Python 3.11+
  • 最低 8 GB RAM(8B 模型),推荐 16-32 GB(14B-30B 模型)
  • GPU 可选(CPU 也可运行),推荐 NVIDIA 8+ GB VRAM 或 Apple Silicon

已知局限#

  • 图像/视频生成仍需依赖外部 API,非完全本地
  • 无独立网站与 Web 部署形态,定位为桌面单机应用
  • Linux 桌面支持未明确验证
  • ChatGPT/Codex 集成标注为可能随上游变化

保持更新

获取最新的 AI 工具和趋势,直接发送到您的收件箱。没有垃圾邮件,只有智能。