Context Mode
✨面向 AI 编码 agent 的上下文窗口优化 MCP server,通过沙箱化执行、会话持久化与输出压缩将上下文消耗降低 98%。
面向 AI 编码 agent 的上下文窗口优化 MCP server,通过沙箱化执行、会话持久化与输出压缩将上下文消耗降低 98%。
基于 Agent Client Protocol 将 Claude Code、Codex、Gemini CLI 等 AI 编程代理集成到 Obsidian 笔记应用中的社区插件,支持笔记引用、多代理并行、终端集成与对话导出。
用于构建 Agent 和 LLM 驱动应用的开源框架,提供从快速原型到生产级部署的全栈能力。
社区策展的 MCP 服务器综合索引,覆盖 38 个类别、7,260+ 条目,为 AI 工具集成提供一站式发现入口。
零服务器代码智能引擎,将代码库索引为知识图谱,通过 MCP 协议为 AI Agent 提供深度架构理解与调用链追踪能力。
跨 Agent 持久化记忆桥,为 AI 编码助手提供跨会话、跨 IDE 的上下文记忆与知识图谱能力,支持 Cursor、Windsurf、Claude Code 等 7 种主流 Agent。
汇总可免费使用的 LLM 推理 API 清单,涵盖 OpenRouter、Google AI Studio、Groq、Cerebras 等主流平台的速率限制、模型列表及特殊要求,适合开发者在原型阶段进行选型参考。
Wren Engine 是 Model Context Protocol (MCP) 客户端和 AI 智能体的语义引擎,为 AI 提供准确的数据访问、语义理解和治理能力。
MCP服务器,用于基于LLM模式进行实时语义代码研究和上下文生成,搜索公共和私有仓库,将代码库转化为AI优化的知识,查找实时实现和文档。
第 1 / 1 页 · 共 9 条
获取最新的 AI 工具和趋势,直接发送到您的收件箱。没有垃圾邮件,只有智能。