发现 AI 代理的未来

SmolVM

收录于 2026年5月4日
智能体与应用工具
开源
DockerLangChainAI代理浏览器自动化智能体与应用工具开发者工具/代码自动化/工作流/RPA安全/隐私

面向 AI Agent 的一次性微型虚拟机沙箱基础设施,基于 Firecracker/QEMU 提供硬件级隔离与亚秒级启动,支持安全代码执行、浏览器自动化、快照状态管理及编码代理集成。

SmolVM 是由 Celesto AI(伦敦)开发的 AI Agent 沙箱基础设施,核心目标是让 AI 代理在安全隔离的环境中执行代码、操作浏览器并完成实际任务。项目基于 KVM-backed microVM 技术,Linux 平台使用 Firecracker、macOS 平台使用 QEMU 作为虚拟化后端,每个沙箱运行独立内核,提供比容器更强的安全边界。

在性能方面,SmolVM 实现了亚秒级启动——创建与启动约 572ms,SSH 就绪约 2.1s,单条命令执行约 43ms,全生命周期(创建→执行→销毁)约 3.5 秒,满足 AI Agent 高频短生命周期调用的需求。项目设计目标为可同时处理数千个沙箱实例。

核心能力涵盖六个维度:安全执行——在隔离 microVM 中运行 LLM 输出的 Python/Shell 代码,防止恶意代码逃逸;浏览器沙箱——代理可导航网站、填写表单、截图,支持通过 noVNC 实时可视化(--live 模式,localhost:6080);文件系统隔离——支持只读/可写挂载宿主机目录到沙箱,代理可安全读取和分析代码库;网络管控——通过 egress 域名白名单精确控制沙箱出站访问,每个沙箱分配独立 TAP 设备与私有 IP(172.16.0.0/16);状态保持——通过快照机制实现跨会话状态持久化;编码代理集成——一键启动预装 Claude Code、Codex、Pi 的沙箱环境。

架构上,SmolVM 采用分层设计:底层由 Rust 编写的 smolvm-core(PyO3 扩展,edition 2024,rust-version 1.85)处理虚拟化操作,镜像基于 Alpine Linux 构建并使用 zstd 压缩,网络层通过 NAT 出站并支持域名级过滤,命令通过 SSH(paramiko)通道执行,状态元数据存储于 SQLite(~/.local/state/smolvm/smolvm.db)。提供 Python SDK、CLI 和可选的 FastAPI + WebSocket Dashboard 三种交互方式,并已提供 OpenAI Agents、LangChain、PydanticAI 的集成示例。

资源参数范围:vCPUs 1–32(默认 1),内存 128–16384 MiB(默认 512 MiB),磁盘 64 MiB 起步(默认 512 MiB)。Python 要求 >= 3.10(支持 3.10–3.14)。项目以 Apache-2.0 开源,当前版本 v0.0.13(25 个 release,214 次提交,12 位贡献者)。

待确认事项:Windows 宿主支持未提及;云端托管/SaaS 服务细节不详;OpenClaw 的具体定义与独立项目状态不明;生产环境大规模部署的具体容量基准缺失。

保持更新

获取最新的 AI 工具和趋势,直接发送到您的收件箱。没有垃圾邮件,只有智能。