verl
🧠面向大语言模型的灵活、高效、生产可用的强化学习后训练框架
面向大语言模型的灵活、高效、生产可用的强化学习后训练框架
Intel 官方的大语言模型与视觉-语言模型后训练量化工具包,基于 SignRound 算法支持 2-4 bit 极低比特量化与自动混合精度方案生成,可跨 Intel CPU/GPU、NVIDIA GPU、Habana Gaudi 部署。
面向 macOS Apple Silicon 的全链路端侧语音 AI 助手,集成 STT、LLM、TTS、VLM、RAG 与系统操作控制,完全离线运行。
面向大语言模型的强化学习训练环境构建库,提供从开发、测试到规模化 Rollout 采集的完整基础设施,内置丰富的 RLVR 场景与工具调用支持。
由因斯布鲁克大学开发的模块化Python工具包,整合信息检索、重排序与RAG生成功能,内置40+预处理数据集,支持一行代码构建完整RAG管道。
O'Reilly《Hands-On Large Language Models》官方代码库,包含12章核心内容与Bonus章节,涵盖Tokens、Transformer、RAG、微调等主题。提供300+插图与可运行的Jupyter Notebook,支持Colab与本地环境。
包含93+个生产级示例的综合AI工程资源库,提供LLM应用、RAG系统、AI Agent开发及MCP协议的深度教程与可运行代码实现,覆盖从初级到高级的完整学习路径。
清华大学THUNLP推出的端到端全能多模态大模型,支持视觉理解、语音对话和全双工多模态实时流交互,性能接近Gemini 2.5 Flash,可在手机端高效运行。
语言模型全自动审查移除工具,通过方向性消融与TPE参数优化自动移除模型安全对齐,在最小化拒绝行为的同时保留模型原始能力。支持稠密模型、多模态模型和MoE架构。
由清华大学与智谱 AI 联合推出的开源端到端视觉语言模型驱动的 GUI 智能体,基于 GLM-4V-9B 双语开源 VLM 基座模型,通过屏幕截图与自然语言指令实现跨平台(Windows/macOS/Android)图形界面自动化操作与推理。
第 1 / 5 页 · 共 49 条
获取最新的 AI 工具和趋势,直接发送到您的收件箱。没有垃圾邮件,只有智能。