OpenClaw近日发布2026.3.7版本,面向GPT-5.4等新一代大模型进行适配升级,在上下文管理、持久化能力、本地模型生态与安全机制等方面做出大幅调整,项目在GitHub上的Star数已突破28万,正从实验性框架向工程化Agent操作系统演进。

本次版本引入Context Engine插件插槽,提供完整生命周期钩子和基于插槽的注册表与配置解析机制,并通过LegacyContextEngine包装器兼容既有上下文压缩行为。开发者可以挂载如lossless-claw等插件,自定义RAG、知识图谱折叠或无损压缩策略,而无需改动核心逻辑,在未配置插件时行为保持不变。
在持久化与通道绑定方面,OpenClaw新增ACP耐用存储,支持Discord频道与Telegram话题的绑定与路由解析,配套CLI与文档。服务器重启后,线程目标与会话绑定仍可保持一致,专用智能体可以继续沿用既有上下文开展工作。Telegram侧补充了话题线程绑定、审批按钮与agentId覆盖等能力,使不同话题可路由至隔离会话的专用智能体。
联网搜索与工具链也进行了重构。Perplexity供应商切换为Search API,新增语言、地区与时间过滤器,提升信息检索的结构化程度。Web搜索工具与Ollama等本地模型的处理机制经过优化,在“思考/推理”阶段实现流式输出隔离,避免底层推理内容泄露到最终回复。容器化方面,Docker支持通过OPENCLAW_EXTENSIONS预打包扩展依赖,加快启动并提升结果复现性。
网关与系统提示词空间则围绕安全与成本展开调整。gateway.auth.token现支持SecretRef,并加入认证模式防护栏;如果同时配置token与password,升级前需显式指定gateway.auth.mode为token或password,否则可能在升级后出现启动、配对或TUI失败。系统上下文字段新增prependSystemContext与appendSystemContext钩子,插件可将静态引导信息放入系统提示词空间,利用供应商缓存降低重复提示的token开销。同时,版本增加对google/gemini-3.1-flash-lite-preview的原生支持,涵盖模型ID正规化、默认别名、多媒体理解与CLI回退路径。
在性能层面,lossless-claw在OOLONG基准测试中使用相同模型取得74.8分,Claude Code得分为70.3分,随着上下文长度增加,差距进一步拉大。在所有测试上下文长度下,OpenClaw方案均优于Claude Code。有工程师在OpenClaw上持续运行一周后评价其运行状态稳定,适合长期自主任务。
安全性更新集中在防提示词注入、拦截、凭据保护与时间戳UTC锚定等方面,配合主从智能体协作与持久化通道绑定,使复杂任务可以拆解给具备专属记忆通道的小型智能体,在隔离环境中执行,降低泄露与误用风险。
随着功能完善与生态扩展,OpenClaw的用户群体已从专业开发者扩展到更广泛的职场与个人场景,覆盖选股、报告撰写、PPT制作、邮件与代码生成等工作流。围绕GPT-5.4等新模型的支持与工程化能力的增强,OpenClaw正被越来越多团队视作“虚拟员工”式智能体基础设施。
版本发布页显示,本次更新共有196位贡献者参与,项目方在结尾向所有贡献者表达致意。
