星标超 28 万,OpenClaw 两天两次大更!适配GPT 5.4,告别“抽卡式 Prompt”

星标超 28 万,OpenClaw 两天两次大更!适配GPT 5.4,告别“抽卡式 Prompt”



整理 | 梦依丹

出品 | ZEEKLOG(ID:ZEEKLOGnews)

“We don’t do small releases.”

这是 OpenClaw 在发布 2026.3.7 版本时写下的一句话。

刚刚过去的周六与周日,这个 GitHub 星标已超 28 万 的 AI Agent 开源项目再次迎来两轮重量级更新。

两天两次更新:OpenClaw 做了一次“真正的大版本升级”

打开 OpenClaw 的 GitHub 更新日志,你会发现这次版本更新的规模确实不小。在 3 月 7 日发布更新后,第二天又迅速推出 2026.3.8-beta.1 和 2026.3.8 修复版。

官方在更新 2026.3.8 的说明中还开了一句玩笑:

“We fixed more things than we broke. Progress.”

我们修复的问题比制造的问题还多,这就是进步。

一如既往,OpenClaw 项目团队在所有的 release note 中逐一 @ 了每位贡献者——其中 2026.3.7 版本共有 196 位贡献者参与了的开发与改进,体现了 OpenClaw 开源生态的活跃与紧密协作。

两天更新的条目非常多,但从整体来看,此次更新主要集中在模型能力、Agent 架构、工程部署以及安全机制四个方向。

1. 模型能力升级:支持 GPT-5.4 与 Gemini 3.1 Flash-Lite

首先是模型层面的更新。OpenClaw 在本次版本中新增对 GPT-5.4 与 Gemini 3.1 Flash-Lite 的支持,使开发者能够更方便地接入最新的大模型能力。

2、Agent 架构升级:可插拔 Context Engine

本次更新中最受开发者关注的一项能力,是可插拔 Context Engine(上下文引擎)。

3、工程部署能力优化

在工程与部署层面,OpenClaw 也进行了多项优化,例如:

  • ACP 绑定支持重启恢复,提高 Agent 稳定性
  • Slim Docker 多阶段构建,减少容器体积
  • 新增 HEIF 图片格式支持
  • 修复 Telegram 通信问题

这些更新让 Agent 系统在真实运行环境中的部署与维护更加高效。

4、安全与可靠性增强

在  2026.3.8 更新中,团队又进一步强化了安全与运维能力,包括:

  • ACP provenance:让 Agent 能识别消息来源
  • Openclaw backup:新增备份与恢复能力
  • 12+ 项安全漏洞修复

OpenClaw 正加速 Agent 工程化落地

从这两次连续更新不难看出,OpenClaw 的发展重点已不再只是单纯的技术实验,而是逐渐走向智能体系统的工程化与落地应用。

在由 ZEEKLOG 与奇点智能研究院举办的 2026 奇点智能技术大会现场,主办方诚邀了多位来自一线企业的技术专家,分享 OpenClaw 在真实业务中的实践经验,包括但不限于以下几位嘉宾:

网易有道龙虾核心研发 刘志强

  • 演讲主题: 有道龙虾LobsterAI的养成与实践

MiniMax 研发工程师、开发者关系负责人 李元

  • 演讲主题:MiniMax M2.5 驱动的 OpenClaw 及 Agent 企业落地实践

沐曦应用生态负责人 韩泽耀

  • 演讲主题:从算力到智能体:OpenClaw 数字员工实践

腾讯云开发者 AI 产品负责人 汪晟杰

  • 演讲主题:WorkBuddy Claw 打造全民 AI 工作台

2026 奇点智能技术大会还邀请了众多来自开源社区、企业研发团队及 AI 产品实践领域的技术嘉宾,围绕 OpenClaw 与智能体的最新进展进行深度交流与探讨。

会场将呈现从模型能力 → Agent 架构 → 企业落地 → 多场景实践的全景视角,让参会者不仅看到开源项目的技术升级,也能了解其在产业实践中的实际应用价值。

以上只是 2026 奇点智能技术大会议题的冰山一角。

届时,我们将汇聚 50+ 位站在变革最前沿的技术专家,围绕大语言模型、多模态世界模型、AI Infra、AI 原生应用等十二大专题展开深度分享。

他们是:

  • 奇点智能研究院院长,ZEEKLOG 高级副总裁 李建忠
  • 腾讯微信搜索 AI 算法研究方向负责人、专家研究员 王炳宁
  • 新浪微博首席科学家及AI研发部负责人 张俊林
  • 小红书 AI 搜索生成算法负责人 陆承镪
  • 微软亚洲研究院人工智能推理组负责人 宫叶云
  • 京东探索研究院研究总监,多模态理解大模型研发团队负责人 王佳琦
  • Qoder 资深技术专家 谢吉宝(唐三)
  • 京东集团多模态基础模型团队负责人 黄浩洋
  • 微软亚洲研究院香港首席研究员 刘树杰
  • 百度 Comate 架构师 张立理
  • 无问芯穹技术副总裁 吴保东
  • Macaron AI首席科学家 马骁腾
  • vLLM 社区贡献者、红帽大中华区CTO 张家驹
  • 北京智源人工智能研究院AI框架研发负责人 敖玉龙
  • ……

如果你不满足于表面的概念炒作,如果你希望深入技术的肌理,看清未来半年的风向。

这里没有空泛的预测,只有扎实的复盘与当下的解法与前沿的探索。

与此同时,2026 奇点智能技术大会同步开放多种合作形式:

  • 技术生态合作伙伴
  • 企业专场共建
  • 行业解决方案联合展示
  • ……

我们期待与更多长期主义者一起,为 AI 时代留下可被验证、可被复用的工程经验。

图片

扫码下方二维码

提前预约 2026 奇点智能技术大会全套 PPT 资料

图片

官方网站:www.ml-summit.org

购票热线:400-821-5876

购票咨询:[email protected]

企业合作:[email protected]

演讲申请:[email protected]

媒体联系:[email protected]

↓↓ 点击「阅读原文」,了解「2026  奇点智能技术大会」更多信息!

Read more

基于腾讯云HAI + DeepSeek快速设计自己的个人网页

基于腾讯云HAI + DeepSeek快速设计自己的个人网页

前言:通过结合腾讯云HAI 强大的云端运算能力与DeepSeek先进的 AI技术,本文介绍高效、便捷且低成本的设计一个自己的个人网页。你将了解到如何轻松绕过常见的技术阻碍,在腾讯云HAI平台上快速部署DeepSeek模型,仅需简单几步,就能获取一个包含个人简介、技能特长、项目经历及联系方式等核心板块的响应式网页。 目录 一、DeepSeek模型部署在腾讯云HAI 二、设计个人网页 一、DeepSeek模型部署在腾讯云HAI 把 DeepSeek 模型部署于腾讯云 HAI,用户便能避开官网访问限制,直接依托腾讯云 HAI 的超强算力运行 DeepSeek-R1 等模型。这一举措不仅降低了技术门槛,还缩短了部署时间,削减了成本。尤为关键的是,凭借 HAI 平台灵活且可扩展的特性,用户能够依据自身特定需求定制专属解决方案,进而更出色地适配特定业务场景,满足各类技术要求 。 点击访问腾讯云HAI控制台地址: 算力管理 - 高性能应用服务 - 控制台 腾讯云高性能应用服务HAI已支持DeepSeek-R1模型预装环境和CPU算力,只需简单的几步就能调用DeepSeek - R1

By Ne0inhk
AI革命先锋:DeepSeek与蓝耘通义万相2.1的无缝融合引领行业智能化变革

AI革命先锋:DeepSeek与蓝耘通义万相2.1的无缝融合引领行业智能化变革

云边有个稻草人-ZEEKLOG博客 目录 引言 一、什么是DeepSeek? 1.1 DeepSeek平台概述 1.2 DeepSeek的核心功能与技术 二、蓝耘通义万相2.1概述 2.1 蓝耘科技简介 2.2 蓝耘通义万相2.1的功能与优势 1. 全链条智能化解决方案 2. 强大的数据处理能力 3. 高效的模型训练与优化 4. 自动化推理与部署 5. 行业专用解决方案 三、蓝耘通义万相2.1与DeepSeek的对比分析 3.1 核心区别 3.2 结合使用的优势 四、蓝耘注册流程 五、DeepSeek与蓝耘通义万相2.1的集成应用 5.1 集成应用场景 1. 智能医疗诊断

By Ne0inhk
如何通过 3 个简单步骤在 Windows 上本地运行 DeepSeek

如何通过 3 个简单步骤在 Windows 上本地运行 DeepSeek

它是免费的——社区驱动的人工智能💪。         当 OpenAI 第一次推出定制 GPT 时,我就明白会有越来越多的人为人工智能做出贡献,并且迟早它会完全由社区驱动。         但从来没有想过它会如此接近😂让我们看看如何在 Windows 机器上完全免费使用第一个开源推理模型!  步骤 0:安装 Docker 桌面         我确信很多人已经安装了它,所以可以跳过,但如果没有 — — 这很简单,只需访问Docker 的官方网站,下载并运行安装 👍         如果您需要一些特定的设置,例如使用 WSL,那么有很多指导视频,请查看!我将继续下一步。 步骤 1:安装 CUDA 以获得 GPU 支持         如果您想使用 Nvidia 显卡运行 LLM,则必须安装 CUDA 驱动程序。(嗯……是的,它们需要大量的计算能力)         打开CUDA 下载页面,

By Ne0inhk
在 VSCode 中本地运行 DeepSeek,打造强大的私人 AI

在 VSCode 中本地运行 DeepSeek,打造强大的私人 AI

本文将分步向您展示如何在本地安装和运行 DeepSeek、使用 CodeGPT 对其进行配置以及开始利用 AI 来增强您的软件开发工作流程,所有这些都无需依赖基于云的服务。  步骤 1:在 VSCode 中安装 Ollama 和 CodeGPT         要在本地运行 DeepSeek,我们首先需要安装Ollama,它允许我们在我们的机器上运行 LLM,以及CodeGPT,它是集成这些模型以提供编码辅助的 VSCode 扩展。 安装 Ollama Ollama 是一个轻量级平台,可以轻松运行本地 LLM。 下载Ollama 访问官方网站:https://ollama.com * 下载适合您的操作系统(Windows、macOS 或 Linux)的安装程序。 * 验证安装 安装后,打开终端并运行: ollama --version  如果 Ollama 安装正确,

By Ne0inhk