DeerFlow 2.0开源

DeerFlow 2.0开源

目录

从研究工具到超级智能体

什么是 DeerFlow?

核心特性

技能系统

子智能体

沙盒与文件系统

上下文工程

长期记忆

技术架构

快速开始

推荐模型

应用场景

项目现状

总结


2026 年 2 月 28 日,一款来自字节跳动的开源项目登顶 GitHub Trending 榜首。

它叫 DeerFlow,一个超级智能体架构,短时间就拿了 2.2 万 Star。

说实话,刚看到这个项目的时候,我还有些疑惑——又一个 AI Agent 框架?但深入了解后,我发现这玩意儿确实不一样。

从研究工具到超级智能体

DeerFlow 的故事挺有意思。

最开始,它只是个深度研究框架。但开发者们把它用出了各种花样:构建数据管道、生成幻灯片、搭建仪表盘、自动化内容工作流……这些都是团队最初没想到的。

团队这才意识到:DeerFlow 不只是个研究工具,它是一个架构——一个让智能体真正能够完成工作的运行环境。

于是他们从零重写,推出了 DeerFlow 2.0。

什么是 DeerFlow?

通俗地说,DeerFlow 是个超级智能体套件,它可以让 AI 帮你做几乎所有事情。

它通过编排子智能体、记忆系统和沙盒环境,来处理那些可能需要几分钟到几小时才能完成的复杂任务。

基于 LangGraph 和 LangChain 构建,DeerFlow 开箱即用地提供了智能体所需的一切:文件系统、记忆、技能、沙盒执行环境,以及规划和生成子智能体来完成复杂多步任务的能力。

核心特性

技能系统

这是 DeerFlow 最核心的特点。

技能是个结构化的能力模块——一个 Markdown 文件,定义了工作流程、最佳实践和参考资源。

DeerFlow 内置了研究、报告生成、幻灯片创建、网页开发、图片视频生成等技能。但厉害的地方在于可扩展性:你可以添加自己的技能,替换内置的,或者组合成复合工作流。

技能是按需加载的——只有当任务需要时才加载,不会一次性全部加载。这保持了一个精简的上下文窗口,让 DeerFlow 即使对 token 敏感的模型也能良好工作。

子智能体

复杂的任务很少能一次完成。DeerFlow 会把它们分解。

主导智能体可以即时生成子智能体——每个都有自己的上下文、工具和终止条件。子智能体尽可能并行运行,报告结构化结果,然后主导智能体将所有内容综合成连贯的输出。

一个研究任务可能会派生出十几个子智能体,每个探索不同的角度,然后汇聚成单一报告——或者网站——或者带有生成视觉效果的幻灯片。

一个套件,多只手。

沙盒与文件系统

DeerFlow 不只是谈论做事。它有自己的电脑。

每个任务都在一个独立的 Docker 容器中运行,拥有完整的文件系统——技能、工作空间、上传、输出。智能体可以读取、写入和编辑文件,执行 bash 命令和代码,查看图像。全部沙盒化,全部可审计,会话之间零污染。

这就是带有工具访问权限的聊天机器人和拥有实际执行环境的智能体之间的区别。

上下文工程

DeerFlow 对上下文管理很激进——总结已完成的子任务,将中间结果卸载到文件系统,压缩不再立即相关的内容。这让它能够在长、多步骤的任务中保持敏锐,而不会撑爆上下文窗口。

长期记忆

大多数智能体在对话结束的那一刻就会忘记一切。DeerFlow 记住。

在会话之间,DeerFlow 会建立关于你的档案、偏好和积累知识的持久记忆。你用得越多,它就越了解你——你的写作风格、你的技术栈、你的重复工作流程。记忆存储在本地,完全由你控制。

技术架构

DeerFlow 2.0 是从零重写的,与 v1 没有共享任何代码。如果你在寻找原始的深度研究框架,它仍在 1.x 分支上维护。

基于 LangGraph 和 LangChain,DeerFlow 支持多种沙盒执行模式:

  • • 本地执行(直接在主机上运行沙盒代码)
  • • Docker 执行(在独立的 Docker 容器中运行)
  • • 带 Kubernetes 的 Docker 执行(通过 provisioner 服务在 Kubernetes pod 中运行)

快速开始

推荐使用 Docker 方式:

# 克隆仓库 git clone https://github.com/bytedance/deer-flow.git cd deer-flow # 生成配置文件 make config # 编辑 config.yaml 配置你的模型 # 至少配置一个模型,例如 GPT-4 # 启动服务 make docker-init    # 拉取沙盒镜像(只需一次) make docker-start   # 启动服务 # 访问 http://localhost:2026

也支持本地开发模式:

make check  # 检查前置条件 make dev    # 启动开发服务

推荐模型

DeerFlow 是模型无关的——适用于任何实现 OpenAI 兼容 API 的 LLM。但它在支持以下功能的模型上表现最佳:

  • • 长上下文窗口(100k+ tokens)用于深度研究和多步骤任务
  • • 推理能力用于自适应规划和复杂分解
  • • 多模态输入用于图像理解和视频理解
  • • 强大的工具使用用于可靠的函数调用和结构化输出

应用场景

深度研究:派发多个子智能体并行研究不同角度,然后综合成完整报告。

内容创作:从研究到报告、幻灯片、网页,一站式完成。

数据管道:自动化数据处理、分析和可视化流程。

工作流自动化:将重复性工作交给智能体处理。

项目现状

DeerFlow 采用 MIT 许可证,可以自由使用和修改。项目很活跃,欢迎社区贡献。

核心团队来自字节跳动,主要贡献者包括 Daniel Walnut 和 Henry Li。

总结

DeerFlow 的出现,标志着 AI Agent 领域迈出了重要一步。

它不只是个框架,而是一个完整的智能体运行环境——一个让 AI 真正能够"做事"的平台。

从研究工具到超级智能体架构,DeerFlow 的进化反映了一个重要趋势:我们需要的不是更会聊天的 AI,而是更能干活的 AI。

如果你也在寻找一个真正能帮你完成复杂任务的 AI 智能体,DeerFlow 值得一试。

GitHub 项目地址:https://github.com/bytedance/deer-flow

今天的分享到此结束,感谢大家抽空阅读,我们下期再见!

Read more

【年终总结】从非科班无实习到准字节前端:我始终相信,开发之外的事,才是破局关键

【年终总结】从非科班无实习到准字节前端:我始终相信,开发之外的事,才是破局关键

目录 【年终总结】从非科班无实习到准字节前端:我始终相信,开发之外的事,才是破局关键 一、求其外,善其内 1、坚持出发点正确的博文写作 2、博文更新对我心态的淬炼 3、社区交流对我视野的启发 4、向外拓展,反哺内修 二、陷入前端则前端死,跳出前端则前端活 1、从不务正业到泛前端 2、从泛前端到大前端,从有形到无形 三、秋招多少事 四、结语         作者:watermelo37         ZEEKLOG优质创作者、华为云云享专家、阿里云专家博主、腾讯云“创作之星”特邀作者、火山KOL、支付宝合作作者,全平台博客昵称watermelo37。         一个假装是giser的coder,做不只专注于业务逻辑的前端工程师,Java、Docker、Python、LLM均有涉猎。 --------------------------------------------------------------------- 温柔地对待温柔的人,包容的三观就是最大的温柔。

By Ne0inhk

【WASM跨浏览器兼容性突破】:基于C语言的高性能前端方案设计

第一章:C 语言 WASM 浏览器兼容性概述 WebAssembly(简称 WASM)是一种低级的可移植字节码格式,旨在以接近原生速度运行高性能应用。使用 C 语言编写的程序可通过 Emscripten 工具链编译为 WASM 模块,从而在现代浏览器中高效执行。由于 WASM 被设计为与 JavaScript 协同工作,因此其浏览器兼容性直接决定了 C 语言应用在 Web 环境中的可用范围。 主流浏览器支持情况 目前所有现代主流浏览器均原生支持 WebAssembly,包括: * Google Chrome(v57 及以上) * Mozilla Firefox(v52 及以上) * Apple Safari(v11 及以上) * Microsoft Edge(v16 及以上) 这些浏览器对 WASM

By Ne0inhk
【DGX Spark 实战】部署 vLLM + Open WebUI 运行 Qwen3-Coder-Next-FP8(CUDA 13.0 兼容版)-修订

【DGX Spark 实战】部署 vLLM + Open WebUI 运行 Qwen3-Coder-Next-FP8(CUDA 13.0 兼容版)-修订

感谢Qwen3-Coder-Next-FP8为本文进行润色,调整,绘制架构图。但是所有的文字及链接经过手工修订。需要SGLang推理框架,移步 【DGX Spark 实战】部署SGLang,千问3.5-27B模型初探 我们已严格按您提供的原始内容(包括 CUDA_VERSION=130、CPU_ARCH=aarch64、路径 ~/vllm、用户 admin 等)进行全量修正与标准化,确保所有命令与 DGX Spark 实际环境一致。 摘要本文详细记录在 NVIDIA DGX Spark(Grace Blackwell 架构)上部署 vLLM 推理服务并接入 Open WebUI 的完整流程,包含 FlashAttention 编译、vLLM wheel 安装、Qwen3-Coder-Next-FP8

By Ne0inhk

前端新手必看:理解并解决‘Failed to fetch‘的完整指南

快速体验 1. 打开 InsCode(快马)平台 https://www.inscode.net 2. 点击'项目生成'按钮,等待项目生成完整后预览效果 输入框内输入如下内容: 创建一个交互式学习模块,包含:1. 动画演示fetch工作原理 2. 常见错误场景可视化 3. 可修改的代码沙盒 4. 逐步修复向导 5. 知识测验。使用纯HTML/CSS/JS实现,适合初学者直接运行学习。 最近在学前端开发时,经常遇到一个让人头疼的错误提示:TypeError: Failed to fetch。刚开始完全摸不着头脑,经过一番摸索后,终于搞清楚了它的来龙去脉。今天就用最直白的语言,分享这个错误的原因和解决方法,希望能帮到同样踩坑的你。 为什么会出现'Failed to

By Ne0inhk