字节开源 DeerFlow 2.0——登顶 GitHub Trending 1,让 AI 可做任何事情

字节开源 DeerFlow 2.0——登顶 GitHub Trending 1,让 AI 可做任何事情

打开 deerflow 的官网,瞬间被首页的这段文字震撼到了,do anything with deerflow。让 agent 做任何事情,这让我同时想到了 openclaw 刚上线时场景。

图片

字节跳动将 DeerFlow 彻底重写,发布 2.0 版本,并在发布当天登上 GitHub Trending 第一名。这不是一次功能迭代,而是一次从"深度研究框架"到"Super Agent 运行时基础设施"的彻底蜕变。

背景:从 v1 到 v2,发生了什么?

DeerFlow(Deep Exploration and Efficient Research Flow)最初是一个专注于深度研究的 AI 框架——给它一个问题,它会搜索、整理、输出报告。

但社区的玩法远超出了设计者的想象。开发者们拿它搭数据流水线、生成演示文稿、自动化内容生产、快速起 dashboard……这让团队意识到,DeerFlow 从一开始就不只是"研究工具",它更像一个让 Agent 真正把事情做完的运行环境。

图片

核心变化

DeerFlow 2.0 与 v1 没有共用任何代码,是一次彻底重写。旧版(Deep Research 框架)依然保留在 1.x 分支;主开发线已全面转向 2.0。

它到底是什么?

官方给出的定位是 Super Agent Harness(超级 Agent 调度框架)。这个词听起来抽象,拆开来理解其实很清晰。

图片

现在的 DeerFlow 2.0 不再仅仅是一个跑研究报告的工具,它进化成了一个 Harness(挂架/系统平台)

  • 什么是 Harness? 想象一下,大模型(如 DeepSeek, Kimi, Doubao)是发动机,而 DeerFlow 就是那台复杂的 F1 赛车底盘。它把 Sub-agents(子智能体)Memory(记忆)Sandbox(沙箱) 和 Skills(技能) 完美地挂载在一起。

开发者视角: 以往我们要写一个 Agent,需要处理繁琐的上下文管理、文件读写权限、多任务并行。DeerFlow 2.0 直接把这些基础设施“标准化”了。

图片

五大核心特性深度解析

① Skills — Agent 能力的"乐高积木"

Skills 是 DeerFlow 能完成几乎任何事情的秘密武器。一个标准 Skill 通常就是一个 Markdown 文件,定义了工作流、最佳实践和参考资源。DeerFlow 内置了研究、报告生成、演示文稿制作、网页生成、图像/视频生成等场景的 Skill。

关键设计是按需渐进加载:不会一次性把所有 Skill 塞进上下文,只有任务确实需要时才加载,有效控制 Token 消耗。

Claude Code 深度集成:通过 claude-to-deerflow skill, 你可以直接在 Claude Code 终端里和运行中的 DeerFlow  实例交互——发送研究任务、查看状态、管理 threads,全程不用离开终端。 安装 CLAUDE CODE 集成 SKILL npx skills add https://github.com/bytedance/deer-flow --skill claude-to-deerflow 

    图片

    ② Sub-Agents — 并行执行复杂任务

    传统 Agent 对于复杂任务的处理方式是"一条线走到底",DeerFlow 不同:Lead Agent 会先拆解任务,然后动态拉起多个 Sub-Agent,条件允许时并行运行,最后汇总成完整输出。

    一个典型的研究任务可以被拆成十几个 Sub-Agent,分别探索不同方向,最终合并成报告、网站或带生成视觉内容的演示文稿。这也是 DeerFlow 能处理"从几分钟到几小时"任务的原因。

    ③ Sandbox 文件系统 — Agent 有了自己的"电脑"

    这是 DeerFlow 和"带工具的聊天机器人"之间最根本的差别:Agent 有一台真正的"电脑"。

    每个任务运行在隔离的 Docker 容器里,内有完整文件系统:

    /mnt/user-data/

    Agent 可以读写编辑文件、执行 Bash 命令和代码、查看图片,全程在 Sandbox 内完成,可审计、隔离,不同 session 之间互不污染。

    图片

    ④ Context Engineering — 长任务不"忘事"

    DeerFlow 在上下文管理上做了两件事:

    01:Sub-Agent 上下文隔离:每个 Sub-Agent 只看到自己的上下文,不会被主 Agent 或其他 Sub-Agent 的信息干扰,保持专注。

    02:摘要压缩:在单个 session 内,主动总结已完成的子任务、把中间结果转存到文件系统、压缩暂时不重要的信息,在长链路任务里也能保持聚焦,不会轻易打爆上下文窗口。

    ⑤ 长期记忆 — 越用越了解你

    大多数 Agent 结束对话后一切归零,DeerFlow 2.0 跨 session 会逐步积累关于你的持久记忆:个人偏好、知识背景、写作风格、技术栈、重复出现的工作流。记忆保存在本地,控制权始终在你手里。

    图片

    多端接入:不只是终端工具

    DeerFlow 2.0 支持通过 IM 应用直接下发任务,无需公网 IP:

    渠道      传输方式                上手难度 Telegram Bot API(Long-polling) 简单 Slack Socket Mode               中等 飞书 / Lark WebSocket            中等 

    连接后,你可以直接在聊天窗口里使用 /new、/models、/memory 等命令和 DeerFlow 交互,普通消息则作为自然语言任务处理。

    快速上手:10 分钟跑起来

    推荐使用 Docker 方式,最省心:

    克隆并初始化 git clone https://github.com/bytedance/deer-flow.git cd deer-flow make config # 生成本地配置文件 编辑 CONFIG.YAML 配置模型 models: - name: gpt-4 display_name: GPT-4 use: langchain_openai:ChatOpenAI model: gpt-4 api_key: $OPENAI_API_KEY max_tokens: 4096 temperature: 0.7 DOCKER 启动(推荐) make docker-init # 首次拉取 sandbox 镜像 make docker-start # 启动服务 # 访问 http://localhost:2026

    图片

    一句话交给 CODING AGENT

    如果你在用 Claude Code、Cursor 或 Codex,可以直接把这句话发给它,让 Agent 帮你完成安装:

    "如果还没 clone DeerFlow,就先 clone, 然后按照 https://raw.githubusercontent.com/bytedance/deer-flow/main/Install.md 把它的本地开发环境初始化好"  

    推荐使用的模型

    DeerFlow 不绑定特定模型,只要实现了 OpenAI 兼容 API 即可接入。官方推荐以下几款表现较好的模型:

    模型                特点                适用场景 Doubao-Seed-2.0-Code 字节自研,代码能力强 编程类任务 DeepSeek v3.2 推理能力强,长上下文        深度研究、复杂拆解 Kimi 2.5 长上下文、多模态                文档分析、多模态任务 

    优先考虑具备以下能力的模型:100k+ tokens 长上下文窗口、强推理能力、稳定的 Tool Use 支持,以及多模态输入理解。

    Python SDK 内嵌使用

    不想启动完整 HTTP 服务?DeerFlow 也可以作为 Python 库直接使用:

    from deerflow.client import DeerFlowClient client = DeerFlowClient() # 普通对话 response = client.chat("帮我分析这篇论文", thread_id="my-thread") # 流式输出 for event in client.stream("最新的 AI Agent 趋势"): if event.type == "messages-tuple" and event.data.get("type") == "ai": print(event.data["content"]) # 管理能力 models = client.list_models() skills = client.list_skills() client.upload_files("thread-1", ["./report.pdf"])

    DeerFlow 具备系统指令执行、文件读写等高权限能力,默认仅建议在本地可信环境(127.0.0.1)部署。若需跨设备访问,务必配置 IP 白名单、前置身份验证(Nginx 反向代理)或网络隔离(VLAN)等安全措施。

    图片

    总结:Super Agent 时代的基础设施

    DeerFlow 2.0 真正有趣的地方,不在于它能做什么——而在于它如何把"做事"这件事本身系统化了。

    大多数 Agent 项目解决的是"用 LLM 完成任务"的问题,而 DeerFlow 解决的是更底层的问题:如何给 Agent 一个真实可靠的运行环境,让它有文件系统、有记忆、有工具、有并行执行能力,最终真正把复杂的、需要小时级才能完成的任务落地。

    这是从 ChatBot 到 Agent 的本质跃迁,而 DeerFlow 2.0,是目前开源社区里走得最彻底的那个。

    更多transformer,VIT,swin tranformer 参考头条号:人工智能研究所 v号:人工智能研究Suo, 启示AI科技

     动画详解transformer  在线视频教程 

    Read more

    2026年国际国外top10 top20流行的ai ide,

    2026年国际国外top10 top20流行的ai ide 2026年3月的真实地位总结(基于开发者社区真实反馈): 类别头部选手(2026年3月)Codex 定位最佳AI-first IDECursor > Windsurf > Zed不直接竞争(非编辑器形态)最佳终端/CLI代理Claude Code > Codex CLI > Cline非常强(尤其是云沙箱+长任务)最佳多代理/云代理OpenAI Codex > Devin > Claude Teams领跑(160万用户+企业落地)企业安全/审查Codex Security(新功能)目前最强(已扫描120万commits)性价比/免费Windsurf > Cline付费(ChatGPT订阅起步) RankIDE/EditorBest ForKey AI

    【保姆级】无需公网 IP!Windows 本地一键部署 OpenClaw,10 分钟打造你的飞书 AI 数字员工

    【保姆级】无需公网 IP!Windows 本地一键部署 OpenClaw,10 分钟打造你的飞书 AI 数字员工

    目录 写在前面 OpenClaw 是什么? 蓝耘平台是什么?与 OpenClaw 的关系 步骤一:极速安装,一行命令搞定环境 步骤二:启动向导,初始化配置参数 步骤 三:注入灵魂,获取蓝耘MaaS API Key 步骤四:打通渠道,搭建飞书长连接桥梁 步骤五:引擎点火,启动核心网关服务 步骤六:仪表盘检阅,后台状态可视化 步骤七:实战演练,验证智能交互效果 快速排错提示 写在末尾 写在前面 本文面向:想在 Windows 本地(PowerShell)一键部署 OpenClaw,使用蓝耘MaaS作为大模型,并通过飞书长连接模式实现 AI 机器人的用户。 内容涵盖:从零开始安装配置、对接飞书机器人、验证与排错的完整流程,

    一文搞懂LLM大模型!LLM从入门到精通万字长文(2024.12月最新)

    一文搞懂LLM大模型!LLM从入门到精通万字长文(2024.12月最新)

    LLM从入门到精通精品文章 目录 一、LLM基本概念 二、LLM发展历程 三、LLM大模型的分类 四、LLM主流大模型类别 五、LLM大模型建立的流程 六、Fine-Tuning 七、Prompt-Tuning 八、超大规模参数模型Prompt-Tuning方法 8.1上下文学习 In-Context Learning 8.2.指令学习 Instruction- Tuning 8.3 思维链Chain-of-Thought 九、Prefix-Tuning 十、LoRA 一、LLM基本概念         大模型LLM(Large Language Model)是指具有大规模参数和复杂计算结构的机器学习模型。这些模型通常由深度神经网络构建而成,拥有数十亿甚至数千亿个参数。大模型的设计目的是为了提高模型的表达能力和预测性能,能够处理更加复杂的任务和数据。大模型在各种领域都有广泛的应用,包括自然语言处理、计算机视觉、语音识别和推荐系统等。大模型通过训练海量数据来学习复杂的模式和特征,

    【保姆级】TrendRadar本地部署:告别算法推荐,打造个人专属AI热点情报局

    【保姆级】TrendRadar本地部署:告别算法推荐,打造个人专属AI热点情报局

    【保姆级】TrendRadar本地部署:告别算法推荐,打造个人专属AI热点情报局 摘要 本文基于 TrendRadar 项目,详细拆解如何通过 Docker 本地部署一套个人专属的 AI 热点情报系统。涵盖从环境准备、Docker 镜像拉取、局域网访问配置、飞书推送修复到 Cherry Studio MCP 服务对接的全流程。通过 Nvidia 免费模型 API,实现零成本的深度热点分析与趋势追踪。 关键词: TrendRadar, Docker部署, AI热点分析, MCP服务, Cherry Studio 1. 背景与需求:为什么我们需要 TrendRadar? 在这个大数据算法横行的时代,我们每天被头条、抖音等平台“投喂”大量信息,不仅容易陷入信息茧房,还浪费了大量时间筛选有效资讯。 我的核心需求很简单: 1. 拒绝算法绑架:需要一个个人定制化的新闻推送服务。 2.