字节开源 DeerFlow 2.0——登顶 GitHub Trending 1,让 AI 可做任何事情

字节开源 DeerFlow 2.0——登顶 GitHub Trending 1,让 AI 可做任何事情

打开 deerflow 的官网,瞬间被首页的这段文字震撼到了,do anything with deerflow。让 agent 做任何事情,这让我同时想到了 openclaw 刚上线时场景。

图片

字节跳动将 DeerFlow 彻底重写,发布 2.0 版本,并在发布当天登上 GitHub Trending 第一名。这不是一次功能迭代,而是一次从"深度研究框架"到"Super Agent 运行时基础设施"的彻底蜕变。

背景:从 v1 到 v2,发生了什么?

DeerFlow(Deep Exploration and Efficient Research Flow)最初是一个专注于深度研究的 AI 框架——给它一个问题,它会搜索、整理、输出报告。

但社区的玩法远超出了设计者的想象。开发者们拿它搭数据流水线、生成演示文稿、自动化内容生产、快速起 dashboard……这让团队意识到,DeerFlow 从一开始就不只是"研究工具",它更像一个让 Agent 真正把事情做完的运行环境。

图片

核心变化

DeerFlow 2.0 与 v1 没有共用任何代码,是一次彻底重写。旧版(Deep Research 框架)依然保留在 1.x 分支;主开发线已全面转向 2.0。

它到底是什么?

官方给出的定位是 Super Agent Harness(超级 Agent 调度框架)。这个词听起来抽象,拆开来理解其实很清晰。

图片

现在的 DeerFlow 2.0 不再仅仅是一个跑研究报告的工具,它进化成了一个 Harness(挂架/系统平台)

  • 什么是 Harness? 想象一下,大模型(如 DeepSeek, Kimi, Doubao)是发动机,而 DeerFlow 就是那台复杂的 F1 赛车底盘。它把 Sub-agents(子智能体)Memory(记忆)Sandbox(沙箱) 和 Skills(技能) 完美地挂载在一起。

开发者视角: 以往我们要写一个 Agent,需要处理繁琐的上下文管理、文件读写权限、多任务并行。DeerFlow 2.0 直接把这些基础设施“标准化”了。

图片

五大核心特性深度解析

① Skills — Agent 能力的"乐高积木"

Skills 是 DeerFlow 能完成几乎任何事情的秘密武器。一个标准 Skill 通常就是一个 Markdown 文件,定义了工作流、最佳实践和参考资源。DeerFlow 内置了研究、报告生成、演示文稿制作、网页生成、图像/视频生成等场景的 Skill。

关键设计是按需渐进加载:不会一次性把所有 Skill 塞进上下文,只有任务确实需要时才加载,有效控制 Token 消耗。

Claude Code 深度集成:通过 claude-to-deerflow skill, 你可以直接在 Claude Code 终端里和运行中的 DeerFlow  实例交互——发送研究任务、查看状态、管理 threads,全程不用离开终端。 安装 CLAUDE CODE 集成 SKILL npx skills add https://github.com/bytedance/deer-flow --skill claude-to-deerflow 

    图片

    ② Sub-Agents — 并行执行复杂任务

    传统 Agent 对于复杂任务的处理方式是"一条线走到底",DeerFlow 不同:Lead Agent 会先拆解任务,然后动态拉起多个 Sub-Agent,条件允许时并行运行,最后汇总成完整输出。

    一个典型的研究任务可以被拆成十几个 Sub-Agent,分别探索不同方向,最终合并成报告、网站或带生成视觉内容的演示文稿。这也是 DeerFlow 能处理"从几分钟到几小时"任务的原因。

    ③ Sandbox 文件系统 — Agent 有了自己的"电脑"

    这是 DeerFlow 和"带工具的聊天机器人"之间最根本的差别:Agent 有一台真正的"电脑"。

    每个任务运行在隔离的 Docker 容器里,内有完整文件系统:

    /mnt/user-data/

    Agent 可以读写编辑文件、执行 Bash 命令和代码、查看图片,全程在 Sandbox 内完成,可审计、隔离,不同 session 之间互不污染。

    图片

    ④ Context Engineering — 长任务不"忘事"

    DeerFlow 在上下文管理上做了两件事:

    01:Sub-Agent 上下文隔离:每个 Sub-Agent 只看到自己的上下文,不会被主 Agent 或其他 Sub-Agent 的信息干扰,保持专注。

    02:摘要压缩:在单个 session 内,主动总结已完成的子任务、把中间结果转存到文件系统、压缩暂时不重要的信息,在长链路任务里也能保持聚焦,不会轻易打爆上下文窗口。

    ⑤ 长期记忆 — 越用越了解你

    大多数 Agent 结束对话后一切归零,DeerFlow 2.0 跨 session 会逐步积累关于你的持久记忆:个人偏好、知识背景、写作风格、技术栈、重复出现的工作流。记忆保存在本地,控制权始终在你手里。

    图片

    多端接入:不只是终端工具

    DeerFlow 2.0 支持通过 IM 应用直接下发任务,无需公网 IP:

    渠道      传输方式                上手难度 Telegram Bot API(Long-polling) 简单 Slack Socket Mode               中等 飞书 / Lark WebSocket            中等 

    连接后,你可以直接在聊天窗口里使用 /new、/models、/memory 等命令和 DeerFlow 交互,普通消息则作为自然语言任务处理。

    快速上手:10 分钟跑起来

    推荐使用 Docker 方式,最省心:

    克隆并初始化 git clone https://github.com/bytedance/deer-flow.git cd deer-flow make config # 生成本地配置文件 编辑 CONFIG.YAML 配置模型 models: - name: gpt-4 display_name: GPT-4 use: langchain_openai:ChatOpenAI model: gpt-4 api_key: $OPENAI_API_KEY max_tokens: 4096 temperature: 0.7 DOCKER 启动(推荐) make docker-init # 首次拉取 sandbox 镜像 make docker-start # 启动服务 # 访问 http://localhost:2026

    图片

    一句话交给 CODING AGENT

    如果你在用 Claude Code、Cursor 或 Codex,可以直接把这句话发给它,让 Agent 帮你完成安装:

    "如果还没 clone DeerFlow,就先 clone, 然后按照 https://raw.githubusercontent.com/bytedance/deer-flow/main/Install.md 把它的本地开发环境初始化好"  

    推荐使用的模型

    DeerFlow 不绑定特定模型,只要实现了 OpenAI 兼容 API 即可接入。官方推荐以下几款表现较好的模型:

    模型                特点                适用场景 Doubao-Seed-2.0-Code 字节自研,代码能力强 编程类任务 DeepSeek v3.2 推理能力强,长上下文        深度研究、复杂拆解 Kimi 2.5 长上下文、多模态                文档分析、多模态任务 

    优先考虑具备以下能力的模型:100k+ tokens 长上下文窗口、强推理能力、稳定的 Tool Use 支持,以及多模态输入理解。

    Python SDK 内嵌使用

    不想启动完整 HTTP 服务?DeerFlow 也可以作为 Python 库直接使用:

    from deerflow.client import DeerFlowClient client = DeerFlowClient() # 普通对话 response = client.chat("帮我分析这篇论文", thread_id="my-thread") # 流式输出 for event in client.stream("最新的 AI Agent 趋势"): if event.type == "messages-tuple" and event.data.get("type") == "ai": print(event.data["content"]) # 管理能力 models = client.list_models() skills = client.list_skills() client.upload_files("thread-1", ["./report.pdf"])

    DeerFlow 具备系统指令执行、文件读写等高权限能力,默认仅建议在本地可信环境(127.0.0.1)部署。若需跨设备访问,务必配置 IP 白名单、前置身份验证(Nginx 反向代理)或网络隔离(VLAN)等安全措施。

    图片

    总结:Super Agent 时代的基础设施

    DeerFlow 2.0 真正有趣的地方,不在于它能做什么——而在于它如何把"做事"这件事本身系统化了。

    大多数 Agent 项目解决的是"用 LLM 完成任务"的问题,而 DeerFlow 解决的是更底层的问题:如何给 Agent 一个真实可靠的运行环境,让它有文件系统、有记忆、有工具、有并行执行能力,最终真正把复杂的、需要小时级才能完成的任务落地。

    这是从 ChatBot 到 Agent 的本质跃迁,而 DeerFlow 2.0,是目前开源社区里走得最彻底的那个。

    更多transformer,VIT,swin tranformer 参考头条号:人工智能研究所 v号:人工智能研究Suo, 启示AI科技

     动画详解transformer  在线视频教程 

    Read more

    照片级AI绘画!Z-Image-Turbo生成写实图像体验

    照片级AI绘画!Z-Image-Turbo生成写实图像体验 1. 引言:从概念到高质量写实图像的飞跃 近年来,AI图像生成技术经历了从“抽象艺术”到“照片级真实感”的跨越式发展。阿里通义推出的 Z-Image-Turbo 模型,正是这一趋势下的代表性成果——它不仅具备强大的语义理解能力,还能在极短推理步数下生成高度逼真的写实图像。 本文将基于由开发者“科哥”二次开发构建的 Z-Image-Turbo WebUI 镜像,深入探讨其在写实图像生成方面的实际表现与使用技巧。我们将重点分析: - 如何通过提示词设计提升照片级细节 - 关键参数对图像质量的影响 - 实际应用场景中的优化策略 该镜像已在 ZEEKLOG 星图平台提供预置部署环境,支持一键启动,极大降低了本地运行门槛。 2. Z-Image-Turbo 核心特性解析 2.1 模型架构与性能优势 Z-Image-Turbo 基于扩散模型(Diffusion Model)架构进行优化,在保持高画质输出的同时显著提升了生成速度。其核心优势体现在: * 极速推理:

    Amazon SageMaker 部署 AIGC 应用:训练 - 优化 - 部署 - Web 前端集成应用实践

    Amazon SageMaker 部署 AIGC 应用:训练 - 优化 - 部署 - Web 前端集成应用实践

    Amazon SageMaker 部署 AIGC 应用:训练 - 优化 - 部署 - Web 前端集成应用实践 背景 Amazon SageMaker 汇集广泛采用的亚马逊云科技机器学习和分析功能,统一访问所有数据,为分析和人工智能提供一体式体验,使用亚马逊云科技机工具进行模型开发、生成式人工智能、数据处理和 SQL 分析,在融通式合作开发工作室中加快协作和构建,借助强大的生成式人工智能软件开发助手 Amazon Q 开发者版提升效率,无论数据存储在数据湖、数据仓库,还是第三方或联合数据来源中,均可访问所有数据,同时内置治理功能可满足企业安全需求。 前言 本文将通过 Amazon SageMaker Notebook 实例完成 AIGC 模型的测试与验证,再将模型部署至 Amazon SageMaker Inference Endpoint 实现服务化,最后利用 Amazon

    Stable Diffusion印象派滤镜实战:云端10分钟出作品,成本1块钱

    Stable Diffusion印象派滤镜实战:云端10分钟出作品,成本1块钱 你是不是也遇到过这样的情况?手头有一堆拍摄完成的照片,想参加一个艺术展览,主题是“城市光影·印象”,要求提交印象派风格的视觉作品。可问题是——用本地电脑跑AI滤镜生成一张图要20分钟,显卡还经常卡死;换高端显卡又要花五六千,时间紧、预算少,展览截止只剩3天,根本来不及。 别急,我最近刚帮一位摄影师朋友解决了这个难题。他原本打算放弃参展,结果我们用了Stable Diffusion + 云端GPU算力的组合,在ZEEKLOG星图平台上一键部署了预置镜像,10分钟内就生成了一张高质量的印象派风格作品,单张成本不到1块钱。三天时间,他不仅完成了全部15幅参展作品,还在朋友圈被疯狂转发。 这背后的关键,就是把AI图像生成从“本地苦等”变成“云端快跑”。今天我就带你一步步实操,哪怕你是第一次接触AI绘画,也能轻松上手。我们会用到的是ZEEKLOG星图平台提供的Stable Diffusion预置镜像,它已经帮你装好了所有依赖库、模型和WebUI界面,不需要任何命令行基础,点几下就能开始出图。 学完这篇文章,你

    在 Mac Mini M4 上本地跑大模型(Ollama + Llama + ComfyUI + Stable Diffusion | Flux)

    在 Mac Mini M4 上本地跑大模型(Ollama + Llama + ComfyUI + Stable Diffusion | Flux)

    Mac Mini M4 配备了苹果自家研发的 M1/M2/M4 芯片,具有强大的处理能力,能够支持本地跑一些大模型,尤其是在使用如 Ollama、Llama、ComfyUI 和 Stable Diffusion 这类 AI 相关工具时,性能表现非常好。本教程将指导你如何在 Mac Mini M4 上本地部署并运行这些大模型,涵盖从环境搭建到使用的全流程。 一、准备工作 1. 确保系统更新 确保你的 macOS 版本已更新到最新的版本(例如 macOS 13.0 以上),这将确保兼容性和性能。 安装 Homebrew(macOS 包管理工具) Homebrew 是 macOS 上非常流行的包管理工具,它帮助你方便地安装各种软件。在终端中输入以下命令来安装