DeerFlow操作手册:WebUI界面功能按钮详细说明

DeerFlow操作手册:WebUI界面功能按钮详细说明

1. DeerFlow是什么:你的个人深度研究助理

DeerFlow不是普通聊天工具,而是一个能帮你做深度研究的智能助手。它不只回答问题,还能主动搜索网络、运行代码、整理报告,甚至把研究成果变成播客。如果你需要查资料、写分析、做技术调研,或者想快速了解一个陌生领域,DeerFlow就像一位随时待命的研究搭档——不用你手动翻网页、复制粘贴、调试代码,它自己就能完成一整套研究流程。

它背后整合了真实搜索引擎(比如Tavily和Brave Search)、Python执行环境、MCP服务接口,以及高质量语言模型。这意味着它不只是“说得好”,而是“做得实”:能验证信息来源、跑通数据逻辑、生成可读性强的结构化报告。对工程师、产品经理、研究员、内容创作者来说,这种“从提问到交付”的闭环能力,比单纯的文字生成更有实际价值。

2. WebUI界面概览:一眼看懂每个按钮是干什么的

打开DeerFlow的WebUI界面后,你会看到一个简洁但功能丰富的操作面板。它没有堆砌大量选项,所有核心功能都通过几个关键按钮组织起来。下面我们就按使用顺序,一个一个讲清楚每个按钮的实际作用、什么时候该点、点了之后会发生什么——不讲抽象概念,只说你点下去后能看到什么、能做什么。

2.1 主题切换按钮(左上角图标)

页面左上角有一个带“D”字母的圆形图标,旁边写着“DeerFlow”。这不是装饰,而是主题切换开关。

  • 点击一次:界面从默认浅色模式切换为深色模式,适合长时间阅读或夜间使用;
  • 再点一次:切回浅色模式;
  • 小提示:深色模式下文字对比度更高,代码块和日志输出更清晰,做技术分析时推荐开启。

这个按钮不改变任何功能逻辑,只影响视觉体验,但用久了你会觉得它很贴心。

2.2 新建会话按钮(+号图标)

位于顶部导航栏右侧,是一个蓝色“+”号按钮。这是你每次开始新研究任务的起点。

  • 点击后:清空当前对话历史,创建一个干净的空白会话;
  • 适用场景:当你想换个方向提问(比如刚做完“比特币价格走势分析”,现在要转去查“医疗AI最新论文”),或者发现当前会话逻辑混乱、结果偏离预期时;
  • 注意:它不会删除之前的会话记录,旧会话仍保留在左侧会话列表中,可随时点击返回。

这个按钮的存在,让DeerFlow避免了“越聊越乱”的常见问题——你可以随时按下“重来键”,而不是硬着头皮往下追问。

2.3 历史会话列表(左侧边栏)

界面左侧是一列垂直排列的会话标题,每条代表一次完整的研究过程。

  • 每个标题默认显示你第一次提问的前10–15个字(比如“分析2024年Q2国产大模型性能对比”);
  • 点击任意一条:立即加载该次会话的全部上下文,包括中间调用的搜索结果、执行的代码、生成的图表;
  • 长按或悬停在某条会话上:会出现“重命名”和“删除”两个小图标;
    • 重命名:帮你把“问了啥”改成“实际做了啥”,比如把“怎么用Python画折线图”改成“2024主流LLM推理延迟对比图”;
    • 删除:彻底移除该次会话及所有关联数据(不可恢复,请谨慎操作)。

这个列表不是简单的聊天记录,而是你的“研究档案柜”——每一次探索都有迹可循,方便复盘、分享或二次加工。

2.4 核心提问输入框(中央主区域)

页面正中央是一个宽大的文本输入框,底部有“发送”箭头按钮。这是你和DeerFlow交互最直接的地方。

  • 输入内容建议:
    • 别只写关键词(如“Transformer”),而是描述你真正想解决的问题(如“用通俗语言解释Transformer如何处理长文本,和RNN比有什么优势?”);
    • 可以带具体要求(如“请分三部分回答:原理、优缺点、2024年典型应用案例”);
    • 支持多轮追问(比如第一轮问“什么是LoRA”,第二轮接着问“在Qwen3上微调时,LoRA秩设为8和16效果差别大吗?”);
  • 发送后:DeerFlow不会立刻回复文字,而是先判断是否需要搜索、是否需要写代码、是否需要调用TTS——整个过程在后台自动完成,你只需等待最终整合好的答案。

这个输入框的设计理念是“降低表达门槛”:你不需要知道模型参数、不需要写prompt工程术语,就像跟一位懂技术的朋友当面讨论一样自然。

2.5 功能扩展按钮组(输入框下方)

在输入框正下方,横向排列着四个带图标的按钮,它们是DeerFlow区别于普通聊天界面的关键所在:

2.5.1 搜索增强按钮(放大镜图标)
  • 作用:强制DeerFlow优先调用搜索引擎获取最新、最权威的外部信息;
  • 什么时候用:
    • 你问的是时效性强的问题(如“最近一周Tavily API有哪些更新?”);
    • 你想验证某个说法是否准确(如“网上说Qwen3在中文数学推理上超越Gemma3,是真的吗?”);
    • 默认情况下DeerFlow会自主判断是否需要搜索,但点这个按钮等于加一道“必须搜”的指令;
  • 效果:你会看到它先列出3–5个搜索结果摘要,再基于这些内容组织回答,所有引用都标明来源链接。
2.5.2 代码执行按钮(</>图标)
  • 作用:告诉DeerFlow:“接下来这个问题,需要用Python代码来解决”;
  • 什么时候用:
    • 涉及数据计算(如“根据这份CSV里的销售数据,算出各品类季度增长率并画柱状图”);
    • 需要自动化处理(如“把这10篇PDF论文的标题和摘要提取出来,存成Excel”);
    • 验证技术方案可行性(如“写一段代码,测试vLLM在4bit量化下对Qwen3-4B的吞吐量影响”);
  • 效果:它会自动生成完整可运行代码,先在沙箱环境中执行,再把结果(表格、图表、日志)嵌入回答中,并附上代码说明。
2.5.3 报告生成按钮(文档图标)
  • 作用:触发深度报告模式,输出结构完整、带章节标题、含图表和参考文献的正式文档;
  • 什么时候用:
    • 你需要交付成果(如给团队写一份《开源RAG框架选型报告》);
    • 问题本身就很复杂(如“对比LlamaIndex、Haystack、RAGFlow在中文场景下的检索精度、部署难度、社区活跃度”);
  • 效果:生成的报告不是大段文字堆砌,而是分“背景→方法→结果→结论→建议”五大部分,关键数据用表格呈现,图表带坐标轴和图例,末尾附上所有引用来源链接。
2.5.4 播客生成按钮(声波图标)
  • 作用:将当前会话内容或指定研究结果,转换成语音播客格式;
  • 什么时候用:
    • 你想边听边做其他事(通勤、健身时了解技术动态);
    • 需要把研究报告分享给不习惯读长文的同事;
    • 做知识沉淀,把一次深度调研变成可反复收听的音频资产;
  • 效果:生成MP3文件,语音采用火山引擎TTS服务,音色自然、语速适中、专业感强;支持选择男/女声、调整语速、添加章节停顿。

这组按钮的意义在于:它把“研究动作”显性化了。你不再需要靠猜模型会不会搜、会不会写代码,而是明确告诉它“这次我要用哪种能力”,控制权始终在你手上。

2.6 运行状态指示器(右上角小圆点)

界面右上角有一个彩色小圆点,颜色实时反映系统当前状态:

  • 绿色:所有服务正常(vLLM模型服务、DeerFlow主程序、搜索引擎API、Python执行环境均就绪);
  • 黄色:部分服务响应较慢(如某次搜索超时、TTS服务暂时繁忙),但不影响基础问答;
  • 红色:关键服务异常(如vLLM未启动、Python沙箱崩溃),此时需检查日志;
  • 点击该圆点:弹出简明状态面板,显示各模块健康状态、最近一次错误时间、对应日志片段(如“vLLM连接失败:Connection refused”)。

这个设计让你不用翻日志文件就能快速定位问题,尤其适合非运维人员日常使用。

3. 实际操作示例:从提问到交付的完整走查

光看按钮说明还不够直观?我们用一个真实场景走一遍全流程,看看每个按钮如何配合工作。

3.1 场景设定:你想快速了解“DeerFlow在金融数据分析中的实际应用”

第一步:新建会话

点击右上角“+”号,确保从干净状态开始。

第二步:启用搜索增强

先点一下放大镜按钮(搜索增强),再在输入框中输入:

“DeerFlow有没有被用于股票分析、财报解读或量化策略生成?请找近半年的真实案例,最好有GitHub项目或技术博客链接。”
第三步:观察后台动作

你会看到界面上方出现一行小字:“正在调用Tavily搜索… 找到4个相关结果”,几秒后,它列出3篇技术文章摘要,并基于内容总结出:

  • 有团队用DeerFlow自动抓取A股上市公司财报PDF,提取关键财务指标生成对比表;
  • 另一项目将其集成进量化平台,用自然语言描述策略逻辑(如“当RSI低于30且MACD金叉时买入”),由DeerFlow自动生成回测代码;
  • 所有引用均附原文链接,可一键跳转。
第四步:深化分析(调用代码执行)

你对第二个案例感兴趣,于是点击</>按钮,在输入框追加:

“请基于上面提到的‘RSI+MACD’策略,写一段能在yfinance和backtrader中运行的Python回测代码,并用贵州茅台2023年数据演示。”

DeerFlow立刻生成完整代码,包含数据获取、指标计算、信号生成、回测执行、结果可视化全过程,并在下方嵌入一张收益曲线图。

第五步:生成可交付报告

最后,点击文档图标,输入:

“把以上所有内容整理成一份面向金融工程师的内部技术简报,包含:应用场景说明、代码实现要点、实测效果数据、部署注意事项。”

几秒钟后,一份带封面、目录、章节编号、图表编号的PDF风格报告就生成了,可直接导出或分享。

整个过程,你只用了4个按钮、3次输入,就完成了信息搜集→技术验证→成果交付的全链条。

4. 常见问题与实用技巧

即使按钮功能清晰,实际使用中仍可能遇到一些小状况。以下是高频问题的应对方式,全是来自真实用户反馈的“血泪经验”。

4.1 为什么有时提问后没反应,或提示“服务不可用”?

最常见原因是vLLM模型服务未就绪。按以下顺序排查:

  1. 小技巧:如果只是临时卡顿,刷新浏览器页面通常能恢复;若持续异常,重启容器比重装更高效。

如果vLLM日志正常,再查DeerFlow主服务:

cat /root/workspace/bootstrap.log 

关键看是否有DeerFlow server started on http://0.0.0.0:8080Connected to vLLM at http://localhost:8000两行。缺任一者,说明服务间通信失败。

打开终端,执行:

cat /root/workspace/llm.log 

查看最后几行是否有INFO: Uvicorn running on http://0.0.0.0:8000字样。如果没有,说明vLLM未启动,需重启服务。

4.2 输入框里写了很长的问题,但DeerFlow只答了一半?

这不是模型“偷懒”,而是它在执行过程中遇到了限制:

  • 搜索结果数量限制:Tavily默认最多返回5个结果,若你问的是“全球所有AI芯片厂商”,它会优先返回英伟达、AMD、寒武纪等头部企业信息;
  • 代码执行超时:沙箱环境单次运行上限为90秒,复杂计算(如训练小模型)会被中断;
  • 报告长度限制:单次生成报告正文不超过8000字,超长内容会自动分节。

应对方法很简单:把大问题拆成小问题。例如,不要问“分析中国新能源汽车产业链”,而是分三次问:
① “国内动力电池主要厂商及2023年市占率” → 得到表格;
② “宁德时代2023年研发投入和专利数量” → 得到数据;
③ “综合以上,画出产业链图谱并标注技术卡点” → 得到可视化图。

4.3 如何让生成的播客更专业?

默认设置已足够清晰,但若想进一步提升质量,可在点击声波图标后,在弹出的设置面板中调整:

  • 音色选择:推荐“科技男声-沉稳版”或“知性女声-清晰版”,避免“情感丰富”类音色(易显得不专业);
  • 语速调节:技术内容建议设为0.9倍速,比常速稍慢,便于理解术语;
  • 章节停顿:开启“章节间增加2秒停顿”,让听众有时间消化图表或数据。

生成后的MP3文件会自动保存在/root/workspace/podcasts/目录下,文件名含时间戳,方便归档。

5. 总结:掌握按钮,就是掌握DeerFlow的核心能力

DeerFlow的WebUI看似简单,但每个按钮都对应一种研究能力的“开关”。你不需要记住所有技术细节,只要理解:

  • +号按钮 = 重置研究起点,保持思路清晰;
  • 放大镜按钮 = 调动外部世界的信息,让回答有据可依;
  • </>按钮 = 启动真实代码引擎,把想法变成可运行的结果;
  • 文档按钮 = 升级输出形态,从聊天记录变成交付物;
  • 声波按钮 = 拓展知识载体,让深度内容不止于阅读;

这五个按钮组合起来,构成了一个“提问→验证→实现→交付→传播”的完整研究闭环。它不替代你的思考,而是把你从重复劳动中解放出来,把时间真正花在判断、决策和创造上。

你现在要做的,就是打开界面,点一次+号,输入第一个问题——剩下的,交给DeerFlow。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 ZEEKLOG星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

Read more

尤雨溪官宣:前端新工具来了,比Prettier快45倍!

尤雨溪官宣:前端新工具来了,比Prettier快45倍!

🚀 尤雨溪的"神秘包裹" 10月19日,Vue之父尤雨溪在Twitter上晒了一张截图,前端圈瞬间炸锅: 格式化太慢?Lint卡到爆?不,我们全都要! 这就好比你一直骑共享单车上班,突然有人送你一辆特斯拉——还是带自动驾驶的! 📊 性能对比:这是开了外挂吧? oxfmt:格式化界的"闪电侠" 🐢 Prettier:格式化1000个文件 = 45秒(够泡杯咖啡) 🚀 oxfmt:格式化1000个文件 = 1秒(咖啡还没反应过来) 速度提升:45倍! 对比Biome:快2-3倍 对比Prettier:快45倍 你的感受:从"等等等"到"好了?!" oxlint:代码检查界的"透视眼" 🐌 ESLint:

LazyLLM 多 Agent 应用全流程实践:从源码部署到可视化 Web 调试的低代码方案

LazyLLM 多 Agent 应用全流程实践:从源码部署到可视化 Web 调试的低代码方案

LazyLLM 多 Agent 应用全流程实践:从源码部署到可视化 Web 调试的低代码方案 前言:为什么选择 LazyLLM 构建多 Agent 大模型应用? LazyLLM 作为低代码构建多 Agent 大模型应用的开发工具,可大幅降低大模型应用的开发与部署门槛。本文聚焦其在豆包模型的落地实践,将从源码部署豆包文本模型的完整配置步骤入手,延伸至官方 WebModule 启动可视化 Web 界面的实操流程,并配套精准性、简洁度等多维度的部署测试说明,为开发者提供可直接对照的实操指南,助力高效完成豆包模型在 LazyLLM 框架下的部署与验证。 LazyLLM 整体架构解析:三层联动的多 Agent 运行体系 LazyLLM 的架构分为三层级递进结构,各层级分工明确且联动协同,实现从应用开发到落地执行的全流程覆盖:上层(LazyPlatform AI 大模型应用开发平台):核心含应用编排平台以可视化编排、发布、回流、调优的闭环完成应用构建迭代与平台管理模块通过租户、权限管理支撑多用户运维,是开发者的高效开发管理入口中层(

Qt与Web混合编程:CEF与QCefView深度解析

Qt与Web混合编程:CEF与QCefView深度解析

Qt与Web混合编程:CEF与QCefView深度解析 * 1. 引言:现代GUI开发的融合趋势 * 2. Qt与Web集成方案对比 * 3. CEF核心架构解析 * 4. QCefView:Qt与CEF的桥梁 * 5. 实战案例:智能家居控制面板 * 6. 性能优化策略 * 7. 调试技巧大全 * 8. 安全加固方案 * 9. 未来展望:WebComponent集成 * 10. 结语 1. 引言:现代GUI开发的融合趋势 在当今的桌面应用开发领域,本地GUI框架与Web技术的融合已成为不可逆转的趋势。Qt作为成熟的跨平台C++框架,与Web技术的结合为开发者提供了前所未有的灵活性: * 本地性能 + Web动态性 = 最佳用户体验 * 快速迭代的Web前端 + 稳定可靠的本地后端 * 跨平台一致性 + 现代UI效果 35%25%20%20%混合应用优势分布开发效率UI表现力跨平台性性能平衡 2. Qt与Web集成方案对比 方案优点缺点适用场景Qt WebEngine官方支持,