开源 AI 网络搜索工具:OpenWebSearch MCP 全新升级,支持多引擎 + 流式响应!

开源 AI 网络搜索工具:OpenWebSearch MCP 全新升级,支持多引擎 + 流式响应!

🚀 开源 AI 联网搜索工具:Open-WebSearch MCP 全新升级,支持多引擎 + 流式响应!

💡「让你的 AI 插件真正能联网」—— 不需要 API Key,搜索结果可控、开箱即用!

大家好,我最近开源了一个 AI 插件开发工具 —— Open-WebSearch MCP。这个项目旨在解决 AI 在实际应用中无法联网联网费用高昂的问题,特别适合在 Claude、LangChain、RAG 方案中添加“实时搜索”能力。


🧠 项目亮点一览

多引擎实时搜索

  • 支持 Bing百度ZEEKLOGDuckDuckGoExaBrave(目前 linux.do 暂不支持)
  • 支持HTTP代理配置,轻松解决网络访问限制
  • 支持HTTP代理配置,轻松解决网络访问限制
  • 可配置引擎组合搜索,获取更全面的内容

流式响应(MCP协议)

  • 完美兼容 Claude 插件(MCP)协议
  • 更新为支持 streamableHttpSSE 两种方式返回搜索结果,体验丝滑流畅

文章正文抓取

  • 支持提取 ZEEKLOG 博客文章全文
  • 支持提取 Linux.do(开发中)

完全免费 & 无需 API Key

  • 不再依赖 Bing API / Google Custom Search
  • 可自托管,无额度限制,数据可控

Docker 一键部署

  • 提供 docker-compose 和镜像:ghcr.io/aas-ee/open-web-search

⚙️ 如何使用?

安装非常简单:

git clone https://github.com/Aas-ee/open-webSearch cd open-webSearch npminstallnpm run build node build/index.js 

或者直接使用 Docker 启动:

docker run -d \ --name web-search \ -p 3000:3000 \ -e ENABLE_CORS=true \ -e CORS_ORIGIN=* \ ghcr.io/aas-ee/open-web-search:latest 

配置环境变量说明(可选):

# 启用CORS (默认: false)ENABLE_CORS=true # CORS来源配置 (默认: *)CORS_ORIGIN=* # 默认搜索引擎 (可选值: bing, duckduckgo, exa, brave,默认: bing)DEFAULT_SEARCH_ENGINE=duckduckgo # 启用HTTP代理 (默认: false)USE_PROXY=true # 代理服务器URL (默认: http://127.0.0.1:10809)PROXY_URL=http://your-proxy-server:port 
配合 Claude Dev Extension、Claude Desktop、Cherry Studio 使用效果更佳!

⚙️ MCP 客户端配置指南

💻 Cherry Studio

{"mcpServers":{"web-search":{"name":"Web Search MCP","type":"streamableHttp","description":"Multi-engine web search with article fetching","isActive":true,"baseUrl":"http://localhost:3000/mcp"},"web-search-sse":{"name":"Web Search SSE","type":"sse","description":"SSE version of web search","isActive":true,"url":"http://localhost:3000/sse"}}}

🔍 Claude Dev Extension (VSCode)

{"mcpServers":{"web-search":{"transport":{"type":"streamableHttp","url":"http://localhost:3000/mcp"}},"web-search-sse":{"transport":{"type":"sse","url":"http://localhost:3000/sse"}}}}

💻 Claude Desktop

{"mcpServers":{"web-search":{"transport":{"type":"streamableHttp","url":"http://localhost:3000/mcp"}},"web-search-sse":{"transport":{"type":"sse","url":"http://localhost:3000/sse"}}}}
如果你是 Docker 部署,请把 localhost 换成实际 IP 地址

🧩 MCP 工具支持

🔍 search:多引擎搜索工具

{ query:"Claude 插件开发", limit:5, engines:["bing","ZEEKLOG"]}

✅ 返回结构化数据(标题、URL、摘要、来源)


📄 fetchZEEKLOGArticle:提取 ZEEKLOG 文章全文

{ url:"https://blog.ZEEKLOG.net/xxx/article/details/xxx"}

✅ 获取正文,支持摘要分析、RAG、训练语料等场景


🧪 fetchLinuxDoArticle:抓取 Linux.do 文章(目前不稳定)


📦 CI/CD:支持 Docker 镜像自动构建发布

如果你想 Fork 并发布自己的版本,也完全没问题:

  • 支持 GitHub Actions 自动构建并发布到:
    • GitHub Container Registry(ghcr.io)
    • 阿里云容器镜像服务(可选配置 ACR)

✅ 提供详细 CI/CD 配置文档
✅ 开发者可自由部署在内网、私有云环境下


🧱 后续计划

🛠 支持更多搜索引擎(Google、知乎、Reddit)
🛠 支持文档类内容全文抽取(如微信公众号、掘金)


⭐ 项目地址

🧩 GitHub 地址:https://github.com/Aas-ee/open-webSearch
📦 Docker 镜像:ghcr.io/aas-ee/open-web-search:latest

如果你觉得这个项目对你有帮助,请 Star 一下再走 💖,你的支持是我继续迭代的最大动力!


📣 一句话总结:

「Open-WebSearch MCP:让你的 AI 插件真正实现联网搜索,开源、免费、灵活、强大。」

Read more

联邦学习架构深度分析:支持多家医院协作训练AI模型方案分析

联邦学习架构深度分析:支持多家医院协作训练AI模型方案分析

引言 随着人工智能技术在医疗领域的广泛应用,医疗机构面临着如何在保护患者隐私的同时,高效利用分散在各医疗机构的医疗数据进行模型训练的挑战。传统的集中式数据共享方法不仅面临隐私泄露风险,还涉及复杂的法律合规问题。在这一背景下,"数据不动模型动"的联邦学习架构应运而生,为医疗机构提供了在不共享原始数据的前提下协同训练AI模型的新范式。 联邦学习(Federated Learning)是一种分布式机器学习范式,允许多个参与方在不直接交换原始数据的情况下,通过交换加密的模型参数或特征表示,共同训练一个高性能的全局模型。这种"数据不动模型动"的方式完美解决了医疗数据隐私保护与有效利用之间的矛盾,正逐渐成为医疗AI协作的基础设施级解决方案。 本报告将深入剖析"数据不动模型动"的联邦学习架构,从技术架构、隐私机制、医疗场景适配性、性能优化及实施挑战五个维度进行深度分析,探讨其如何支持多家医院协作训练AI模型,同时确保敏感医疗数据的安全与隐私。 核心架构:分层协同与动态聚合 联邦学习系统通常采用三层拓扑结构实现医院间的高效协作,这种分层设计显著降低通信延迟,避免单点故障,符合医疗机构的

彻底解决 ComfyUI Mixlab 插件 Whisper.available False 的报错

彻底解决 ComfyUI Mixlab 插件 Whisper.available False 的报错

https://github.com/MixLabPro/comfyui-mixlab-nodes 彻底解决 ComfyUI Mixlab 插件 Whisper.available False 的报错 在 ComfyUI 中安装 Mixlab Nodes 插件后,控制台显示其他节点正常,便 Whisper.available False。即使环境里安装了 openai-whisper 和 faster-whisper,问题依然可能存在。 Whisper.available False 本文将分享如何通过修改 __init__.py 进行深度 Debug,并修复 Whisper.py 中的路径逻辑漏洞。 1. 深度排查:让报错“开口说话” Mixlab 的默认日志只提示 False,不显示原因。为了抓出真凶,

比迪丽AI绘画多设备协同:PC生成→手机审核→平板标注工作流

比迪丽AI绘画多设备协同:PC生成→手机审核→平板标注工作流 1. 引言:当AI绘画遇上多屏协作 想象一下这个场景:你在电脑前用AI生成了一张比迪丽的角色图,效果还不错,但总觉得眼神差了点意思。你拿起手机,在沙发上放大图片仔细端详,发现确实需要调整。接着,你拿起平板电脑,用触控笔直接在图片上圈出需要修改的区域,写下批注。第二天回到电脑前,你根据批注调整提示词,很快就得到了满意的作品。 这不是科幻电影里的场景,而是我今天要分享的比迪丽AI绘画多设备协同工作流。作为一名长期使用Stable Diffusion、FLUX等AI绘画工具的内容创作者,我发现单设备工作流程存在明显的瓶颈——创作、审核、修改这三个环节被限制在同一块屏幕上,效率低下且容易疲劳。 比迪丽(Videl)作为《龙珠》中的人气角色,有着独特的动漫气质。无论是SDXL、FLUX.1还是ComfyUI,通过LoRA模型输入bidili、videl或比迪丽关键词,都能生成风格各异的角色图。但如何高效地管理从创意到成品的全过程?多设备协同给出了答案。 本文将带你搭建一套完整的PC生成→手机审核→平板标注工作流,让你在不同

AI绘画新范式:ComfyUI可视化工作流全攻略

AI绘画新范式:ComfyUI可视化工作流全攻略 在AI生成图像变得触手可及的今天,越来越多创作者发现——真正难的不是“画出来”,而是“稳定地、可重复地、精准地画出想要的结果”。当你好不容易调出一张惊艳的作品,却因为参数没记全、步骤顺序错乱而无法复现时,那种挫败感几乎让所有灵感戛然而止。 这正是ComfyUI崛起的核心土壤。它不追求一键生成的“傻瓜式”体验,而是反其道而行之:把整个AI绘画过程彻底拆解、暴露、重组,变成一条条清晰可见的数据管道。你不再是在“猜”模型会怎么反应,而是在“指挥”每一步该做什么。 传统WebUI工具像是一台封装严密的相机——自动对焦、自动曝光、自动滤镜,拍出来不错,但你想微调白平衡或手动控制快门?对不起,选项藏得太深。而ComfyUI则像是一套模块化摄影系统:三脚架、镜头、灯光、快门线全部独立可换,你可以自由组合,甚至接上外置控制器做延时拍摄。 它的底层逻辑是数据流编程(Dataflow Programming):每个功能被抽象为一个“节点”,比如加载模型、