开源 AI 网络搜索工具:OpenWebSearch MCP 全新升级,支持多引擎 + 流式响应!

开源 AI 网络搜索工具:OpenWebSearch MCP 全新升级,支持多引擎 + 流式响应!

🚀 开源 AI 联网搜索工具:Open-WebSearch MCP 全新升级,支持多引擎 + 流式响应!

💡「让你的 AI 插件真正能联网」—— 不需要 API Key,搜索结果可控、开箱即用!

大家好,我最近开源了一个 AI 插件开发工具 —— Open-WebSearch MCP。这个项目旨在解决 AI 在实际应用中无法联网联网费用高昂的问题,特别适合在 Claude、LangChain、RAG 方案中添加“实时搜索”能力。


🧠 项目亮点一览

多引擎实时搜索

  • 支持 Bing百度ZEEKLOGDuckDuckGoExaBrave(目前 linux.do 暂不支持)
  • 支持HTTP代理配置,轻松解决网络访问限制
  • 支持HTTP代理配置,轻松解决网络访问限制
  • 可配置引擎组合搜索,获取更全面的内容

流式响应(MCP协议)

  • 完美兼容 Claude 插件(MCP)协议
  • 更新为支持 streamableHttpSSE 两种方式返回搜索结果,体验丝滑流畅

文章正文抓取

  • 支持提取 ZEEKLOG 博客文章全文
  • 支持提取 Linux.do(开发中)

完全免费 & 无需 API Key

  • 不再依赖 Bing API / Google Custom Search
  • 可自托管,无额度限制,数据可控

Docker 一键部署

  • 提供 docker-compose 和镜像:ghcr.io/aas-ee/open-web-search

⚙️ 如何使用?

安装非常简单:

git clone https://github.com/Aas-ee/open-webSearch cd open-webSearch npminstallnpm run build node build/index.js 

或者直接使用 Docker 启动:

docker run -d \ --name web-search \ -p 3000:3000 \ -e ENABLE_CORS=true \ -e CORS_ORIGIN=* \ ghcr.io/aas-ee/open-web-search:latest 

配置环境变量说明(可选):

# 启用CORS (默认: false)ENABLE_CORS=true # CORS来源配置 (默认: *)CORS_ORIGIN=* # 默认搜索引擎 (可选值: bing, duckduckgo, exa, brave,默认: bing)DEFAULT_SEARCH_ENGINE=duckduckgo # 启用HTTP代理 (默认: false)USE_PROXY=true # 代理服务器URL (默认: http://127.0.0.1:10809)PROXY_URL=http://your-proxy-server:port 
配合 Claude Dev Extension、Claude Desktop、Cherry Studio 使用效果更佳!

⚙️ MCP 客户端配置指南

💻 Cherry Studio

{"mcpServers":{"web-search":{"name":"Web Search MCP","type":"streamableHttp","description":"Multi-engine web search with article fetching","isActive":true,"baseUrl":"http://localhost:3000/mcp"},"web-search-sse":{"name":"Web Search SSE","type":"sse","description":"SSE version of web search","isActive":true,"url":"http://localhost:3000/sse"}}}

🔍 Claude Dev Extension (VSCode)

{"mcpServers":{"web-search":{"transport":{"type":"streamableHttp","url":"http://localhost:3000/mcp"}},"web-search-sse":{"transport":{"type":"sse","url":"http://localhost:3000/sse"}}}}

💻 Claude Desktop

{"mcpServers":{"web-search":{"transport":{"type":"streamableHttp","url":"http://localhost:3000/mcp"}},"web-search-sse":{"transport":{"type":"sse","url":"http://localhost:3000/sse"}}}}
如果你是 Docker 部署,请把 localhost 换成实际 IP 地址

🧩 MCP 工具支持

🔍 search:多引擎搜索工具

{ query:"Claude 插件开发", limit:5, engines:["bing","ZEEKLOG"]}

✅ 返回结构化数据(标题、URL、摘要、来源)


📄 fetchZEEKLOGArticle:提取 ZEEKLOG 文章全文

{ url:"https://blog.ZEEKLOG.net/xxx/article/details/xxx"}

✅ 获取正文,支持摘要分析、RAG、训练语料等场景


🧪 fetchLinuxDoArticle:抓取 Linux.do 文章(目前不稳定)


📦 CI/CD:支持 Docker 镜像自动构建发布

如果你想 Fork 并发布自己的版本,也完全没问题:

  • 支持 GitHub Actions 自动构建并发布到:
    • GitHub Container Registry(ghcr.io)
    • 阿里云容器镜像服务(可选配置 ACR)

✅ 提供详细 CI/CD 配置文档
✅ 开发者可自由部署在内网、私有云环境下


🧱 后续计划

🛠 支持更多搜索引擎(Google、知乎、Reddit)
🛠 支持文档类内容全文抽取(如微信公众号、掘金)


⭐ 项目地址

🧩 GitHub 地址:https://github.com/Aas-ee/open-webSearch
📦 Docker 镜像:ghcr.io/aas-ee/open-web-search:latest

如果你觉得这个项目对你有帮助,请 Star 一下再走 💖,你的支持是我继续迭代的最大动力!


📣 一句话总结:

「Open-WebSearch MCP:让你的 AI 插件真正实现联网搜索,开源、免费、灵活、强大。」

Read more

ComfyUI Manager终极指南:简单快速打造专业AI绘画工作流

ComfyUI Manager是AI绘画领域不可或缺的插件管理神器,为ComfyUI用户提供强大的自定义节点和模型文件管理能力。无论你是刚入门的新手还是资深AI绘画爱好者,这款免费工具都能让你的创作效率提升数倍! 【免费下载链接】ComfyUI-Manager 项目地址: https://gitcode.com/gh_mirrors/co/ComfyUI-Manager 🎯 新手必看:3分钟完成环境搭建 系统兼容性检查 在开始安装前,确保你的设备满足以下条件: * 操作系统:Windows 10/11、macOS 10.15+、Linux Ubuntu 18.04+ * Python版本:3.8-3.10(强烈推荐3.10) * 硬件要求:8GB内存起步,2GB可用存储空间 一键式安装方案 最简单的安装方式是通过Git直接获取: 1. 进入ComfyUI安装目录的custom_nodes文件夹 2. 重新启动ComfyUI应用 执行克隆命令: git clone

By Ne0inhk

【AI时代职场通行证】:MCP AI Copilot考试内容深度拆解与实战技巧

第一章:MCP AI Copilot考试概述与认证价值 MCP AI Copilot认证是面向现代软件开发人员和云解决方案架构师的重要技术资质,旨在验证考生在使用AI驱动的开发工具、自动化编程辅助以及智能云服务集成方面的专业能力。该认证由微软推出,聚焦于开发者如何高效利用GitHub Copilot与Azure AI服务提升编码效率与系统智能化水平。 考试内容与技能要求 考试涵盖多个核心技术领域,包括但不限于AI增强型代码生成、自然语言到代码的转换、安全合规的AI使用实践,以及在主流IDE中集成Copilot工具链。考生需掌握以下关键技能: * 熟练配置并使用GitHub Copilot插件进行实时代码建议 * 理解AI模型输出的风险控制与版权合规问题 * 在实际项目中应用Copilot优化函数编写、单元测试生成和代码重构 认证的实际价值 获得MCP AI Copilot认证不仅证明开发者掌握了前沿的AI协作开发技术,还能显著提升在企业级项目中的竞争力。该认证被越来越多科技公司视为评估工程师现代化开发能力的重要指标。 认证维度对应价值技术认可度获得微软官方技术背

By Ne0inhk
LLaMA-Factory微调多模态大模型Qwen3-VL

LLaMA-Factory微调多模态大模型Qwen3-VL

LLaMA-Factory微调多模态大模型Qwen3-VL 目录 LLaMA-Factory微调多模态大模型Qwen3-VL 1. 显卡驱动 2. 模型微调 3. 模型导出 4. 模型部署:vLLM服务 5. 测试效果 1. 显卡驱动 * 显卡型号:NVIDIA GeForce RTX 3090 24G * 显卡驱动:NVIDIA-SMI 535.171.04             * CUDA: 12.2 ,Driver Version: 535.171.04   微调Qwen3-VL-2B模型,至少需要12G显存 2. 模型微调 项目采用大型语言模型工厂(LLaMA-Factory)对大模型微调,目前可支持Qwen3 / Qwen2.5-VL / Gemma 3 / GLM-4.1V / InternLM

By Ne0inhk
2026年AI编程工具全景图:GitHub Copilot vs Cursor vs Codeium,我如何选择?

2026年AI编程工具全景图:GitHub Copilot vs Cursor vs Codeium,我如何选择?

文章目录 * 前言 * 一、我的使用场景与测试环境 * 二、GitHub Copilot:全球生态标杆 * 核心优势实测 * 性能数据记录 * 鸿蒙开发适配度 * 三、Cursor:专家级重构利器 * 重构能力深度测试 * 多文件分析能力 * 四、Codeium:极致免费的性价比之选 * 免费策略的深度体验 * 响应速度实测 * 中文支持的优势 * 五、鸿蒙开发场景专项测试 * 测试1:ArkTS组件生成 * 测试2:分布式能力集成 * 测试3:性能优化建议 * 六、2026年价格策略对比 * 七、我的实际使用组合 * 工作日使用方案 * 具体工作流 * 效率提升数据 * 八、选择建议:根据你的场景决策 * 场景1:学生/初学者/零预算 * 场景2:前端/鸿蒙开发者 * 场景3:全栈/团队协作

By Ne0inhk