Windows上部署OpenClaw+DeepSeek+ 飞书,实现飞书对本地电脑的AI控制

Windows上部署OpenClaw+DeepSeek+ 飞书,实现飞书对本地电脑的AI控制
OpenClaw 火的离谱,核心在于AI智能体向数字人迈向了坚实的一步,每个人拉个群,然后下达任务,一堆AI反馈“收到”的美好生活来临了,快点在本地部署一下吧。

📋 什么是 OpenClaw?

OpenClaw 是一个开源的 AI 助手框架,支持多种大语言模型,可以本地部署,还能集成到飞书等协作工具中。有了它,你就可以:

  • ✅ 在本地运行 AI 助手,数据更安全
  • ✅ 通过 Web UI 界面与 AI 对话
  • ✅ 集成到飞书,随时随地使用
  • ✅ 操作本地文件,提升工作效率

🛠️ 安装步骤

第一步:安装 OpenClaw

首先,我们需要全局安装 OpenClaw。打开命令行工具(PowerShell 或 CMD),执行以下命令:

npm install -g openclaw@latest 

如果你使用的是 pnpm,也可以这样安装:

pnpm add -g openclaw@latest 

第二步:初始化并安装守护进程

安装完成后,运行初始化命令:

openclaw onboard --install-daemon 

这个命令会自动完成基础配置并安装守护进程,让 OpenClaw 可以在后台运行。

⚙️ 配置自己的 AI 模型

找到配置文件

安装完成后,我们需要配置自己的 AI 模型。配置文件位于:

C:\Users\你的用户名\.openclaw\openclaw.json 

配置 DeepSeek 模型示例

以配置 DeepSeek 为例,我们直接修改配置文件。以下是我的完整的配置示例:

{   "auth": {     "profiles": {       "deepseek:default": {         "provider": "deepseek",         "mode": "api_key"       }     }   },   "models": {     "mode": "merge",     "providers": {       "deepseek": {         "baseUrl": "https://api.deepseek.com/v1",         "apiKey": "修改为自己的 API KEY",         "api": "openai-completions",         "models": [           {             "id": "deepseek-chat",             "name": "DeepSeek Chat",             "reasoning": false,             "input": ["text"],             "cost": {               "input": 0,               "output": 0,               "cacheRead": 0,               "cacheWrite": 0             },             "contextWindow": 128000,             "maxTokens": 8192           }         ]       }     }   },   "agents": {     "defaults": {       "model": {         "primary": "deepseek/deepseek-chat"       },       "models": {         "deepseek/deepseek-chat": {           "alias": "DeepSeek Chat"         }       }     }   } } 

重要提示:

  • 🔑 记得将 apiKey 替换为你自己的 DeepSeek API Key
  • 📝 如果你使用的是其他模型(如 Qwen、GPT 等),可以按照类似的格式进行配置
  • 💾 修改配置文件后记得保存

🚀 启动服务

配置完成后,启动 OpenClaw 网关服务:

openclaw gateway restart 

启动成功后,打开浏览器访问:

http://127.0.0.1:18789/ 

验证连接状态

连接失败的情况:

如果 API Key 配置错误或网络问题,界面会显示连接失败的错误提示。此时需要检查:

  • ✅ API Key 是否正确
  • ✅ 网络连接是否正常
  • ✅ 配置文件格式是否正确

NOKEY

NOKEY

连接成功的情况:

如果一切正常,你就可以在 Web UI 界面中与 AI 进行对话了!界面简洁友好,使用体验流畅。

key

key

📱 配置飞书集成

想要在飞书中使用 OpenClaw?没问题!参考以下教程:

👉 腾讯云开发者社区教程

常见问题解决

在配置飞书集成时,可能会遇到以下错误(我的windows环境一直遇到):

[openclaw] Failed to start CLI: Error: spawn npm ENOENT 

解决方法:我手动安装飞书扩展解决

如果遇到上述错误,可以按照以下步骤手动安装:

  1. 进入 OpenClaw 配置目录
cd "C:\Users\你的用户名\.openclaw" 
  1. 安装飞书扩展包
npm install @m1heng-clawd/feishu 
  1. 创建扩展目录并复制文件
# 创建文件夹 mkdir extensions mkdir extensions\feishu # 复制文件到扩展目录 xcopy /E /Y "node_modules\@m1heng-clawd\feishu\*" "extensions\feishu\" 
  1. 安装依赖
cd extensions\feishu npm install --prod 

完成以上步骤后,重新启动 OpenClaw 服务即可。

二次授权

在飞书中第一次发送消息时,OpenClaw 会要求进行二次授权。这是正常的安全机制,只需要:

  1. 点击授权链接
  2. 按照提示完成授权操作
  3. 授权完成后即可正常使用

二次授权

二次授权

🎉 使用效果

配置完成后,你就可以通过飞书操作本地的 OpenClaw 了!

主要功能包括:

  • 📁 查看本地文件:直接在飞书中查看电脑上的文件
  • ✏️ 生成文件:让 AI 帮你创建和编辑文件
  • 💬 智能对话:随时随地向 AI 提问
  • 🔧 自动化操作:执行各种本地操作任务

查看文件

查看文件

生成文件

生成文件

💡 使用技巧

  1. 多模型支持:可以在配置文件中添加多个模型提供商,根据需要切换使用
  2. 安全提醒:API Key 是敏感信息,不要分享给他人
  3. 性能优化:如果本地资源有限,可以调整模型的上下文窗口大小
  4. 定期更新:保持 OpenClaw 和扩展的最新版本,获得更好的体验

📚 参考资源

  • 🌐 OpenClaw 官方 GitHub
  • 📖 飞书集成教程

🎯 总结

OpenClaw 和飞书,钉钉等移动软件打通,后续考虑将其和Cursor,Claude Code 打通,真正实现让AI全天打工,自己在远处进行任务下达。进入人-Agent交互新阶段

我是AI时代原住民,如果看到这里,欢迎点个推荐AI时代,你最大的能力变迁:从“我不行”到“我能行”!

AI重构软件研发全流程走向落地!亚马逊发布「AI驱动开发」全新方法论,完整解读十大核心原则

AI开发新范式——规范驱动开发(SDD)【第三篇】:通过OpenSpec实现增量开发

一图介绍清楚基于Spec Kit 框架的SDD(规范驱动开发)的详细过程【SDD第二讲]

五分钟带你理解AI时代的软件研发新范式——SDD(规格驱动开发) 【SDD第一讲】

重温氛围编程:是AI开发的明日新星还是皇帝的新装

华为《智能世界2035》揭示软件未来:人机协同编程重塑软件开发格局

2:AI重构软件组织:

AI组织-未来已来:10年以后的组织是什么样子?

AI组织是什么样子?来自微软的最新分析 – The Year of the Frontier Firm:

3:软件工程本质思考:

AI时代,重新温习软件工程经典巨作,思考软件工程的本质

研发提效的本质:不是让程序员拼命踩油门,而是为价值修一条高速公路

AI时代重温经典:《管理大型软件系统的开发》

AI时代重温经典,梳理软件工程的本质:高效构建软件的工程智慧

4: 模型本质的认识:

OpenAI深度揭秘大语言模型的幻觉本质

5: 软件智能测试:

AI在软件测试中的理想与现实:一场尚未到来的革命

6: AI实战

SDD开发实战:3小时从零构建可私有部署的AI助手

AI协同开发范式RIPER-5实战:从零构建图书馆管理系统

SDD(Spec驱动开发)实战新范式:SDDAgent驱动SDD端到端开发流

7: 行业技术

持续进化,从“上下文工程”到“Agent工程”,LangChain给出Agent开发的核心范式

Read more

基于腾讯云HAI + DeepSeek快速设计自己的个人网页

基于腾讯云HAI + DeepSeek快速设计自己的个人网页

前言:通过结合腾讯云HAI 强大的云端运算能力与DeepSeek先进的 AI技术,本文介绍高效、便捷且低成本的设计一个自己的个人网页。你将了解到如何轻松绕过常见的技术阻碍,在腾讯云HAI平台上快速部署DeepSeek模型,仅需简单几步,就能获取一个包含个人简介、技能特长、项目经历及联系方式等核心板块的响应式网页。 目录 一、DeepSeek模型部署在腾讯云HAI 二、设计个人网页 一、DeepSeek模型部署在腾讯云HAI 把 DeepSeek 模型部署于腾讯云 HAI,用户便能避开官网访问限制,直接依托腾讯云 HAI 的超强算力运行 DeepSeek-R1 等模型。这一举措不仅降低了技术门槛,还缩短了部署时间,削减了成本。尤为关键的是,凭借 HAI 平台灵活且可扩展的特性,用户能够依据自身特定需求定制专属解决方案,进而更出色地适配特定业务场景,满足各类技术要求 。 点击访问腾讯云HAI控制台地址: 算力管理 - 高性能应用服务 - 控制台 腾讯云高性能应用服务HAI已支持DeepSeek-R1模型预装环境和CPU算力,只需简单的几步就能调用DeepSeek - R1

By Ne0inhk
AI革命先锋:DeepSeek与蓝耘通义万相2.1的无缝融合引领行业智能化变革

AI革命先锋:DeepSeek与蓝耘通义万相2.1的无缝融合引领行业智能化变革

云边有个稻草人-ZEEKLOG博客 目录 引言 一、什么是DeepSeek? 1.1 DeepSeek平台概述 1.2 DeepSeek的核心功能与技术 二、蓝耘通义万相2.1概述 2.1 蓝耘科技简介 2.2 蓝耘通义万相2.1的功能与优势 1. 全链条智能化解决方案 2. 强大的数据处理能力 3. 高效的模型训练与优化 4. 自动化推理与部署 5. 行业专用解决方案 三、蓝耘通义万相2.1与DeepSeek的对比分析 3.1 核心区别 3.2 结合使用的优势 四、蓝耘注册流程 五、DeepSeek与蓝耘通义万相2.1的集成应用 5.1 集成应用场景 1. 智能医疗诊断

By Ne0inhk
如何通过 3 个简单步骤在 Windows 上本地运行 DeepSeek

如何通过 3 个简单步骤在 Windows 上本地运行 DeepSeek

它是免费的——社区驱动的人工智能💪。         当 OpenAI 第一次推出定制 GPT 时,我就明白会有越来越多的人为人工智能做出贡献,并且迟早它会完全由社区驱动。         但从来没有想过它会如此接近😂让我们看看如何在 Windows 机器上完全免费使用第一个开源推理模型!  步骤 0:安装 Docker 桌面         我确信很多人已经安装了它,所以可以跳过,但如果没有 — — 这很简单,只需访问Docker 的官方网站,下载并运行安装 👍         如果您需要一些特定的设置,例如使用 WSL,那么有很多指导视频,请查看!我将继续下一步。 步骤 1:安装 CUDA 以获得 GPU 支持         如果您想使用 Nvidia 显卡运行 LLM,则必须安装 CUDA 驱动程序。(嗯……是的,它们需要大量的计算能力)         打开CUDA 下载页面,

By Ne0inhk
在 VSCode 中本地运行 DeepSeek,打造强大的私人 AI

在 VSCode 中本地运行 DeepSeek,打造强大的私人 AI

本文将分步向您展示如何在本地安装和运行 DeepSeek、使用 CodeGPT 对其进行配置以及开始利用 AI 来增强您的软件开发工作流程,所有这些都无需依赖基于云的服务。  步骤 1:在 VSCode 中安装 Ollama 和 CodeGPT         要在本地运行 DeepSeek,我们首先需要安装Ollama,它允许我们在我们的机器上运行 LLM,以及CodeGPT,它是集成这些模型以提供编码辅助的 VSCode 扩展。 安装 Ollama Ollama 是一个轻量级平台,可以轻松运行本地 LLM。 下载Ollama 访问官方网站:https://ollama.com * 下载适合您的操作系统(Windows、macOS 或 Linux)的安装程序。 * 验证安装 安装后,打开终端并运行: ollama --version  如果 Ollama 安装正确,

By Ne0inhk