【Windows安装openclaw,配置qwen模型和ollama本地模型,飞书群组添加机器人】

【Windows安装openclaw,配置qwen模型和ollama本地模型,飞书群组添加机器人】

Windows11安装OpenClaw,配置千问Qwen模型及配置服务器本地模型Ollama,接入飞书机器人

第一步、安装Nodejs

1、减少后续各种报错情况,先安装Nodejs,下载地址:https://nodejs.org/zh-cn/download,选择对应操作系统,24版本太新,有些依赖不适配,本文选择22.22.0版本,node-v22.22.0-x64.msi 直接双击安装即可。

在这里插入图片描述


2、安装完成看一下版本信息,用管理员权限打开win的PowerShell

在这里插入图片描述


3、执行 node -v

在这里插入图片描述

第二步、安装Git

1、安装Git 访问地址 https://git-scm.com/install/windows 安装文件 Git-2.53.0-64-bit.exe

在这里插入图片描述


2、选默认选项安装即可,安装完成查看版本信息是否生效

在这里插入图片描述

第三步、安装Openclaw

1、开通安装权限,依次执行命令,键盘输入y即可

允许当前用户运行本地和下载的脚本 Set-ExecutionPolicy RemoteSigned -Scope CurrentUser 临时放宽当前 PowerShell 进程的脚本执行限制 Set-ExecutionPolicy -Scope Process -ExecutionPolicy Bypass 
在这里插入图片描述

2、以管理员权限打开powershell 执行一键安装脚本
运行命令iwr -useb https://openclaw.ai/install.ps1 | iex 如果不报错静静等待即可。

在这里插入图片描述


在这里插入图片描述


3、进行新手设置 执行命令openclaw onboard --install-daemon 选择QuickStart,默认gateway端口18789,bind为127.0.0.1 下一步选择模型,这里选择Qwen,然后弹出千问的登录认证

在这里插入图片描述


注册登录成功

在这里插入图片描述


4、远程控制渠道,这里选择飞书,选择下载安装plugin。

在这里插入图片描述

5、登录飞书 https://open.feishu.cn/app/cli_a93a790fdeb89cc9/baseinfo

在这里插入图片描述


获取Secret

在这里插入图片描述


复制后再cmd中右键即可显示按Enter,再输入App ID

在这里插入图片描述


provider、skills、hooks跳过即可,后续可单独配置。之后弹出gateway的cmd前台信息。

在这里插入图片描述


找到默认的安装路径C:\Users\xxx.openclaw中的openclaw.json文件,找到里面的token用来验证登录

在这里插入图片描述


json中找到gateway模块中token

在这里插入图片描述


小龙虾界面访问:输入访问地址http://127.0.0.1:18789#token=bb817f5fd0867xxxxxxxxx5就可以看到小龙虾界面了。

在这里插入图片描述

打开openclaw后台可以进行对话, 使用千问模型. 使用命令openclaw onboard可重新配置大模型token,输入对应的API的key即可.

在这里插入图片描述


这里没有配置大模型api 输入命令openclaw configure 可进行模型配置。openclaw models list 查看已配置模型。登录国内大厂获取免费token额度,或者付费订阅即可。
查看安装状态命令

# 检查 OpenClaw 版本 openclaw --version# 检查系统健康状态 openclaw doctor # 检查 Gateway 状态 openclaw gateway status 

配置本地大模型

在openclaw.json中配置Ollama的地址192.168.113.66:9095即可

"models":{"mode":"merge","providers":{"ollama":{"baseUrl":"http://192.168.113.66:9095/v1","api":"openai-completions","models":[{"id":"qwen3:235b","name":"Qwen3-235B","reasoning":false,"input":["text"],"contextWindow":32768,"maxTokens":8192}]}}}
"agents":{"defaults":{"model":{"primary":"ollama/qwen3:235b","fallbacks":[]},"models":{"ollama/qwen3":{"alias":"Qwen3-235B"}},"workspace":"C:\\Users\\ywh\\.openclaw\\workspace","compaction":{"mode":"safeguard"},"maxConcurrent":4,"subagents":{"maxConcurrent":8}}}

然后再agent路径C:\Users\ywh.openclaw\agents\main\agent替换auth-profiles.json的内容

{"version":1,"profiles":{"ollama:default":{"provider":"ollama","type":"api_key","key":"ollama-local"}},"usageStats":{"ollama:default":{"errorCount":0,"lastUsed":1773295358877}}}

同路径再添加一个models.json文件

{"providers":{"ollama":{"baseUrl":"http://192.168.113.66:9095/v1","api":"openai-completions","models":[{"id":"qwen3:235b","name":"Qwen3-235B","reasoning":false,"input":["text"],"contextWindow":32768,"maxTokens":8192,"cost":{"input":0,"output":0,"cacheRead":0,"cacheWrite":0},"api":"openai-completions"}],"apiKey":"ollama-local"}}}

重启网关openclaw gateway restart 即可。

第四步、配置飞书

前边通过channel创建过飞书连接, 在飞书开放平台创建机器人选择发布

在这里插入图片描述


在左侧添加应用能力–>机器人

在这里插入图片描述


下一步开通权限, 批量开通权限脚本如下

{"scopes":{"tenant":["aily:file:read","aily:file:write","application:application.app_message_stats.overview:readonly","application:application:self_manage","application:bot.menu:write","cardkit:card:read","cardkit:card:write","contact:user.employee_id:readonly","corehr:file:download","event:ip_list","im:chat.access_event.bot_p2p_chat:read","im:chat.members:bot_access","im:message","im:message.group_at_msg:readonly","im:message.p2p_msg:readonly","im:message:readonly","im:message:send_as_bot","im:resource"],"user":["aily:file:read","aily:file:write","im:chat.access_event.bot_p2p_chat:read"]}}
在这里插入图片描述


添加事件
im.message.receive_v1- 接收消息
im.message.message_read_v1- 消息已读回执
im.chat.member.bot.added_v1- 机器人进群
im.chat.member.bot.deleted_v1- 机器人被移出群

在这里插入图片描述


修改完要发布

在这里插入图片描述


重启openclaw的gateway 直接运行 openclaw gateway
登录电脑端飞书,创建群组,群组设置添加机器人.

在这里插入图片描述


搜索之前发布的应用名称

在这里插入图片描述


在这里插入图片描述


然后就可以让小龙虾帮你干活了

在这里插入图片描述

Read more

AIOps实践:基于 Dify+LangBot 实现飞书智能体对话机器人

AIOps实践:基于 Dify+LangBot 实现飞书智能体对话机器人

文章目录 * AIOps实践:Dify接入飞书实现与智能体对话 * 前言 * 环境搭建 * 1、Docker环境搭建 * 2、LangBot搭建 * 3、编辑流水线 * 4、配置飞书机器人 * 5、创建机器人 * 6、进行测试 * 附:遇到的问题 AIOps实践:Dify接入飞书实现与智能体对话 前言 前端时间把dify的智能体接入到了Prometheus和夜莺上,实现了与智能体的基本对话,并可以调取Prometheus数据进行分析,在那之后就开始深度研究AIOps实现原理于深度赋能运维的可能性,所以正在研究AIOps的核心:MCP Server;现在还并未成型,在研究的过程中,就想到了可否基于dify的agent,连接自建的mcp服务器,对接到飞书的机器人上,这样就可以和智能体进行对话,配合成型的mcp,就可以基本实现AIOps。 这里需要借助一个三方的开源工具LangBot,LangBot是一个生产级多平台 LLM 机器人开发平台。那么就开始实践吧: MCP Server开发的当前阶

Neo4j(一) - Neo4j安装教程(Windows)

Neo4j(一) - Neo4j安装教程(Windows)

文章目录 * 前言 * 一、JDK与Neo4j版本对应关系 * 二、JDK11安装及配置 * 1. JDK11下载 * 2. 解压 * 3. 配置环境变量 * 3.1 打开系统属性设置 * 3.2 新建系统环境变量 * 3.3 编辑 PATH 环境变量 * 3.4 验证环境变量是否配置成功 * 三、Neo4j安装(Windows) * 1. 下载并解压Neo4j安装包 * 1.1 下载 * 1.2 解压 * 2. 配置环境变量 * 2.1 打开系统属性设置 * 2.2 编辑 PATH 环境变量 * 2.3 验证环境变量是否配置成功

Vivado下载安装后如何连接JTAG进行FPGA烧录实战案例

Vivado安装后如何用JTAG烧录FPGA?实战避坑全指南 你是不是也经历过这样的场景:好不容易完成了 Vivado下载与安装 ,兴冲冲打开软件准备把第一个 .bit 文件烧进FPGA,结果Hardware Manager里一片空白,“No hardware targets detected”——设备没连上。 别急,这几乎是每个FPGA新手必踩的坑。JTAG看似简单,实则从驱动、线序到供电稍有疏漏就会“失联”。本文不讲空话,直接带你从零开始打通 “PC → 下载器 → 开发板 → FPGA” 的完整链路,结合真实开发案例,手把手教你完成一次稳定可靠的比特流烧录,并解决那些让人抓狂的常见故障。 为什么JTAG总是连不上?先搞懂它到底在做什么 很多人以为JTAG就是一根“下载线”,其实它是一套完整的边界扫描架构。Xilinx的FPGA内部都集成了一个叫 TAP(Test Access Port)控制器 的模块,它像一个小CPU,专门监听四根信号线: * TCK :时钟,一切操作都得跟着它的节拍走 * TMS :模式选择,

探索安川机器人的通讯奥秘:与多种 PLC 的连接之道

探索安川机器人的通讯奥秘:与多种 PLC 的连接之道

安川机器人各种通讯方式,详细配置丶板卡安装及配置文件生成,有CC-link EtherCAT PROFINET EIP等等 与西门子 汇川 三菱等plc通讯详细案例 在自动化领域,安川机器人凭借其出色的性能备受青睐。而要让安川机器人与不同品牌的 PLC 协同工作,通讯方式的选择与配置就显得至关重要。今天咱们就来深入探讨安川机器人常见的通讯方式,包括 CC - link、EtherCAT、PROFINET、EIP 等,以及和西门子、汇川、三菱等 PLC 通讯的详细案例。 一、CC - link 通讯 板卡安装 首先得安装 CC - link 通讯板卡。一般来说,打开安川机器人控制柜,找到合适的插槽,将 CC - link 板卡平稳插入,确保金手指与插槽充分接触,然后用螺丝固定好板卡,