【Windows安装openclaw,配置qwen模型和ollama本地模型,飞书群组添加机器人】

【Windows安装openclaw,配置qwen模型和ollama本地模型,飞书群组添加机器人】

Windows11安装OpenClaw,配置千问Qwen模型及配置服务器本地模型Ollama,接入飞书机器人

第一步、安装Nodejs

1、减少后续各种报错情况,先安装Nodejs,下载地址:https://nodejs.org/zh-cn/download,选择对应操作系统,24版本太新,有些依赖不适配,本文选择22.22.0版本,node-v22.22.0-x64.msi 直接双击安装即可。

在这里插入图片描述


2、安装完成看一下版本信息,用管理员权限打开win的PowerShell

在这里插入图片描述


3、执行 node -v

在这里插入图片描述

第二步、安装Git

1、安装Git 访问地址 https://git-scm.com/install/windows 安装文件 Git-2.53.0-64-bit.exe

在这里插入图片描述


2、选默认选项安装即可,安装完成查看版本信息是否生效

在这里插入图片描述

第三步、安装Openclaw

1、开通安装权限,依次执行命令,键盘输入y即可

允许当前用户运行本地和下载的脚本 Set-ExecutionPolicy RemoteSigned -Scope CurrentUser 临时放宽当前 PowerShell 进程的脚本执行限制 Set-ExecutionPolicy -Scope Process -ExecutionPolicy Bypass 
在这里插入图片描述

2、以管理员权限打开powershell 执行一键安装脚本
运行命令iwr -useb https://openclaw.ai/install.ps1 | iex 如果不报错静静等待即可。

在这里插入图片描述


在这里插入图片描述


3、进行新手设置 执行命令openclaw onboard --install-daemon 选择QuickStart,默认gateway端口18789,bind为127.0.0.1 下一步选择模型,这里选择Qwen,然后弹出千问的登录认证

在这里插入图片描述


注册登录成功

在这里插入图片描述


4、远程控制渠道,这里选择飞书,选择下载安装plugin。

在这里插入图片描述

5、登录飞书 https://open.feishu.cn/app/cli_a93a790fdeb89cc9/baseinfo

在这里插入图片描述


获取Secret

在这里插入图片描述


复制后再cmd中右键即可显示按Enter,再输入App ID

在这里插入图片描述


provider、skills、hooks跳过即可,后续可单独配置。之后弹出gateway的cmd前台信息。

在这里插入图片描述


找到默认的安装路径C:\Users\xxx.openclaw中的openclaw.json文件,找到里面的token用来验证登录

在这里插入图片描述


json中找到gateway模块中token

在这里插入图片描述


小龙虾界面访问:输入访问地址http://127.0.0.1:18789#token=bb817f5fd0867xxxxxxxxx5就可以看到小龙虾界面了。

在这里插入图片描述

打开openclaw后台可以进行对话, 使用千问模型. 使用命令openclaw onboard可重新配置大模型token,输入对应的API的key即可.

在这里插入图片描述


这里没有配置大模型api 输入命令openclaw configure 可进行模型配置。openclaw models list 查看已配置模型。登录国内大厂获取免费token额度,或者付费订阅即可。
查看安装状态命令

# 检查 OpenClaw 版本 openclaw --version# 检查系统健康状态 openclaw doctor # 检查 Gateway 状态 openclaw gateway status 

配置本地大模型

在openclaw.json中配置Ollama的地址192.168.113.66:9095即可

"models":{"mode":"merge","providers":{"ollama":{"baseUrl":"http://192.168.113.66:9095/v1","api":"openai-completions","models":[{"id":"qwen3:235b","name":"Qwen3-235B","reasoning":false,"input":["text"],"contextWindow":32768,"maxTokens":8192}]}}}
"agents":{"defaults":{"model":{"primary":"ollama/qwen3:235b","fallbacks":[]},"models":{"ollama/qwen3":{"alias":"Qwen3-235B"}},"workspace":"C:\\Users\\ywh\\.openclaw\\workspace","compaction":{"mode":"safeguard"},"maxConcurrent":4,"subagents":{"maxConcurrent":8}}}

然后再agent路径C:\Users\ywh.openclaw\agents\main\agent替换auth-profiles.json的内容

{"version":1,"profiles":{"ollama:default":{"provider":"ollama","type":"api_key","key":"ollama-local"}},"usageStats":{"ollama:default":{"errorCount":0,"lastUsed":1773295358877}}}

同路径再添加一个models.json文件

{"providers":{"ollama":{"baseUrl":"http://192.168.113.66:9095/v1","api":"openai-completions","models":[{"id":"qwen3:235b","name":"Qwen3-235B","reasoning":false,"input":["text"],"contextWindow":32768,"maxTokens":8192,"cost":{"input":0,"output":0,"cacheRead":0,"cacheWrite":0},"api":"openai-completions"}],"apiKey":"ollama-local"}}}

重启网关openclaw gateway restart 即可。

第四步、配置飞书

前边通过channel创建过飞书连接, 在飞书开放平台创建机器人选择发布

在这里插入图片描述


在左侧添加应用能力–>机器人

在这里插入图片描述


下一步开通权限, 批量开通权限脚本如下

{"scopes":{"tenant":["aily:file:read","aily:file:write","application:application.app_message_stats.overview:readonly","application:application:self_manage","application:bot.menu:write","cardkit:card:read","cardkit:card:write","contact:user.employee_id:readonly","corehr:file:download","event:ip_list","im:chat.access_event.bot_p2p_chat:read","im:chat.members:bot_access","im:message","im:message.group_at_msg:readonly","im:message.p2p_msg:readonly","im:message:readonly","im:message:send_as_bot","im:resource"],"user":["aily:file:read","aily:file:write","im:chat.access_event.bot_p2p_chat:read"]}}
在这里插入图片描述


添加事件
im.message.receive_v1- 接收消息
im.message.message_read_v1- 消息已读回执
im.chat.member.bot.added_v1- 机器人进群
im.chat.member.bot.deleted_v1- 机器人被移出群

在这里插入图片描述


修改完要发布

在这里插入图片描述


重启openclaw的gateway 直接运行 openclaw gateway
登录电脑端飞书,创建群组,群组设置添加机器人.

在这里插入图片描述


搜索之前发布的应用名称

在这里插入图片描述


在这里插入图片描述


然后就可以让小龙虾帮你干活了

在这里插入图片描述

Read more

开源浪潮下的中国力量:文心一言大模型本地部署与应用全攻略

开源浪潮下的中国力量:文心一言大模型本地部署与应用全攻略

文章目录 * 一、前言 * 1.1 模型开源意义与背景 * 1.2 文心一言大模型简介 * 1.3 测评目标与思路 * 二、文心一言大模型 * 2.1 文心一言开源概况 * 2.2 文心一言大模型技术综述 * 三、文心一言大模型深度解析 * 3.1 开源策略与生态影响 * 3.1.1 开源时间与版本介绍 * 3.2 模型特性与优势 * 四、部署实战:从 GitCode下载ERNIE-4.5-0.3B 模型到本地可交互服务 * 4.1 环境准备与部署方式 * 4.2 下载与安装步骤 * 4.3 调用示例与接口说明 * 编写部署测试脚本 * 五、

一篇了解Copilot pro使用的笔记

一篇了解Copilot pro使用的笔记

当前AI 程序员已经默许了,除了使用国内外的那些头部Chat。Agent 模态已经肆意发展,因为随着AI的加成,大家都越来越主动或被动“效率起飞”。下面聊一下Copilot Pro的使用吧。 使用这个也就几个月吧,不谈购买心酸史,已经直接官网10刀了。这次也算开始心疼了,先研究一下这到底怎么用才不暴殄天物也不小才大用吧。哈哈,为了那该死的性价比~ 1.关于copilot pro(个人账号)可供使用的头端模型界面 (手机没拍好) 看起来可用的后端模型挺多的,各家各路,选啥自己整。但却不是按照时间来计算,明显的“流量”限制,就是官网说的访问配额。 x = 相对消耗倍率(Cost / Compute Weight Multiplier),它不是速度,也不是性能评分,而是: “使用该模型一次,相当于基础模型消耗的多少倍额度”。 还有: (1)先说每个模型后面的那个数字0X 0x 不是 免费无限用 而是 不单独计入

GitHub Copilot转变为兼容API

解锁GitHub Copilot全场景使用!copilot-api让Copilot兼容OpenAI/Anthropic生态 作为开发者,你是否曾因GitHub Copilot仅能在指定IDE中使用而感到受限?是否想让Copilot对接Raycast、Claude Code等工具,却苦于接口不兼容?由ericc-ch开发的copilot-api项目给出了完美答案——这是一个反向工程实现的GitHub Copilot API代理,能将Copilot封装为兼容OpenAI和Anthropic规范的API服务,让你在任意支持该规范的工具中轻松调用Copilot能力,彻底解锁Copilot的全场景使用潜力。 项目核心价值:打破生态壁垒,复用Copilot订阅 GitHub Copilot凭借优秀的代码补全、推理能力成为开发者必备工具,但原生仅支持VS Code、JetBrains等少数IDE,且无公开的标准API接口。而copilot-api的核心作用,就是架起Copilot与OpenAI/Anthropic生态的桥梁: * 对于拥有Copilot订阅(个人/企业/商业版)的开发者,

手机上也能运行Stable Diffusion?Github上开源且完全免费的AI生图软件!斩获1.4K Stars

手机上也能运行Stable Diffusion?Github上开源且完全免费的AI生图软件!斩获1.4K Stars

Hello,大家好! 今天给大家分享一款GitHub上1.4k星标的开源神器——手机端AI绘画工具, 软件已经整理在文末,有需要的朋友记得获取保存哦~  链接:https://pan.quark.cn/s/fa5abdb93460 一、软件打开方式 这款工具为安卓APK安装包,共提供两个版本:带过滤器版本和不带过滤器版本,大家可以根据自己的需求选择。下载后直接安装到手机上即可运行,无需复杂配置。 二、软件的功能介绍 这是一款让安卓手机直接运行Stable Diffusion的AI绘画工具,主要特色包括: 全功能AI绘画 支持文生图:输入提示词一键生成图像 支持图生图:导入参考图片二次创作 支持图像修复:模糊图片一键变清晰 多模式加速 支持CPU/GPU/NPU三种运行模式 高通骁龙处理器可启用NPU加速,生成速度极快 非骁龙处理器也可用CPU/GPU流畅运行 开源免费 GitHub开源项目,完全免费无限制 模型可自由下载切换 三、使用指南 第一步:安装与首次设置