【Windows安装openclaw,配置qwen模型和ollama本地模型,飞书群组添加机器人】

【Windows安装openclaw,配置qwen模型和ollama本地模型,飞书群组添加机器人】

Windows11安装OpenClaw,配置千问Qwen模型及配置服务器本地模型Ollama,接入飞书机器人

第一步、安装Nodejs

1、减少后续各种报错情况,先安装Nodejs,下载地址:https://nodejs.org/zh-cn/download,选择对应操作系统,24版本太新,有些依赖不适配,本文选择22.22.0版本,node-v22.22.0-x64.msi 直接双击安装即可。

在这里插入图片描述


2、安装完成看一下版本信息,用管理员权限打开win的PowerShell

在这里插入图片描述


3、执行 node -v

在这里插入图片描述

第二步、安装Git

1、安装Git 访问地址 https://git-scm.com/install/windows 安装文件 Git-2.53.0-64-bit.exe

在这里插入图片描述


2、选默认选项安装即可,安装完成查看版本信息是否生效

在这里插入图片描述

第三步、安装Openclaw

1、开通安装权限,依次执行命令,键盘输入y即可

允许当前用户运行本地和下载的脚本 Set-ExecutionPolicy RemoteSigned -Scope CurrentUser 临时放宽当前 PowerShell 进程的脚本执行限制 Set-ExecutionPolicy -Scope Process -ExecutionPolicy Bypass 
在这里插入图片描述

2、以管理员权限打开powershell 执行一键安装脚本
运行命令iwr -useb https://openclaw.ai/install.ps1 | iex 如果不报错静静等待即可。

在这里插入图片描述


在这里插入图片描述


3、进行新手设置 执行命令openclaw onboard --install-daemon 选择QuickStart,默认gateway端口18789,bind为127.0.0.1 下一步选择模型,这里选择Qwen,然后弹出千问的登录认证

在这里插入图片描述


注册登录成功

在这里插入图片描述


4、远程控制渠道,这里选择飞书,选择下载安装plugin。

在这里插入图片描述

5、登录飞书 https://open.feishu.cn/app/cli_a93a790fdeb89cc9/baseinfo

在这里插入图片描述


获取Secret

在这里插入图片描述


复制后再cmd中右键即可显示按Enter,再输入App ID

在这里插入图片描述


provider、skills、hooks跳过即可,后续可单独配置。之后弹出gateway的cmd前台信息。

在这里插入图片描述


找到默认的安装路径C:\Users\xxx.openclaw中的openclaw.json文件,找到里面的token用来验证登录

在这里插入图片描述


json中找到gateway模块中token

在这里插入图片描述


小龙虾界面访问:输入访问地址http://127.0.0.1:18789#token=bb817f5fd0867xxxxxxxxx5就可以看到小龙虾界面了。

在这里插入图片描述

打开openclaw后台可以进行对话, 使用千问模型. 使用命令openclaw onboard可重新配置大模型token,输入对应的API的key即可.

在这里插入图片描述


这里没有配置大模型api 输入命令openclaw configure 可进行模型配置。openclaw models list 查看已配置模型。登录国内大厂获取免费token额度,或者付费订阅即可。
查看安装状态命令

# 检查 OpenClaw 版本 openclaw --version# 检查系统健康状态 openclaw doctor # 检查 Gateway 状态 openclaw gateway status 

配置本地大模型

在openclaw.json中配置Ollama的地址192.168.113.66:9095即可

"models":{"mode":"merge","providers":{"ollama":{"baseUrl":"http://192.168.113.66:9095/v1","api":"openai-completions","models":[{"id":"qwen3:235b","name":"Qwen3-235B","reasoning":false,"input":["text"],"contextWindow":32768,"maxTokens":8192}]}}}
"agents":{"defaults":{"model":{"primary":"ollama/qwen3:235b","fallbacks":[]},"models":{"ollama/qwen3":{"alias":"Qwen3-235B"}},"workspace":"C:\\Users\\ywh\\.openclaw\\workspace","compaction":{"mode":"safeguard"},"maxConcurrent":4,"subagents":{"maxConcurrent":8}}}

然后再agent路径C:\Users\ywh.openclaw\agents\main\agent替换auth-profiles.json的内容

{"version":1,"profiles":{"ollama:default":{"provider":"ollama","type":"api_key","key":"ollama-local"}},"usageStats":{"ollama:default":{"errorCount":0,"lastUsed":1773295358877}}}

同路径再添加一个models.json文件

{"providers":{"ollama":{"baseUrl":"http://192.168.113.66:9095/v1","api":"openai-completions","models":[{"id":"qwen3:235b","name":"Qwen3-235B","reasoning":false,"input":["text"],"contextWindow":32768,"maxTokens":8192,"cost":{"input":0,"output":0,"cacheRead":0,"cacheWrite":0},"api":"openai-completions"}],"apiKey":"ollama-local"}}}

重启网关openclaw gateway restart 即可。

第四步、配置飞书

前边通过channel创建过飞书连接, 在飞书开放平台创建机器人选择发布

在这里插入图片描述


在左侧添加应用能力–>机器人

在这里插入图片描述


下一步开通权限, 批量开通权限脚本如下

{"scopes":{"tenant":["aily:file:read","aily:file:write","application:application.app_message_stats.overview:readonly","application:application:self_manage","application:bot.menu:write","cardkit:card:read","cardkit:card:write","contact:user.employee_id:readonly","corehr:file:download","event:ip_list","im:chat.access_event.bot_p2p_chat:read","im:chat.members:bot_access","im:message","im:message.group_at_msg:readonly","im:message.p2p_msg:readonly","im:message:readonly","im:message:send_as_bot","im:resource"],"user":["aily:file:read","aily:file:write","im:chat.access_event.bot_p2p_chat:read"]}}
在这里插入图片描述


添加事件
im.message.receive_v1- 接收消息
im.message.message_read_v1- 消息已读回执
im.chat.member.bot.added_v1- 机器人进群
im.chat.member.bot.deleted_v1- 机器人被移出群

在这里插入图片描述


修改完要发布

在这里插入图片描述


重启openclaw的gateway 直接运行 openclaw gateway
登录电脑端飞书,创建群组,群组设置添加机器人.

在这里插入图片描述


搜索之前发布的应用名称

在这里插入图片描述


在这里插入图片描述


然后就可以让小龙虾帮你干活了

在这里插入图片描述

Read more

Llama Factory微调显存不够?试试这个云端GPU的终极方案

Llama Factory微调显存不够?试试这个云端GPU的终极方案 作为一名数据工程师,我在微调大模型时经常遇到显存不足的问题。即使使用了多张A100显卡,全参数微调像Baichuan-7B这样的模型仍然会出现OOM(内存溢出)错误。经过多次尝试和调研,我发现云端GPU资源可能是解决这一问题的终极方案。本文将分享如何利用预置环境快速部署Llama Factory进行大模型微调,避开显存不足的坑。 为什么大模型微调需要云端GPU? 大模型微调对显存的需求远超想象。根据实测数据: * 全参数微调7B模型至少需要80GB显存 * 微调32B模型可能需要多张A100 80G显卡 * 截断长度从2048增加到4096时,显存需求呈指数级增长 本地环境往往难以满足这些需求。即使使用Deepspeed等技术优化,显存不足的问题依然存在。这时,云端GPU资源就显得尤为重要。 提示:ZEEKLOG算力平台提供了包含Llama Factory的预置镜像,可以快速部署验证微调任务。 Llama Factory镜像预装了什么? 这个镜像已经为你准备好了大模型微调所需的一切: *

本文从实际应用角度出发,对8个热门论文降重与AI写作工具进行了全面对比

本文从实际应用角度出发,对8个热门论文降重与AI写作工具进行了全面对比

工具对比总结 目前AI论文工具的综合排名如下:DeepL Write凭借精准的语法修正和学术风格优化居首,QuillBot的实时改写与多模式输出紧随其后,Grammarly的基础校对功能和跨平台兼容性位列第三,ChatGPT因生成创意内容但偶现事实性错误排名第四,Paperpal的期刊投稿适配性第五,Writefull的上下文感知改写第六,Jasper的模板化写作第七,而Wordtune因侧重商务场景在学术适用性上暂居末位。该排序综合考量了文献润色深度、响应效率及学术场景适配度,其中前三位工具在IEEE等标准文献修订测试中错误率低于8%。 工具名称 主要功能 优势亮点 aibiye 降AIGC率 20分钟处理,AIGC率降至个位数�� aicheck 论文降重 速度快,高重复率压至10%以下�� askpaper 降AIGC率 带AIGC查重,适配知网等平台 秒篇 写作+降重 多任务支持,适合初稿创作(补充信息) 千笔AI论文 降AI率 免费无限次修改,智能重构语句 Papermaster AI检测+降重 精准识别AI内容,自动提供建议

生成式人工智能(AIGC)在开放式教育问答系统中的知识表征与推理机制研究

一、引言 (一)研究背景与意义 在数字化浪潮席卷全球的当下,教育领域正经历着深刻的变革,教育数字化转型进程显著加速。这一转型不仅是技术层面的更新换代,更是教育理念、教学模式以及知识传播与获取方式的全面革新。开放式教育问答系统作为教育数字化的关键支撑,在满足学习者多样化学习需求方面发挥着日益重要的作用。它打破了传统教育在时间和空间上的限制,为学习者提供了随时随地获取知识的便捷途径,使得学习不再受限于课堂和教材,极大地拓展了教育的边界。 随着知识的快速更新和学科交叉融合的不断深入,开放式教育问答系统面临着前所未有的挑战。它需要处理来自多领域、多学科的知识,并且要适应知识动态化发展的趋势,满足学习者在不同学习场景下的知识交互需求。例如,在跨学科研究中,学习者可能需要同时了解物理学、化学、生物学等多个学科的知识,并探索它们之间的内在联系;在解决实际问题时,学习者需要将理论知识与实际应用相结合,获取具有针对性的解决方案。传统的知识表征与推理机制在应对这些复杂多变的需求时,逐渐显露出其固有的局限性。 从灵活性角度来看,传统机制往往采用预先设定的规则和框架来表示知识,缺乏对新知识和新情况的自

Bidili SDXL Generator 5分钟快速部署:小白也能玩转AI绘画

Bidili SDXL Generator 5分钟快速部署:小白也能玩转AI绘画 你是不是也想过自己动手生成一张独一无二的AI画作,却被复杂的模型部署、参数配置劝退?今天,我要分享一个好消息:现在,你只需要5分钟,就能在自己的电脑上搭建一个功能强大的AI绘画工具——Bidili SDXL Generator。 这个工具基于目前最先进的Stable Diffusion XL 1.0模型,并集成了Bidili团队精心训练的LoRA风格权重。更重要的是,它专门针对SDXL架构做了显存优化,还提供了傻瓜式的可视化界面。无论你是完全没有AI基础的小白,还是想快速体验SDXL强大能力的开发者,这篇文章都能帮你轻松上手。 1. 为什么选择Bidili SDXL Generator? 在开始动手之前,我们先简单了解一下这个工具的核心价值。市面上AI绘画工具很多,但Bidili SDXL Generator有几个特别适合新手的优势。 1.1 开箱即用,告别复杂配置 传统的Stable Diffusion部署需要你懂Python环境、会安装各种依赖库、还要自己下载好几个G的模型文件。整个过程