win11本地部署openclaw实操第2集-让小龙虾具有telegram机器人能力和搜索网站能力

win11本地部署openclaw实操第2集-让小龙虾具有telegram机器人能力和搜索网站能力

1 按照第一集的部署完成后,我们就开始考虑给小龙虾增加telegram机器人和搜索网站能力,实现效果如下:

在这里插入图片描述


在这里插入图片描述

2 telegram机器人能力部署

C:\Users\Administrator.openclaw的配置文件openclaw.json

在这里插入图片描述


在这里插入图片描述

增加一段内容

"channels":{"telegram":{"enabled": true, "dmPolicy":"pairing", "botToken":"你的telegram机器人的token", "groupPolicy":"allowlist", "streamMode":"partial", "network":{"autoSelectFamily":true}, "proxy":"http://你的代理IP:你的代理端口", "actions":{"reactions": true, "sendMessage": true, "deleteMessage": true, "sticker":true}}}, 

五、对接 Telegarm 电报机器人

打开你的 Telegram,搜索 @BotFather,发送 /newbot,来创建一个新的机器人,按提示设置:

在这里插入图片描述

给 Bot 起个名字,比如我设置为 人工智能我来了

在这里插入图片描述

设置用户名(必须以 bot 结尾,比如Renggongai0219Bot )

最后会给你一串 Token:你的token

输入 token 进行对接,并进入到刚才创建的机器人里,第一次打开会显示还未正式对接,但是会在里面提供配对码,比如我的是 Pairing code: 你的token

XX

现在只需重新打开一个新的 Powershell 窗口,然后在里面输入配对命令即可

openclaw pairing approve telegram 这里填写你的配对码 
在这里插入图片描述

当你看到这个界面的话说明已经和Telegram配对成功了!

版本升级到3.12后配置有点不一样了

1.打开 Telegram → 搜索 @userinfobot → 发送 /start → 机器人会直接回复你的数字 ID(格式:Id: 1987654321)。

在这里插入图片描述

2.1 openclaw配置

openclaw onboard
◇ Telegram allowFrom (numeric sender id; @username resolves to id)
│ XXXXXX(输入上图ID的数字)

3 搜索网站能力部署

C:\Users\Administrator.openclaw的配置文件openclaw.json

在这里插入图片描述


在这里插入图片描述

增加一段内容

"tools":{"web":{"search":{}, "fetch":{"maxChars":20000, "timeoutSeconds":30, "userAgent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/120.0.0.0 Safari/537.36"}}}, 

4 openclaw.json配置文件全部内容

{"meta":{"lastTouchedVersion":"2026.2.19-2", "lastTouchedAt":"2026-02-21T06:04:19.113Z"}, "wizard":{"lastRunAt":"2026-02-21T06:04:19.057Z", "lastRunVersion":"2026.2.19-2", "lastRunCommand":"onboard", "lastRunMode":"local"}, "logging":{"level":"info"}, "models":{"providers":{"ollama":{"baseUrl":"http://127.0.0.1:11434/v1", "apiKey":"ollama-local", "api":"openai-completions", "models":[{"id":"gpt-oss:20b", "name":"gpt-oss:20b", "reasoning": false, "input":["text"], "cost":{"input":0, "output":0, "cacheRead":0, "cacheWrite":0}, "contextWindow":131072, "maxTokens":16384}]}}}, "agents":{"defaults":{"model":{"primary":"ollama/gpt-oss:20b"}, "models":{"ollama/gpt-oss:20b":{}}, "workspace":"C:\\Users\\Administrator\\.openclaw\\workspace", "compaction":{"mode":"safeguard"}, "maxConcurrent":4, "subagents":{"maxConcurrent":8}}}, "tools":{"web":{"search":{}, "fetch":{"maxChars":20000, "timeoutSeconds":30, "userAgent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/120.0.0.0 Safari/537.36"}}}, "messages":{"ackReactionScope":"group-mentions"}, "commands":{"native":"auto", "nativeSkills":"auto", "restart":true}, "hooks":{"internal":{"enabled": true, "entries":{"boot-md":{"enabled":true}, "session-memory":{"enabled":true}}}}, "channels":{"telegram":{"enabled": true, "dmPolicy":"pairing", "botToken":"用你自己的代替", "groupPolicy":"allowlist", "streamMode":"partial", "network":{"autoSelectFamily":true}, "proxy":"http://127.0.0.1:7897", "actions":{"reactions": true, "sendMessage": true, "deleteMessage": true, "sticker":true}}}, "gateway":{"port":18789, "mode":"local", "bind":"loopback", "auth":{"mode":"token", "token":"用你自己的代替"}, "tailscale":{"mode":"off", "resetOnExit":false}, "remote":{"url":"ws://127.0.0.1:18789", "token":"你设置的密码代替"}, "nodes":{"denyCommands":["camera.snap", "camera.clip", "screen.record", "calendar.add", "contacts.add", "reminders.add"]}}, "skills":{"install":{"nodeManager":"npm"}}, "plugins":{"entries":{"telegram":{"enabled":true}}}}

Read more

揭秘Copilot与主流IDE集成全过程:从配置到高效使用的6个关键步骤

第一章:Copilot 与主流IDE集成的背景与价值 GitHub Copilot 作为一款基于人工智能的编程助手,依托于 OpenAI 的大型语言模型技术,正在深刻改变开发者编写代码的方式。它通过分析上下文语义,自动补全函数、生成注释甚至实现完整逻辑块,显著提升了开发效率。随着现代软件项目复杂度的上升,快速构建高质量代码成为核心诉求,Copilot 与主流集成开发环境(IDE)的深度融合应运而生。 提升开发效率与降低认知负担 在日常编码中,开发者常需重复编写相似结构的代码,如数据模型定义或 API 接口封装。Copilot 能根据命名习惯和上下文智能推荐代码片段,减少手动输入。例如,在 Visual Studio Code 中启用 Copilot 后,输入以下注释即可触发建议: // 创建一个用于验证邮箱格式的正则表达式 const emailRegex = 此时,Copilot 会自动补全为: const emailRegex = /^[^\s@]+@[^\s@]+\.[^\s@]+$/; 这种即时辅助让开发者更专注于业务逻辑设计,

Stable-Diffusion-v1-5-archive基础教程:Prompt/Negative Prompt参数精讲

Stable-Diffusion-v1-5-archive基础教程:Prompt/Negative Prompt参数精讲 你是不是也遇到过这种情况:用Stable Diffusion生成图片,明明输入了“一只可爱的猫”,结果出来的却是只奇形怪状的“猫科生物”?或者想画个“阳光下的海滩”,结果画面却阴沉得像世界末日? 别急着怀疑自己的艺术天赋,问题很可能出在提示词上。今天,我们就来彻底搞懂Stable Diffusion v1.5 Archive这个经典模型里,最核心也最让人头疼的两个参数:Prompt(正向提示词) 和 Negative Prompt(负向提示词)。 这篇文章不讲复杂的原理,只讲你能立刻用上的方法。我会用大白话告诉你,这两个参数到底是什么、怎么用、有哪些坑要避开。看完之后,你就能像老司机一样,精准地“指挥”AI画出你想要的画面。 1. 先认识一下我们的“画师”:Stable Diffusion v1.5 Archive 在开始“指挥”

圣女司幼幽-造相Z-Turbo实战案例:10分钟搭建个人向牧神记AI画师工作流

圣女司幼幽-造相Z-Turbo实战案例:10分钟搭建个人向牧神记AI画师工作流 1. 快速了解圣女司幼幽-造相Z-Turbo 圣女司幼幽-造相Z-Turbo是一个专门用于生成《牧神记》中圣女司幼幽角色图像的AI模型。这个模型基于Z-Image-Turbo的LoRA版本进行训练,能够根据文字描述快速生成符合角色设定的高质量图片。 对于喜欢《牧神记》的读者和创作者来说,这个工具可以帮助你: * 快速生成心目中的圣女司幼幽形象 * 为同人创作提供视觉素材 * 探索不同场景下的角色表现 * 节省寻找合适插图的时间 整个部署和使用过程非常简单,即使没有技术背景也能在10分钟内完成搭建并开始生成图片。 2. 环境准备与快速部署 2.1 获取镜像并启动服务 首先需要获取圣女司幼幽-造相Z-Turbo的镜像文件。这个镜像已经预装了所有必要的组件,包括Xinference推理框架和Gradio可视化界面。 启动服务后,系统会自动加载模型文件。由于模型文件较大,初次加载可能需要一些时间,请耐心等待。 2.2 检查服务状态 服务启动后,可以通过以下命令检查是否正常运行:

Cogito-v1-preview-llama-3B开源部署:支持LoRA微调+PEFT适配+自定义工具插件

Cogito-v1-preview-llama-3B开源部署:支持LoRA微调+PEFT适配+自定义工具插件 1. 模型介绍与核心优势 Cogito v1 预览版是Deep Cogito推出的混合推理模型系列,在大多数标准基准测试中均超越了同等规模下最优的开源模型,包括来自LLaMA、DeepSeek和Qwen等模型的同类表现。 Cogito LLMs 是经过指令调优的生成模型,采用文本输入/文本输出模式。所有模型都以开放许可发布,允许商业使用,这为开发者和企业提供了极大的便利。 核心特点: * 混合推理能力:每个模型可以直接回答(标准LLM模式),也可以在回答前进行自我反思(推理模式) * 先进训练方法:使用迭代蒸馏和放大(IDA)策略进行训练,通过迭代自我改进实现高效对齐 * 多领域优化:针对编码、STEM、指令执行和通用帮助性进行了专门优化 * 多语言支持:在超过30种语言上进行了训练,支持128k的上下文长度 * 卓越性能:在标准模式和推理模式下,均优于同等规模的其他模型 2. 快速部署与环境准备 2.1 系统要求与依赖安装 在开始部署前,确保你的