把废弃的腾讯云服务器改为 Openclaw 仅需一句话!!!(附带免费白嫖AI模型)

把废弃的腾讯云服务器改为 Openclaw 仅需一句话!!!(附带免费白嫖AI模型)

大家好,我是热爱探索AI前沿技术的LucianaiB。

前面我尝试了,感兴趣的可以才是部署一下试试

1.在 Windows 上部署 Openclaw:https://mp.weixin.qq.com/s/iF3ED1e649kkmdR26Y1xiw

2.把 Openclaw 接入到 Moltbook:https://mp.weixin.qq.com/s/QUrB50iwRGGdkl1LO-Tl8Q

相信很多技术爱好者都有这样的经历:趁着双十一或者大促,脑子一热买了一台腾讯云或者阿里云的服务器。买的时候雄心勃勃,想着要搭建博客、跑脚本、做图床。结果呢?大概率是跑了几个自动化签到脚本后,它就静静地躺在控制台里“吃灰”,每个月白白扣费。

但是在自己的电脑运行 Openclaw 无法做到24小时的在运行,于是我就想到了我有一个好久不用的腾讯云服务器,之前购买主要是跑一些自动化签到脚本,并没有实际做什么具体工作。于是我就想到把废弃的腾讯云服务器改为 Openclaw 的24小时的服务器。

于是,一个大胆的想法诞生了:能不能把我那个闲置的腾讯**云服务器**,改造成一个 24 小时在线的 Openclaw?

今天,我就手把手教大家,如何用一句话,把服务器秒改 Openclaw。

一句话让腾讯云服务器改为 Openclaw

首先打开你的服务器管理网站

👉 直达链接::https://console.cloud.tencent.com/lighthouse/instance/

(如果没有服务器的可以通过左侧的 Openclaw 专属链接获取有更大优惠:https://www.tencentcloud.com/act/pro/FreeTier?referral_code=U0R814D3&lang=en

注:我用的是国内腾讯云服务器,而专属链接获得的是腾讯云国际服务器,网络连接 OpenAI 或 GitHub 会更顺畅。

img

选择你要部署的服务器直接登录即可,登录后如下所示。

img

真正的「0 门槛」启动

你不需要懂代码!!!

直接在右上角点击OrcaTerm AI,唤醒AI助手。

img

只要在 AI 助手中用提示词表达即可,例如:“部署OpenClaw🔥”

img

AI 助手就会自动识别你的需求,并进入部署引导流程。

整个过程不需要输入任何命令,只需要“点确认”。

img

初始化配置向导

部署完成后需要点击手动运行配置一下向导:

openclaw onboard --install-daemon 

下面的现在可以把我的作为参考,详细的也可以看开头1.在 Windows 上部署 Openclaw 位置中有介绍

img
img

下面就是成功了。

img

免费白嫖AI模型(包括 kimi-k2.5 等)

1.注册账号:https://build.nvidia.com/,建议用谷歌登录即可。

2.左上角点击头像,新建一个API Key。

img

3.再次唤醒AI助手,把下面的API KEY换为你自己的,直接扔给它等待就好了。

帮我打开 ~/.openclaw/openclaw.json文件,在 models 部分增加下面的代码,注意:providers 外面还要加一层 models,如果原来配置有models就加到原来的里面 { ... 其他内容不要改 "models": { "providers":{ "英伟达nvidia": { "baseUrl": "https://integrate.api.nvidia.com/v1", "apiKey": "nvapi-HxKN8Zp2-xxxxx-替换成你的 key, "api": "openai-completions", "models": [ { "id": "moonshotai/kimi-k2.5", "name": "moonshotai/kimi-k2.5", "reasoning": false, "input": [ "image", "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 200000, "maxTokens": 8192 } ] } ... 其他内容不要改 } ... 其他内容不要改 } } 

助手直接帮你配置成功

img

修改模型,输入:openclaw config,修改模型。切记

Model/auth provider 选择 Skip for now

Filter models by provider 中选择你添加的 模型

img
img

输入openclaw gateway restart 重启网关,再输入 openclaw tui 测试模型,问他是什么模型即可。

img

赋予灵魂:接入飞书实现远程操控

在本地运行虽然好,但我们不可能永远守在电脑前。接入飞书(Lark),就能让你在手机上随时随地给家里的电脑下达指令。

1.打开飞书开放平台配置:https://open.feishu.cn/app,新建一个,输入相关信息。

img

2.获取到:App ID和App Secret

img

3.在添加应用能力里选择机器人并添加。

img

4.给机器人开通全部的权限。

img

4.接下来就是下载插件使飞书和 Openclaw 连接。

openclaw plugins inatall @m1heng-clawd/feishu 安装插件:飞书插件 - 支持飞书通道,并且配置好 openclaw config set channels.feishu.appId "cli_xxxxx" openclaw config set channels.feishu.appSecret "your_app_secret" openclaw config set channels.feishu.enabled true 我的飞书信息: App ID:换为你自己在步骤2得到的 App Secret:换为你自己在步骤2得到的 openclaw gateway restart 
img

如果它还是没配置好,那就单独让它配置一下就好了。

img

5.接下来就是在**事件与**回调**(二者缺一不可)**中选择长连接即可(如果没有成功,可能需要上一步重启 Openclaw Gateway 服务)。

img

然后在添加事件中全部勾选即可。

img

6.最后就是插件一个版本进行发布即可,点击左侧“版本管理与发布” -> 创建版本 -> 申请发布。。

img

打开飞书

img

总结与建议

写在最后,我对这套 OpenClaw + 腾讯云 + NVIDIA +飞书 的技术栈做一个客观的总结。

瑕不掩瑜,强烈推荐!

对于手里有闲置服务器(尤其是腾讯云轻量应用服务器)的朋友来说,这几乎是性价比最高的玩法。它不仅能让你熟悉 Linux、API 调试、IM 机器人开发等全套技术栈,还能给你提供一个实实在在的生产力工具。

别让你的服务器再“吃灰”了,现在就动手,把它变成你的赛博伙伴吧!

ending

我创建了一个读者 AI 极客交流及搞钱群,群里都是一群前沿的 AI 极客,经常讨论最新的 AI 消息,用法,以及变现方法。

img

但是任何人在群里打任何广告,都会被我 T 掉。

如果你对这个特别的群,感兴趣,可以公众号后台私信我加入。

暗号:AI

Read more

硕士论文盲审前降AI率:盲审评委到底会不会看AIGC报告?

硕士论文盲审前降AI率:盲审评委到底会不会看AIGC报告? 最近收到不少同学私信问我:"学长,我硕士论文马上要送盲审了,学校说要做AIGC检测,但盲审评委真的会看这个报告吗?"说实话,这个问题我当初也纠结过。今天就把我了解到的情况和大家详细聊聊,希望能帮到正在准备盲审的同学。 盲审流程中AIGC检测处于什么位置? 盲审前的"关卡"越来越多 以前硕士论文盲审,学校主要关注的就是查重率。但从2025年下半年开始,越来越多的高校在盲审前增加了AIGC检测环节。根据我收集到的信息,目前的盲审流程大致是这样的: 环节时间节点负责方是否涉及AI检测论文提交盲审前2-4周研究生院部分学校要求提交检测报告查重检测盲审前1-2周学院/研究生院与AIGC检测同步进行AIGC检测盲审前1-2周学院/研究生院是,多数用知网系统送审盲审开始研究生院统一安排部分学校附带检测报告评审盲审期间(2-4周)外校评委评委可能收到报告 三种常见的学校处理方式 经过调研,我发现不同学校对盲审中AIGC检测的处理方式主要分三种: 第一种:检测不通过直接不送审。 这是最严格的情况。如果AIGC检测率超过

蓝耘智算 + 通义万相 2.1:为 AIGC 装上 “智能翅膀”,翱翔创作新天空

蓝耘智算 + 通义万相 2.1:为 AIGC 装上 “智能翅膀”,翱翔创作新天空

1. 引言:AIGC 的崛起与挑战 在过去几年中,人工智能生成内容(AIGC)技术突飞猛进。AIGC 涉及了文本生成、图像创作、音乐创作、视频制作等多个领域,并逐渐渗透到日常生活的方方面面。传统的内容创作方式已经被许多人类创作者所推崇,但随着时间的推移,人工智能的出现使得创作的边界变得更加模糊。 然而,尽管人工智能技术取得了巨大进展,如何高效地将 AI 模型与计算平台结合,以便为 AIGC 提供更加高效、智能的支持,仍然是一个关键问题。蓝耘智算与通义万相 2.1 的结合为解决这一问题提供了新的方向。这种创新的技术融合使得 AIGC 可以不仅仅依赖于数据处理的能力,还可以实现智能化的生成和创作,推动内容创作的未来。 2. 蓝耘智算:为 AIGC 提供智能支持 2.1 蓝耘智算简介 蓝耘智算是一种综合性计算平台,专注于为大规模人工智能应用提供优化计算资源。在过去几年中,蓝耘智算不断发展壮大,已成为许多行业中的顶尖计算平台之一,广泛应用于机器学习、

一文讲清:AI、AGI、AIGC、NLP、LLM、ChatGPT的区别与联系

一文讲清:AI、AGI、AIGC、NLP、LLM、ChatGPT的区别与联系

AI行业的“术语”很多,但它们到底是什么关系?有什么层级逻辑?作为开发者或想转行 AI 应用工程师的人,该从哪学起?今天我们来说一下 本文用一张层次图 + 六段解释,让你彻底搞懂它们的区别与联系。 一、AI:人工智能的最上层概念 AI(Artificial Intelligence,人工智能)是所有智能技术的总称。 它的目标是让机器模仿人的智能行为,例如学习、推理、判断、理解语言、感知世界。 AI 涵盖的分支非常多,包括: * 计算机视觉(CV) * 自然语言处理(NLP) * 语音识别(ASR) * 智能决策系统 * 强化学习(RL) 可以理解为:AI 是整个智能技术的“天花板概念”,下面的所有都属于它的子集。 二、AGI:通用人工智能 AGI(Artificial General

突破性能瓶颈:llama.cpp多GPU分布式计算优化实践指南

突破性能瓶颈:llama.cpp多GPU分布式计算优化实践指南 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 你是否还在为大模型推理时单GPU显存不足而苦恼?是否遇到过模型加载缓慢、生成效率低下的问题?本文将从实战角度出发,系统讲解llama.cpp项目的多GPU性能优化方案,帮你解决分布式推理中的设备调度、显存分配和并行效率三大核心难题。读完本文,你将掌握多GPU环境配置、性能监控与问题诊断的完整流程,让本地大模型部署效率提升300%。 多GPU架构解析:从设备发现到任务调度 llama.cpp通过GGML后端实现跨设备计算调度,其核心机制位于src/llama.cpp的设备管理模块。系统启动时会自动扫描所有可用计算设备,按优先级分为GPU、集成GPU(iGPU)和RPC服务器三类,相关代码逻辑如下: // 设备分类与优先级排序(