本地ubuntu服务器上部署openclaw完整教程(详细图文)

本地ubuntu服务器上部署openclaw完整教程(详细图文)

一、创建虚拟环境

conda create -n openclaw_env python=3.10

安装node环境

OpenClaw 的唯一硬性依赖是 Node.js 22 或更高版本

curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.1/install.sh | bash

执行下面的命令或者重启一个终端让配置生效

export NVM_DIR="$HOME/.nvm" [ -s "$NVM_DIR/nvm.sh" ] && \. "$NVM_DIR/nvm.sh"

安装node.js

nvm install 22

检查版本:

node -v 
npm -v 

二、安装OpenClaw

npm install -g openclaw@latest

验证安装成功:

openclaw --version

看到版本号就说明装好了。

执行下面的命令OpenClaw 的 onboard 命令会引导你完成所有初始配置

openclaw onboard --install-daemon

会在这里等几分钟,取决于你的网速:

此处选择自定义安装本地LLM

输入服务器ip地址

后面按这几步来就可以了

对着以下选择即可

空格确认

完成以后先择open the web ui

因为服务器本地没有tui

所以需要再计算机本地执行命令来在浏览器中展示

 ssh -N -L 18789:127.0.0.1:18789 ubuntu@你的服务器ip

然后在浏览器中输入红框中的内容

三、信息补充

  1. 后续服务器重启以后获取前端展示的方法

首先打开cmd

输入下面代码连接服务器

ssh ubuntu@服务器IP地址 

输入密码登录服务器。

启动 OpenClaw 网关服务:

openclaw start

服务启动后,终端会输出新的 Dashboard 链接(包含最新 Token),格式如下:

http://://127.0.0.1:18789/#/token=*******************

完整复制这个链接

服务器端服务启动后,在本地新开 CMD 窗口执行:

ssh -N -L 18789:127.0.0.1:18789 ubuntu@服务器IP地址

输入密码后,窗口保持空白即为转发成功(不要关闭此窗口)。

将服务器输出的链接中 127.0.0.1 替换为 localhost,粘贴到本地浏览器访问:

http://localhost:18789/#/token=你的最新Token

2.本地计算机重启但是服务器没有重启如何进入聊天页面

打开本地 Windows 新 CMD 窗口,执行:

ssh -N -L 18789:127.0.0.1:18789 [email protected]

粘贴之前的完整 Dashboard URL在浏览器中即可打开

http://localhost:18789/#/token=*****************

3.本地计算机执行查看服务器中openclaw任务是否启动


Read more

AI实践(5)检索增强(RAG)

AI实践(5)检索增强(RAG)

AI实践(5)检索增强(RAG) Author: Once Day Date: 2026年3月2日 一位热衷于Linux学习和开发的菜鸟,试图谱写一场冒险之旅,也许终点只是一场白日梦… 漫漫长路,有人对你微笑过嘛… 全系列文章可参考专栏: AI实践成长_Once-Day的博客-ZEEKLOG博客 参考文章:Prompt Engineering GuideDocumentation - Claude API DocsOpenAI for developers检索增强生成 (RAG) | Prompt Engineering GuideBuild a RAG agent with LangChain - Docs by LangChain一文读懂:大模型RAG(检索增强生成)含高级方法2026 年 RAG 技术最新进展与落地实践指南 - 个人文章 - SegmentFault

By Ne0inhk
告别手动改配置!CC-Switch:你的AI编码助手“万能遥控器”

告别手动改配置!CC-Switch:你的AI编码助手“万能遥控器”

作为一名天天和代码打交道的开发者,你一定没少用 Claude Code、Codex 或 Gemini CLI 这些 AI 编码助手。它们确实能让你效率飞起,但有一个问题,简直让人抓狂——配置管理。 想象一下这个场景:你在 A 项目用 Anthropic 官方接口,B 项目用代理中转,C 项目想试试某家“神秘”供应商……于是你开始了“手艺人”日常:打开 settings.json,小心翼翼地改 BASE_URL,粘贴新的 API_KEY,生怕一个多余的空格让整个 CLI 崩掉。 烦不烦?太烦了! 今天,我就来给你安利一个能让你彻底告别手动配置的“神器”——CC-Switch。它就像 AI

By Ne0inhk
【JAVA 进阶】SpringAI人工智能框架深度解析:从理论到实战的企业级AI应用开发指南

【JAVA 进阶】SpringAI人工智能框架深度解析:从理论到实战的企业级AI应用开发指南

文章目录 * 引言 * 1. SpringAI框架概述与核心架构 * 1.1 SpringAI框架简介与发展背景 * 1.1.1 SpringAI的核心价值 * 1.1.2 技术架构概览 * 1.2 SpringAI核心组件解析 * 1.2.1 模型管理器(Model Manager) * 1.2.2 提示模板引擎(Prompt Template Engine) * 2. SpringAI中的机器学习模型集成与管理 * 2.1 多模型集成策略 * 2.1.1 模型配置与加载 * 2.1.2 智能模型路由 * 2.2 模型版本管理与A/B测试 * 2.2.

By Ne0inhk

GPT4ALL本地部署AI大模型:拥有自己的本地AI助手

什么是大模型本地部署? 大模型本地部署,就是将大模型权重文件下载到本地,然后在本地用自己的硬件算力执行推理计算,获得结果的过程 。现在大模型本地部署不仅有GPT4ALL、Ollama、LM Studio以及llama.cpp等多个软件可以使用,也改变了必须使用GPU的“刻板印象”,可以直接使用CPU进行部署。值得一提的是,现在大模型的类型多样,参数量也极为丰富,用户可以根据自己的硬件资源和需求来自由选择不同大小的模型(如1.5B,7B,70B等)。 为什么要本地部署? * 本地部署,可以体验到以前没有用过的模型,也可以实现一个软件内多种不同模型的切换。 * 还有本地部署,可以真正保障数据的安全,因为现在用的AI助手都是运行和存储在云端。 * 在线使用大模型依赖网络,网络不稳定时,体验不好,且延迟较高。 怎么本地部署? 软件的选择 虽然本地部署的软件各种各样,在了解和尝试了多次之后,我还是选择了GPT4ALL,因为这款软件够“轻”,也够“稳”。 首先,它的安装包非常迷你,只有32MB,安装下来也只有1.77GB,对电脑的磁盘空间占用非常小。 其次,也是最核心的优势——

By Ne0inhk