老手机 本地部署小龙虾OpenClaw(使用本地千问大模型)实机演示 Termux+Ubuntu+Llama 新手完整安装教程(含代码)

本教程提供从 0 到 1 的详细步骤,在安卓手机上通过 Termux 运行 Ubuntu,部署本地 Llama 大模型,并集成 OpenClaw 进行 AI 交互,全程无需 Root。建议手机配置:≥4GB 内存,≥64GB 存储,Android 7+。

一、准备工作

1.1 安装 Termux

  1. F-DroidGitHub下载最新版 Termux(避免应用商店旧版本)
  2. 安装并打开,首次启动会自动配置基础环境

1.2 手机设置优化

  1. 开启开发者选项(设置→关于手机→连续点击版本号 7 次)
  2. 开启USB 调试(部分手机需要)
  3. 授予 Termux存储权限(后续步骤会自动请求)

二、Termux 基础配置与 Ubuntu 安装

2.1 Termux 初始化与换源(加速下载)

bash

运行

# 1. 更新系统包 pkg update -y && pkg upgrade -y # 2. 安装必要工具 pkg install -y proot-distro git curl wget termux-exec # 3. 授予存储权限(允许访问手机文件) termux-setup-storage # 4. 更换国内源(解决下载慢问题) echo "deb https://mirrors.tuna.tsinghua.edu.cn/termux/apt/termux-main stable main" > $PREFIX/etc/apt/sources.list pkg update -y 

2.2 安装 Ubuntu 系统(Proot 容器,无需 Root)

bash

运行

# 1. 安装Ubuntu(默认最新LTS版本,约200MB) proot-distro install ubuntu # 2. 验证安装并登录Ubuntu proot-distro login ubuntu --isolated # --isolated参数必须加,避免环境变量冲突 # 登录成功后,终端提示符变为:root@localhost:~# 

三、Ubuntu 环境配置(核心依赖安装)

在 Ubuntu 终端中执行以下命令(确保已通过proot-distro login ubuntu进入):

3.1 系统更新与基础工具

bash

运行

# 1. 更新Ubuntu软件源 apt update -y && apt upgrade -y # 2. 安装必要依赖 apt install -y build-essential git curl wget nano python3 python3-pip nodejs npm 

3.2 安装 Node.js(OpenClaw 依赖,必须 v22+)

bash

运行

# 卸载旧版本(如果有) apt remove -y nodejs npm # 安装Node.js v22 LTS curl -fsSL https://deb.nodesource.com/setup_22.x | bash - apt install -y nodejs # 验证版本(应显示v22+) node -v && npm -v # 安装pnpm(OpenClaw推荐包管理器) npm install -g pnpm 

四、本地 Llama 模型部署(两种方案,推荐 Ollama)

方案 A:Ollama(推荐,新手友好,自动管理模型)

bash

运行

# 1. 安装Ollama(一键脚本) curl -fsSL https://ollama.com/install.sh | sh # 2. 启动Ollama服务(后台运行) nohup ollama serve > ollama.log 2>&1 & # 后台运行,日志保存到ollama.log # 3. 验证安装 ollama --version # 4. 下载轻量级Llama模型(手机推荐0.5B~7B参数) # 下载Qwen2.5-0.5B(中文支持好,仅需约300MB空间) ollama pull qwen2.5:0.5b # 或下载Llama 3.1-8B(英文优秀,约4.7GB) # ollama pull llama3.1:8b # 5. 测试模型(交互模式) ollama run qwen2.5:0.5b # 输入"你好"测试,输入"/bye"退出 

方案 B:llama.cpp(手动编译,适合高级用户)

bash

运行

# 1. 克隆llama.cpp仓库 git clone https://github.com/ggerganov/llama.cpp.git cd llama.cpp # 2. 编译(手机CPU优化) make LLAMA_NATIVE=1 LLAMA_NO_ACCELERATE=1 # 禁用加速,适配手机CPU # 3. 下载GGUF格式Llama模型(推荐Q4_K_M量化版,体积小速度快) # 下载Qwen2.5-0.8B-UD-Q4_K_M.gguf(约500MB) wget https://hf-mirror.com/Qwen/Qwen2.5-0.8B-UD/resolve/main/Qwen2.5-0.8B-UD-Q4_K_M.gguf -P models/ # 4. 启动llama.cpp API服务(OpenClaw可通过API访问) ./server -m models/Qwen2.5-0.8B-UD-Q4_K_M.gguf -c 2048 --host 0.0.0.0 --port 8081 # -c 2048:上下文窗口大小 # --host 0.0.0.0:允许外部访问 # --port 8081:API端口 

五、OpenClaw 安装与配置

5.1 安装 OpenClaw

bash

运行

# 1. 克隆OpenClaw仓库(或直接下载最新版) git clone https://github.com/openclaw/openclaw.git cd openclaw # 2. 安装依赖 pnpm install # 3. 初始化配置(自动生成.env文件) pnpm run setup 

5.2 配置 OpenClaw 连接本地 Llama 模型

情况 1:连接 Ollama(推荐)

在初始化过程中,按以下提示配置:

plaintext

? 请选择默认模型提供商: Ollama ? Ollama API 地址: http://localhost:11434 # Ollama默认端口 ? 请设置Ollama API密钥: ollama-local # 任意值即可,Ollama不需要真实密钥 ? 请选择默认模型: qwen2.5:0.5b # 选择已下载的模型 
情况 2:连接 llama.cpp API

bash

运行

# 修改.env文件 nano .env # 添加以下内容(替换原有Ollama配置) MODELS_PROVIDERS_CUSTOM_API_BASE_URL=http://localhost:8081/v1 MODELS_PROVIDERS_CUSTOM_API_KEY=sk-local # 任意值 DEFAULT_MODEL=custom:llama # 保存并退出(Ctrl+O,回车,Ctrl+X) 

5.3 启动 OpenClaw

bash

运行

# 开发模式启动(适合调试) pnpm run dev # 或生产模式启动(推荐,性能更好) pnpm run build pnpm run start # 启动成功后,会显示: # > OpenClaw is running on http://localhost:8080 

六、访问与使用 OpenClaw

6.1 本地访问(手机浏览器)

  1. 保持 Termux/Ubuntu 终端运行,不要关闭
  2. 打开手机浏览器,输入:http://localhost:8080
  3. 进入 OpenClaw 界面,在左侧选择 "模型交互"
  4. 右侧选择已配置的模型(如 qwen2.5:0.5b)
  5. 输入问题,点击 "发送",等待回复(手机性能有限,首次可能需要 10-30 秒)

6.2 局域网访问(其他设备)

bash

运行

# 查看手机IP地址(在Ubuntu终端执行) ip a # 查找inet后的地址,如192.168.1.100 # 其他设备浏览器输入:http://手机IP:8080 # 例如:http://192.168.1.100:8080 

七、常见问题解决

问题 1:Ollama 启动失败

bash

运行

# 查看日志 cat ollama.log # 常见修复:重启服务 pkill ollama nohup ollama serve > ollama.log 2>&1 & 

问题 2:OpenClaw 连接模型失败

bash

运行

# 1. 检查模型服务是否运行 # Ollama: curl http://localhost:11434/v1/models # 应返回模型列表 # llama.cpp: curl http://localhost:8081/v1/models # 应返回模型列表 # 2. 检查.env配置是否正确 cat .env # 3. 重启OpenClaw pnpm run restart 

问题 3:内存不足 / 运行缓慢

  1. 选择更小的模型(如 0.5B~2B 参数)
  2. 关闭其他后台应用
  3. 降低模型上下文窗口(llama.cpp 中-c 512代替-c 2048

七、完整操作流程总结(快速参考)

bash

运行

# 1. 启动Termux # 2. 进入Ubuntu proot-distro login ubuntu --isolated # 3. 启动Ollama服务(如果未启动) nohup ollama serve > ollama.log 2>&1 & # 4. 进入OpenClaw目录 cd openclaw # 5. 启动OpenClaw pnpm run start # 6. 打开浏览器访问http://localhost:8080 

八、进阶技巧

后台运行与进程管理

bash

运行

# 1. 查看后台进程 jobs # 2. 将前台进程转为后台(Ctrl+Z后) bg # 3. 恢复后台进程到前台 fg [进程号] # 4. 永久后台运行(重启后仍生效) echo "nohup ollama serve > ollama.log 2>&1 &" >> ~/.bashrc echo "cd /root/openclaw && pnpm run start" >> ~/.bashrc 

模型推荐(手机性能友好)

表格

模型名称参数大小占用空间推荐指数特点
Qwen2.5-0.5B0.5B~300MB★★★★★中文支持好,速度快
Llama 3.1-1B1B~600MB★★★★☆英文优秀,轻量级
Mistral-7B-Instruct-v0.37B~4GB★★★☆☆性能强,需≥8GB 内存

常见问题 Q&A

  1. 是否需要 Root?不需要!全程使用 Proot 容器技术,安全无风险
  2. 手机最低配置要求?建议≥4GB RAM,≥64GB 存储,Android 7+
  3. 模型下载慢怎么办?使用国内镜像源,如hf-mirror.com,或在电脑下载后通过 USB 传输到手机
  4. 如何关闭服务?
    • OpenClaw:Ctrl+C
    • Ollama:pkill ollama
    • Ubuntu:exit 退出,然后关闭 Termux

老手机 本地部署小龙虾OpenClaw(使用本地千问大模型)

现在你已经成功在手机上搭建了完整的本地 AI 环境,可以开始使用 OpenClaw 与 Llama 模型进行交互了!

大模型交流群:959957732

Read more

配电房智能辅助监控系统 站端监控设备-温湿度、水浸、烟雾、视频、门禁、巡检机器人、空调、灯光

配电房智能辅助监控系统 站端监控设备-温湿度、水浸、烟雾、视频、门禁、巡检机器人、空调、灯光

一、项目概况 智能配电监控系统在配电工程中的应用分析,以 10kV 的配电工程为例,这一配电站宽 16m,长 7m,而配电室所占据的比例相对较小,因此,各种设备等所占据的空间极为有限(如图 1 所示)。 从图上能够看到,配电室入口是监控室,内装有监控屏,能够进行操作,实现随时监控配电工程的运作情况。监控室内的监控装置具有一定的自动性,与配电工程各个环节通过计算机技术,实现信息的互通,通过智能配电监控系统获取信息,实现信息采集,而后通过计算机主机、计算机相关程序对所采集的信息进行处理 二、建设目标 项目建设目标是:建设成切合电力生产实际应用的,能够保障电网生产安全运行的监控平台。 2.1 支撑远程运维 1)建设配电房智能辅助监控系统一体化监控平台,实现对配电站房环境子系统(温度、湿度、水浸)以及灯光、空调等控制子系统、门禁监控子系统进行统一监控管理。实现对各子系统的报警信息的统一管理,实现各子系统之间的报警联动; 2)实现以配电站房为单位,对配电站房内进行远程巡检;

【节点】[Triplanar节点]原理解析与实际应用

【节点】[Triplanar节点]原理解析与实际应用

【Unity Shader Graph 使用与特效实现】专栏-直达 Triplanar节点是Unity URP Shader Graph中一个功能强大的纹理采样工具,它通过在世界空间的三个坐标轴上投影纹理来解决复杂几何体纹理映射的难题。与传统的UV映射方法不同,Triplanar映射不需要预先定义UV坐标,而是基于物体的世界位置和法线方向动态生成纹理投影,这使得它特别适合处理不规则形状的模型或需要无缝纹理拼接的场景。 在游戏开发中,Triplanar技术被广泛应用于地形渲染、程序化生成环境、岩石、山脉等自然元素的纹理映射。传统UV映射在处理这类复杂表面时往往会出现纹理拉伸、接缝明显等问题,而Triplanar映射能够自动根据表面角度混合三个平面的投影,创造出更加自然和连续的纹理效果。 描述 Triplanar节点的核心原理是基于世界空间坐标在三个轴向(X、Y、Z)上分别进行纹理投影和采样。当Shader处理每个片段时,节点会计算该片段在世界空间中的位置和法线方向,然后在三个坐标平面上分别生成UV坐标并对输入纹理进行采样。最终的颜色输出是这三个采样结果的加权混合,权重由表面法线

开启AI绘画 “工作流时代” 的神奇应用----Comfy UI | 使用CNB平台搭建ComfyUI

开启AI绘画 “工作流时代” 的神奇应用----Comfy UI | 使用CNB平台搭建ComfyUI

文章目录 * 概要 * 操作流程 概要 ComfyUI 是一款基于节点流程的可视化 AI 生成工具,核心围绕 Stable Diffusion 等主流生成式 AI 算法构建,通过图形化节点拆解生成全流程,实现从文本 / 图像输入到图像 / 视频输出的 “精准可控创作”。 腾讯云 CNB(Cloud Native Build,官网:cnb.cool)是基于 Docker 生态的云原生开发协作平台,核心定位是通过容器化技术与资源池化能力,为开发者提供 “一键就绪” 的远程开发环境,尤其聚焦开源项目协作与 AI 工具落地,无需本地配置复杂硬件与环境即可开展开发、测试与创作。链接:cnb 操作流程 接下来展示使用腾讯云cnb搭建comfyui的流程: (1)到CNB网站 fork 项目 链接:cnb 可以直接使用已经搭建好的comfyui

Reachy Mini创客实践指南:从零打造你的开源机器人

Reachy Mini创客实践指南:从零打造你的开源机器人 【免费下载链接】reachy_miniReachy Mini's SDK 项目地址: https://gitcode.com/GitHub_Trending/re/reachy_mini 开源机器人技术正以前所未有的速度走进创客工作室和家庭实验室。Reachy Mini作为一款完全开源的桌面机器人平台,为机器人入门爱好者提供了从硬件组装到软件编程的完整实践路径。本文将带你逐步掌握3D打印部件制造、传感器系统集成和运动控制调试的核心技能,最终完成属于自己的智能交互机器人。 理解机器人核心架构:从机械结构到电子系统 Reachy Mini的设计采用模块化架构,主要由三大功能单元构成:稳定的底盘基础、六自由度头部运动平台和集成多传感器的智能交互系统。这种分层设计不仅降低了组装难度,更为后续功能扩展提供了便利。 底盘系统承担机器人的整体支撑和旋转功能,通过单个高性能电机实现360度水平转动。头部运动机构采用六自由度并联结构,能够向六个方向灵活转动,这种设计相比传统串联机械臂具有更高的结构刚度和运动精度。智能交互系统则集