AI员工——OpenCode、OpenClaw+Ollama的安装与配置

AI员工——OpenCode、OpenClaw+Ollama的安装与配置

人工智能(AI)相关的知识内容解析https://coffeemilk.blog.ZEEKLOG.net/article/details/158647749?spm=1001.2014.3001.5502

一、OpenCode的介绍与安装配置

 1.1、OpenCode介绍

OpenCode的介绍
序号Opencode介绍说明
1opencode是什么OpenCode是一款开源AI编码代理工具,可在终端(TUI)、桌面应用和 IDE扩展中使用,支持多种大语言模型、上下文感知,主打隐私优先。
2opencode的定位

《1》不是IDE插件,而是独立智能体(Agent),可理解上下文,规划任务、执行代码修改并验证结果。

《2》不是大语言模型本身,而是模型调度层,支持75+的大语言模型提供商(如:Claude、GPT、Gemini、本地的Llama、Qwen等)。

《3》采用MIT协议开源,社区活跃。

3opencode的特点

《1》多模型兼容:可连接任意的大语言模型(LLM)提供商,也支持本地LLM模型,内置了opencode zen精选模型。

《2》多端接入:可在终端(TUI)、桌面与IDE扩展中使用opencode,使用方式灵活。

《3》上下文感知:可通过@引用文件,分析整个项目代码库,实现精准修改。

《4》隐私优先:不存储代码与上下文,适合隐私敏感环境。

《5》会话与协作:可多会话并行,执行多种操作;且可将会话链接进行分享出来可供参考或调试。

《6》LSP支持:可自动加载大语言模型,提供智能补全、诊断与跳转。

《7》交互式编码工作流:可通过自然语言描述需求或图片参考等方式,AI会给出实现方案、代码改动和测试建议。

4opencode的使用场景

《1》程序员:

        1、可将需求快速落地为代码实现;

        2、代码分析、重构建议与改动;

        3、生成测试用例、文档、注释等;

        4、学习新库、API、架构模式,提升开发效率。

《2》内容创作:

        1、可实现多种内容的创作(如:公众号内容、营销文案、翻译润色、小说创作等)。

《3》问题处理:

        1、可将其当做是一个经验丰富的助手,告诉他需要排查解决的故障或达成的目标,它就会自主分析解决。

《4》效率提升:

        1、文件整理:批量命名文件、按规则分类归档、检索文件内容、整理混乱内容。

        2、数据处理:可分析数据文件,提取关键数据进行统计,并生成报表。

        3、编程私教:可让AI解释代码原理、给出规划与建议、完成练习项目,建立编程学习的方法。

        4、自动化脚本:可识别自动化重复任务、将任务固化为可复用的“自定义命令”

可以使用【MobaXterm】通过SSH连接。

开源的编码智能体【Opencode】源码

 1.2、下载安装OpenCode_Linux、Mac

#1-Linux或Mac中下载安装OpenCode命令(结果显示Successfully则表示成功) curl -fsSL https://opencode.ai/install | bash #2-将OpenCode添加到全局 source /home/coffeemilk/.bashrc #3-启动opencode的终端界面命令 opencode #3.1-启动opencode的web端界面命令 opencode web --hostname 192.168.1.37 --port 5000

 1.3、下载安装OpenCode_Windows

PowerShell/PowerShell:适用于所有系统!

#1-Windows中下载安装OpenCode命令 scoop install opencode #2-注意:若直接安装opencode报错“scoop : 无法将“scoop”项识别为 cmdlet、函数、脚本文件或可运行程序的名称。请检查名称的拼写,如果包括路径,请确保路径正确,然后再试一次。”时则执行如下命令安装: #2.1-允许运行脚本 Set-ExecutionPolicy -ExecutionPolicy RemoteSigned -Scope CurrentUser #2.2-安装Scoop Invoke-RestMethod -Uri https://get.scoop.sh | Invoke-Expression #PowerShell是以管理员身份运行的(窗口标题带"管理员"字样)【安装Scoop】的命令会报错时。需要改用这个命令: iex "& {$(irm get.scoop.sh)} -RunAsAdmin" #2.3-安装 Git(Scoop 需要 Git 来添加 bucket) scoop install git #2.4-安装 OpenCode scoop install opencode #3-启动opencode的终端界面命令 opencode #3.1-启动opencode的web端界面命令 opencode web --hostname 127.0.0.1 --port 5000

 1.4、简单使用

        如:我使用Docker方式在安装OpenClaw后,这个OpenClaw容器一直在重启,导致无法使用,此时我就可以使用opencode的【plan(建议)】模式(按下tab键切换)【而Build是执行模式】咨询处理方法:如下图所示:

二、OpenClaw的介绍与安装配置

 2.0、主流Claw介绍

主流Claw的介绍
主流Claw定位优点缺点使用场景

OpenClaw

(生态标杆)

全功能、自托管AI执行中枢,Claw生态的标准与标杆,连接LLM、本地系统与多平台通讯。

开发语言:【TypeScript / Node.js】

《1》生态最成熟:(拥有50多个交互渠道【如telegram、钉钉、飞书】;5K多的技能模块;20多的大语言模型商)社区活跃,相关教程、插件、问题解决方案十分丰富。

《2》功能完整:可长期记忆、任务规划、工具调用、本地文件操作,MCP协议支持。

《3》本地优先、隐私可控:数据本地存储,AES-256加密。

《1》资源占用极高:代码量很大(约1百万行),内存占用很高(1GB+),启动缓慢,二进制大于150MB。

《2》安装部署较为复杂(需要Node.js、Docker、网关等配置)Node.js性能瓶颈明显。

《3》安全依赖版本与配置,默认的防护一般。

多平台集成、个人全场景 AI 助手、技术爱好者、需要全功能自动化、长期本地自托管、重度自定义、生产级复杂工作流。

ZeroClaw

(性能极致)

OpenClaw的Rust重写版本,主打极致性能、低资源、安全,面向边缘与资源敏感环境。

开发语言:【Rust】

《1》性能碾压:冷启动小于10毫秒,内存峰值小于5兆,单二进制没有依赖且4M左右;比OpenClaw快10-15倍,省75%的内存。

《2》零供应商锁定,可一键切换大语言模型。

《3》Rust原生安全:没有GC、内存安全、并发高效,适合高可靠场景。

《1》生态尚新,技能与插件远少于OpenClaw。

《2》二次开发需要Rust功底,门槛较高。

边缘计算、IoT 设备、嵌入式、低成本挂机、低功耗长期运行、资源受限硬件、旧设备改造;适合高安全、低功耗场景。

PicoClaw

(嵌入式极简)

Go编写的超轻量Claw,面向IOT、嵌入式与10美元级硬件。

开发语言【Go】

《1》超轻量:内存小于10MB,冷启动小于1秒,单二进制跨架构运行。

《2》硬件友好:可在树莓派、RISC-V开发板、旧安卓机稳定运行。

《3》配置极简:7个Markdown文件定义行为,无需修改核心代码。

《1》功能精简:无复杂记忆与工作流,仅支持基础技能。

《2》生态小,社区活跃低。

IoT 设备控制、边缘节点、旧设备 AI 化、便携硬件助手。

Nanobot

(研究极简)

港大出品,Python编写的极简可审计Claw,面向教学,研究与安全审计。

开发语言【Python】

《1》代码极简:仅4000行Python,单目录、单配置,易读易审计。

《2》上手快:Python生态友好,适合学习与原型验证。

《3》研究友好:MCP优先,适合教学与安全场景。

《1》性能一般:内存大于100MB,启用大于1秒,不适合高并发。

《2》功能有限,无复杂工作流与记忆系统。

AI Agent 教学、安全审计、快速原型、个人轻量助手。

IronClaw

(安全强化)

Rust编写的安全级Claw,主打沙箱隔离、数据安全,面向金融、政企等敏感场景。

开发语言【Rust】

《1》五层安全纵深:WASM沙箱+Docker隔离,权限最小化。

《2》Rust安全+内存可控,防注入与越权。

《3》性能接近ZeroClaw,兼顾安全与效率。

《1》配置复杂,部署成本高。

《2》生态小,技能少。

金融交易、政企敏感数据处理、高安全自动化。

MaxClaw

(云托管)

基于OpenClaw的云托管服务MiniMax(MaxClaw)开箱即用;是月之暗面(KimiClaw)出品。

开发语言【基于OpenClaw的TypeScript,云端封装】。

《1》零部署:云端托管,直接接入通讯平台。

《2》国内友好:适配钉钉、飞书、企业微信,模型本地优化。

《3》运维省心:自动更新、负载均衡。

《1》数据上传云端,隐私不如自托管。

《2》付费使用,成本随用量上升。

中小企业快速落地、团队协作、国内办公场景。

选型建议:
《1》追求全功能、生态:选【OpenClaw】。
《2》追求极致性能 / 低资源:选 【ZeroClaw】
《3》面向嵌入式 / IoT / 旧设备:选 【PicoClaw】。
《4》用于教学 / 研究 / 安全审计:选 【Nanobot】。
《5》处理敏感数据 / 高安全:选 【IronClaw】。
《6》国内企业快速落地、零部署:选 【MaxClaw / KimiClaw】。

 2.1、使用Docker安装OpenClaw

银河麒麟高级服务器中Docker容器的安装部署与管理实操保姆级教程与【镜像加速】https://blog.ZEEKLOG.net/xiaochenXIHUA/article/details/155027993Docker的介绍、保姆级安装和使用https://blog.ZEEKLOG.net/xiaochenXIHUA/article/details/141286596

#使用Docker安装OpenClaw【以AlmaLinux9.3为例】 #1-先安装Docker yum install -y yum-utils device-mapper-persistent-data lvm2 yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo yum makecache fast yum install -y docker-ce docker-ce-cli containerd.io #启动docker systemctl start docker systemctl status docker systemctl enable docker #2-在docker中安装OpenClaw(若是使用本地安装的ollama大语言模型则选择vLLM配置即可) git clone https://github.com/openclaw/openclaw.git cd openclaw ./docker-setup.sh docker-compose up -d 注意:此时的openclaw容器是会一直重启,无法正常使用,是由于“OpenClaw Gateway 在 Docker 容器中运行时,即使配置了 bind: "loopback",Docker 网络也会使其被识别为非本地环回访问。Control UI 是一个安全特性,要求在非环回模式下明确配置允许的来源(origins)。”因此需要设置明确的 allowedOrigins(推荐)即:在 ~/.openclaw/openclaw.json 的 gateway 部分添加 controlUi 配置: vi ~/.openclaw/openclaw.json "gateway": { "controlUi": { "allowedOrigins": [ "http://127.0.0.1:18789", "http://localhost:18789" ] } } 如果你从其他机器访问,需要把你的服务器 IP 也加进去: "allowedOrigins": [ "http://127.0.0.1:18789", "http://localhost:18789", "http://你的服务器IP:18789" ] 最后执行: docker-compose down docker-compose up -d

 2.2、Linux直接安装openClaw

#1-安装nodejs-24 #1.1-在线安装 curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.3/install.sh | bash \. "$HOME/.nvm/nvm.sh" nvm install 24 node -v npm -v #1.1-【也可手动安装nodejs】 cd /usr/local wget https://nodejs.org/dist/v24.14.0/node-v24.14.0-linux-x64.tar.xz tar -xJf node-v24.14.0-linux-x64.tar.xz #注意:若不想用软链接,也可以直接加当前解压的nodejs路径到系统路径(PATH)中:export PATH=/usr/local/node-v24.0.0-linux-x64/bin:$PATH ln -s /usr/local/node-v24.14.0-linux-x64/bin/node /usr/local/bin/node ln -s /usr/local/node-v24.14.0-linux-x64/bin/npm /usr/local/bin/npm ln -s /usr/local/node-v24.14.0-linux-x64/bin/npx /usr/local/bin/npx node --version npm --version #2-安装openclaw dnf update -y dnf groupinstall -y "Development Tools" dnf install -y git curl wget npm config set registry https://registry.npmmirror.com curl -fsSL https://openclaw.ai/install.sh | bash openclaw onboard --install-daemon openclaw gateway status openclaw dashboard #3-最后在该服务器的浏览器中输入【IP:18789】即可打开OpenClaw的Web界面 

三、TuriX-CUA的介绍

TuriX-CUA是一款开源、免费的 AI 桌面操作智能体,让大模型像人一样看屏幕、控鼠标键盘,跨应用完成自动化任务,无需 API、无需编程。
序号TuriX-CUA说明
1核心定位与原理

《1》定位:Computer-Use Agent(电脑使用智能体),替代传统 RPA 与 API 集成,实现 “自然语言→AI 规划→桌面操作→结果交付”。

《2》工作流(看-->想-->动):

        1、看:定时截屏,获取桌面 / 应用界面视觉信息。

        2、想:多模态 VLM(如 Qwen3-VL、GPT-4V、Gemini)分析界面、拆解任务、生成操作指令。

        3、动:模拟鼠标点击、键盘输入、滚动等,完成跨软件操作。

《3》优势:不依赖应用 API、零代码 / 低门槛、自适应 UI 变化、可绕过验证码

2核心能力《1》跨应用自动化:浏览器、Office、聊天 / 办公软件、系统设置等,完成订票、做 PPT、数据整理、消息收发等。
《2》数据抓取:可从网页 / APP 精准提取数据,适配动态页面与验证码。
《3》自然语言驱动:可用中文 / 英文描述任务,AI 自动生成并执行流程。
《4》模型可替换:可通过配置文件切换底层 VLM,支持热插拔。
《5》协议兼容:支持 MCP(Model Context Protocol),可对接 Claude 等第三方智能体。
3系统支持《1》macOS:15.6+,仅 Apple Silicon(不支持 Intel)。
《2》Windows:10+,支持 GUI 自动化与浏览器操作。
4开源与使用《1》开源免费:代码托管于 GitHub,个人 / 科研用途完全免费。
《2》上手门槛:零基础可用,无需标记 UI、无需设计流程。
《3》局限:存在操作延迟、复杂对话 / 多轮任务易出错、实时性不足、隐私安全需谨慎。

Read more

基于大疆MSDK实现的无人机视觉引导自适应降落功能

基于大疆MSDK实现的无人机视觉引导自适应降落功能 概述 最初需求:想要无人机在执行完航线任务后,一键落到一个指定的位置,简化人工控制。 实现一套完整的无人机自主降落功能,通过虚拟摇杆控制使无人机飞向指定位置,再利用视觉识别引导无人机精确降落到具体位置。本文中采用自适应降落策略,根据高度动态调整精度要求和下降速度,以实现安全、精确的降落。 核心点: * 虚拟摇杆导航替代FlyTo功能 * 双轴(X/Y)位置偏移实时调整 * 高度自适应降落策略 * 视觉识别引导定位 * 智能避障管理 系统架构 整体流程 否 是 高于50m 20-50m 5-20m 低于5m 是 否 是 否 否 是 用户触发Return to Vehicle 获取无人机GPS位置 计算与目标点距离 启动虚拟摇杆导航 飞向目标位置 5m/s 距离小于10m? 开始自适应降落 视觉识别系统 计算X/Y偏移量

【AI绘画】Midjourney进阶:色调详解(上)

【AI绘画】Midjourney进阶:色调详解(上)

博客主页: [小ᶻ☡꙳ᵃⁱᵍᶜ꙳]本文专栏: AI绘画 | Midjourney 文章目录 * 💯前言 * 💯Midjourney中的色彩控制 * 为什么要控制色彩? * 为什么要在Midjourney中控制色彩? * 💯色调 * 白色调 * 淡色调 * 明色调 * 💯小结 💯前言 【AI绘画】Midjourney进阶:色相详解     https://blog.ZEEKLOG.net/2201_75539691?type=blog 在上一篇文章中,我们详细探讨了色相的基本概念和运用。而色相作为色彩的基础,虽然能帮助我们区分颜色的种类,但它并不能完全满足实际创作中的需求。尤其在 AI绘画中,颜色的呈现往往需要更加精细的调控,颜色的表达也需要超越单纯的“色相”维度。例如,当我们谈到蓝色时,仅仅知道它是蓝色并不足够。在不同的创作场景中,蓝色可以呈现为淡蓝、深蓝、灰蓝或纯蓝等多种形式,而每一种形式都能传递不同的氛围与视觉感受。 对这些变化的理解与运用,其实是对色调的掌握。色调可以看作是颜色的性格特征,

LazyLLM 多 Agent 应用全流程实践:从源码部署到可视化 Web 调试的低代码方案

LazyLLM 多 Agent 应用全流程实践:从源码部署到可视化 Web 调试的低代码方案

LazyLLM 多 Agent 应用全流程实践:从源码部署到可视化 Web 调试的低代码方案 前言:为什么选择 LazyLLM 构建多 Agent 大模型应用? LazyLLM 作为低代码构建多 Agent 大模型应用的开发工具,可大幅降低大模型应用的开发与部署门槛。本文聚焦其在豆包模型的落地实践,将从源码部署豆包文本模型的完整配置步骤入手,延伸至官方 WebModule 启动可视化 Web 界面的实操流程,并配套精准性、简洁度等多维度的部署测试说明,为开发者提供可直接对照的实操指南,助力高效完成豆包模型在 LazyLLM 框架下的部署与验证。 LazyLLM 整体架构解析:三层联动的多 Agent 运行体系 LazyLLM 的架构分为三层级递进结构,各层级分工明确且联动协同,实现从应用开发到落地执行的全流程覆盖:上层(LazyPlatform AI 大模型应用开发平台):核心含应用编排平台以可视化编排、发布、回流、调优的闭环完成应用构建迭代与平台管理模块通过租户、权限管理支撑多用户运维,是开发者的高效开发管理入口中层(

基于强化学习Q-learning算法的无人机三维路径规划算法原理与实现,MATLAB代码

基于强化学习Q-learning算法的无人机三维路径规划算法原理与实现,MATLAB代码

一、算法概述 本文基于Q-learning离线强化学习,实现三维栅格环境下无人机无碰撞、最短路径、最少步数路径规划。无人机具备1格/2格三维全向移动、对角线飞行、悬停能力,通过与环境交互迭代学习最优策略,以到达终点、路径距离、移动步数、避障为核心目标,输出满足约束的最优飞行路径。 二、环境与核心建模 1. 三维状态空间 将无人机飞行空间离散化为三维栅格地图,状态定义为无人机坐标: S={(x,y,z)∣1≤x≤Xmax, 1≤y≤Ymax, 1≤z≤Zmax} S = \left\{ (x,y,z) \mid 1 \le x \le X_{max},\ 1 \le y