Docker安装OpenClaw:使用智谱AI的完整指南(国内镜像加速版)

一、项目介绍

OpenClaw是一款本地运行、可自托管的AI执行引擎,主打"从给建议到做事情"的能力跃迁——它并非被动响应的聊天机器人,而是能通过自然语言指令,自主规划并完成全流程任务的"数字员工"。与传统对话式AI工具不同,OpenClaw的核心定位是本地优先,所有用户数据默认存储于用户自有设备,彻底实现数据主权与隐私安全自主。

核心优势:跨平台支持、本地模型部署、安全隔离、场景适配、部署便捷

二、环境准备

1. 系统要求

  • 操作系统:Ubuntu 20.04+/Debian 11+(推荐)
  • 内存:最低2GB,推荐4GB以上
  • 硬盘:至少500MB可用空间
  • 网络:稳定联网(用于下载依赖,调用云端AI需联网)

2. 安装Docker(国内镜像加速版)

bash

1# 更新系统并安装必要工具 2sudo apt update && sudo apt upgrade -y 3sudo apt install -y ca-certificates curl gnupg lsb-release 4 5# 添加Docker官方GPG密钥 6curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpg 7 8# 添加Docker仓库 9echo "deb [arch=$(dpkg --print-architecture) signed-by=/usr/share/keyrings/docker-archive-keyring.gpg] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null 10 11# 安装Docker 12sudo apt update 13sudo apt install -y docker-ce docker-ce-cli containerd.io docker-compose-plugin 14 15# 配置国内镜像加速(轩辕镜像) 16sudo mkdir -p /etc/docker 17sudo tee /etc/docker/daemon.json <<-'EOF' 18{ 19 "registry-mirrors": [ 20 "https://docker.xuanyuan.run", 21 "https://docker.m.daocloud.io" 22 ] 23} 24EOF 25 26# 重启Docker服务 27sudo systemctl daemon-reload 28sudo systemctl restart docker 29 30# 验证安装 31docker --version 32docker compose version
重要提示:使用docker compose命令时,必须将-d参数放在up命令之后,即docker compose up -d,否则会报错。

三、部署OpenClaw(智谱AI版)

1. 创建部署目录

bash

1mkdir -p /opt/openclaw && cd /opt/openclaw

2. 创建docker-compose.yml文件

yaml

1version: '3.8' 2 3services: 4 openclaw: 5 # 使用轩辕镜像源加速拉取 6 image: docker.xuanyuan.run/alpine/openclaw:latest 7 restart: unless-stopped 8 ports: 9 - "18789:18789" 10 environment: 11 # 设置模型提供商为自定义 12 - MODEL_PROVIDER=custom 13 14 # 智谱AI API Key(从智谱开放平台获取) 15 - CUSTOM_API_KEY=your_zhipu_api_key 16 17 # 智谱AI的Base URL 18 - CUSTOM_BASE_URL=https://open.bigmodel.cn/api/paas/v4 19 20 # 使用的模型ID(如glm-4, glm-4-6b, glm-4-air) 21 - CUSTOM_MODEL_ID=glm-4 22 volumes: 23 - ./data:/app/data 24 - ./config:/app/config
替换说明:请将your_zhipu_api_key替换为你的智谱AI API Key。

3. 获取智谱AI API Key

  1. 访问智谱开放平台
  2. 登录后点击右上角用户头像 → "API密钥"
  3. 点击"新建API密钥",复制生成的Key(格式通常为xxxx.yyyy

4. 启动服务

bash

1# 启动OpenClaw服务(后台运行) 2docker compose up -d 3 4# 查看服务状态 5docker compose ps 6 7# 查看启动日志 8docker compose logs -f

四、验证与访问

  1. 获取Token(用于访问Web界面):
1docker compose exec openclaw openclaw token generate --admin
  1. 访问控制台
    在浏览器中打开 http://<你的服务器IP>:18789/?token=<生成的Token>
  2. 验证AI功能
    在控制台发送一条消息,如"你好",应能收到智谱AI的回复。

五、常见问题解决

1. 镜像拉取失败

  • 原因:网络问题导致无法访问Docker Hub
  • 解决:确保已正确配置/etc/docker/daemon.json中的国内镜像源

2. 智谱AI连接失败

  • 原因:API Key错误或Base URL不正确
  • 解决
    1. 确认API Key正确无误
    2. 检查CUSTOM_BASE_URL是否为https://open.bigmodel.cn/api/paas/v4
    3. 确认CUSTOM_MODEL_ID与智谱平台开通的模型一致

3. 端口占用

  • 原因:18789端口被其他服务占用
  • 解决:修改docker-compose.yml中的端口映射,如- "18790:18789"

六、进阶配置

1. 使用GLM-5模型

yaml

1environment: 2 - CUSTOM_MODEL_ID=glm-5

2. 配置Nginx反向代理(生产环境推荐)

nginx

1server { 2 listen 443 ssl; 3 server_name your-domain.com; 4 5 ssl_certificate /etc/nginx/ssl/cert.pem; 6 ssl_certificate_key /etc/nginx/ssl/key.pem; 7 8 location / { 9 proxy_pass http://localhost:18789; 10 proxy_set_header Host $host; 11 proxy_set_header X-Real-IP $remote_addr; 12 proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; 13 proxy_set_header X-Forwarded-Proto $scheme; 14 } 15}

七、总结

通过本文,你已成功使用Docker在本地部署了OpenClaw,并配置了智谱AI作为模型提供商。OpenClaw作为一款本地运行的AI执行引擎,能够让你在保证数据隐私的同时,享受强大的AI任务执行能力。

核心要点:使用国内镜像加速Docker安装,解决网络问题通过环境变量配置智谱AI,实现无缝对接通过Docker容器化部署,确保环境隔离与安全性

Read more

Flutter 组件 sse_stream 的适配 鸿蒙Harmony 深度进阶 - 驾驭高并发 Server-Sent Events 背压处理、实现鸿蒙端工业级 AI 响应流与长效链路治理方案

Flutter 组件 sse_stream 的适配 鸿蒙Harmony 深度进阶 - 驾驭高并发 Server-Sent Events 背压处理、实现鸿蒙端工业级 AI 响应流与长效链路治理方案

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 sse_stream 的适配 鸿蒙Harmony 深度进阶 - 驾驭高并发 Server-Sent Events 背压处理、实现鸿蒙端工业级 AI 响应流与长效链路治理方案 前言 在前文我们初步探讨了 sse_stream 在鸿蒙(OpenHarmony)端的连接实战。但在面临真正的工业级挑战——例如在大模型 AI(如 DeepSeek)生成每秒数百字的超高频反馈,或者是在证券系统中上千个标的实时价格跳动时,简单的“连接并监听”会导致鸿蒙 UI 线程由于疯狂的事件回调而瞬间进入 ANR(应用无响应)黑洞。 如何处理流式数据中的“背压(Backpressure)”?如何在鸿蒙有限的移动端内存中实现高效的报文分拣? 本文将作为 sse_stream 适配的进阶篇,

深度解析MiniMax M2.7:当AI学会“自我进化”,以及如何通过Ollama本地体验最强Agent

引言 不卷跑分不养虾,MiniMax M2.7 带来了一个真正能打的 Cowork Agent 自2026年3月18日起,AI圈的热词除了“龙虾”,又多了一个“自我进化”。当全行业还在忙着适配OpenClaw(龙虾框架)、追逐榜单跑分时,MiniMax已经让“龙虾自己拿起了筷子”。 在继M2.5发布仅一个月后,MiniMax毫无预兆地扔下了一枚深水炸弹——新一代Agent旗舰大模型M2.7。官方给它的定义是:MiniMax第一代深度参与自身进化的模型。这不仅仅是一次常规的版本号更新,它首次展示了“模型自我进化”的路径,标志着AI正从被动的“工具阶段”迈向具备主动演化能力的“系统阶段”。 本文将基于一手实测数据,深度拆解M2.7的技术突破与真实场景表现,并附上一份专为极客打造的本地体验指南——通过Ollama在终端中轻松调用云端M2.7,无需昂贵硬件,一键开启AI协作。 核心颠覆:不仅仅是Agent,更是“造Agent的人” 过去一年,业界大多把精力卷在了外部的Agent Harness上,任务编排与工具链越做越重。但面对真实的复杂业务,

2026年03月21日全球AI前沿动态

一句话总结:2026年3月20日AI领域呈现全维度爆发式发展,头部企业密集发布通用/垂直大模型与智能体产品,模型向高效推理、自我进化升级,智能体生态快速完善并实现产品化落地,算力硬件向端侧、专用化突破,AI与汽车、影视、农业等产业深度融合,同时企业融资收购频繁,AI安全治理、伦理问题成为行业重点关注方向,算力短缺、Token成本优化也成为行业发展核心议题。 一、模型与技术突破 1.1 通用大模型(大语言模型与多模态模型) * 阿里:发布通义千问3.5-Max-Preview,LM Arena得分1464,全球排名第五、中国第一,数学能力全球第三,综合性能全球第六,专家级处理能力跻身全球前十,千问App月活超3亿,模型在Hugging Face累计下载量破10亿次。 * 小米:发布MiMo-V2-Pro旗舰模型,总参数超1T(42B激活),混合注意力架构支持1M超长上下文,Artificial Analysis全球综合排行榜第八、国内第二,在OpenClaw等框架中端到端任务完成能力超Claude Sonnet 4.6,API定价为Opus 4.

AI 赋能 JS 逆向MCP+Skill+autoDecoder 全自动化落地加密自动破解

AI 赋能 JS 逆向MCP+Skill+autoDecoder 全自动化落地加密自动破解

0x01 前言 随着各大开发的安全意识逐渐提高,前端防护手段越来越复杂,参数加密场景的越来越广泛,并且其生成逻辑往往经过多层混淆与封装,对我这种不具备深厚的代码功底和逻辑还原能力的小菜鸡来说倍感压力,人工逆向的方法不仅耗时费力,还高度依赖个人经验,往往在对抗JS逆向时就已经筋疲力尽,所有想试试结合chrome-devtools-mcp的能力并加上Skill的规范,实现JSRPC+Flask+autoDecoder方案的前端JS逆向自动化分析,提升JS逆向的效率。 本文内容仅供技术学习与交流使用,严禁用于任何非法用途。请遵守《中华人民共和国网络安全法》等相关法律法规,因违规使用产生的一切后果,由使用者自行承担,与作者无关。 现在只对常读和星标的公众号才展示大图推送,建议大家把渗透安全HackTwo“设为星标”,否则可能就看不到了啦! 参考文章: https://www.hacktwohub.com/ 末尾可领取挖洞资料/加圈子 #渗透安全HackTwo 0x02 漏洞详情 传统JS逆向方法回顾 传统JS逆向工程在实践中已经形成了一系列由简至繁、由手动到半自动的技术路径