Kimi K2.5 终极实战手册:开源部署 + API 接入 + Agent 集群 + 多模态视觉

Kimi K2.5 终极实战手册:开源部署 + API 接入 + Agent 集群 + 多模态视觉

一、前置准备(零门槛适配)

1.1 硬件要求(精准匹配)

  • 入门配置(本地部署,个人使用):CPU≥4核、内存≥16G、GPU(NVIDIA,计算能力≥7.0)显存≥24G(适配Unsloth 1.8-bit量化版),SSD剩余≥100G
  • 进阶配置(Agent集群/多模态):CPU≥8核、内存≥32G、GPU显存≥32G(3-bit量化版),多卡部署推荐2×3090/4090或1×H20
  • 极简配置(仅API接入,无本地部署):任意办公电脑,可正常联网,无需GPU

1.2 软件要求(固定版本,避免兼容问题)

  • 操作系统:Ubuntu 22.04(推荐,兼容性最佳)、Windows 10+/11(需启用WSL2)、macOS 12+(仅支持API接入,不支持本地部署)
  • 核心工具:Docker≥24.0 + Docker Compose≥2.20、Git≥2.40、Python≥3.10(≤3.12)
  • 依赖包:torch==2.1.2、transformers==4.38.2、vllm==0.4.2、openai≥1.0.0(后续命令直接安装,无需手动下载)
  • 可选凭证:Kimi一步API-Key(https://yibuapi.com/ 注册获取,新用户赠15元体验金,用于API接入/多模态增强)

1.3 国内镜像源配置(必做,解决下载失败/缓慢)

# 1. Docker国内镜像(全系统通用) mkdir -p /etc/docker cat > /etc/docker/daemon.json << EOF { "registry-mirrors": ["https://docker.mirrors.ustc.edu.cn", "https://hub-mirror.c.163.com"] } EOF systemctl daemon-reload && systemctl restart docker # 2. Python清华源(全系统通用) pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple # 3. Git国内加速(拉取源码用) git config --global url."https://ghproxy.com/https://github.com/".insteadOf "https://github.com/"

二、开源部署(两种方案,任选其一,一键落地)

方案1:Docker一键部署(首选,零门槛,跨系统通用)

  1. 安装Docker+Git(未安装执行,已安装跳过) # Ubuntu/WSL2 curl -fsSL https://get.docker.com | bash -s docker --mirror Aliyun sudo apt install git -y # Windows(管理员PowerShell) wget https://desktop.docker.com/win/main/amd64/Docker%20Desktop%20Installer.exe -O DockerInstaller.exe ./DockerInstaller.exe /silent # Git下载:https://git-scm.com/download/win(默认安装)
  2. 拉取源码+构建镜像(国内加速,5分钟完成) # 克隆Kimi K2.5中文开源版(适配国内环境) git clone https://ghproxy.com/https://github.com/moonshot-ai/Kimi-K2.5.git cd Kimi-K2.5 # 构建Docker镜像(指定量化版,降低硬件门槛) docker build -t kimi-k2.5:unsloth-1.8bit . # 创建数据持久化卷(防止配置/模型数据丢失) docker volume create kimi-k2.5-data
  3. 启动服务(核心命令,直接复制) # 启动容器(映射8080端口,后台运行,开机自启) docker run -d \ --name kimi-k2.5-local \ --gpus all \ -p 8080:8080 \ -v kimi-k2.5-data:/root/.kimi \ --restart unless-stopped \ kimi-k2.5:unsloth-1.8bit \ --model-path /root/models/kimi-k2.5 \ --port 8080 \ --num-gpus 1
  4. 验证部署(10秒完成) # 查看容器运行状态 docker ps | grep kimi-k2.5-local # 浏览器访问(本地/局域网通用) http://本机IP:8080 # 出现Kimi K2.5交互界面,输入任意问题能正常响应即成功

方案2:源码部署(进阶,自定义优化,支持多模态)

  1. 安装核心依赖(复制即用,适配Kimi K2.5) # 升级pip+安装基础依赖 pip install --upgrade pip pip install torch==2.1.2 torchvision==0.16.2 transformers==4.38.2 accelerate==0.27.2 pip install unsloth==2024.5 postgresql sentencepiece protobuf==4.25.3 gradio==4.21.0 # 安装推理引擎(vLLM,提升3-5倍推理速度) pip install vllm==0.4.2
  2. 下载模型权重(Unsloth量化版,国内加速) # 安装Hugging Face CLI pip install huggingface-hub # 登录(需注册Hugging Face账号,获取token) huggingface-cli login # 下载1.8-bit量化版(230GB,GPU≥24G,推荐) huggingface-cli download moonshot/Kimi-K2.5 \ --local-dir ./kimi-k2.5-model \ --local-dir-use-symlinks False \ --revision unsloth-1.8bit
  3. 启动本地服务(Gradio可视化,新手友好) # 创建启动文件 kimi_local_gradio.py,复制完整代码 from unsloth import FastLanguageModel import gradio as gr # 加载模型(指定本地权重目录) model, tokenizer = FastLanguageModel.from_pretrained( model_name_or_path="./kimi-k2.5-model", max_seq_length=128000, # 支持128K长上下文 dtype=None, # 自动匹配量化类型 load_in_4bit=False # 1.8-bit量化版无需开启 ) # 开启推理优化 model = FastLanguageModel.get_peft_model( model, r=16, lora_alpha=32, lora_dropout=0.05, target_modules=("q_proj", "v_proj"), bias="none", use_gradient_checkpointing="unsloth", random_state=42, ) # 推理函数 def kimi_infer(prompt, mode="快速模式"): temperature = 0.6 if mode == "快速模式" else 1.0 if mode == "思考模式" else 0.8 inputs = tokenizer(prompt, return_tensors="pt").to("cuda") outputs = model.generate( **inputs, temperature=temperature, top_p=0.95, min_p=0.01, max_new_tokens=4096, repetition_penalty=1.0 ) return tokenizer.decode(outputs[0], skip_special_tokens=True)[len(prompt):] # 启动可视化界面 with gr.Blocks(title="Kimi K2.5 本地部署界面") as demo: gr.Markdown("# Kimi K2.5 本地部署可视化界面(2026最新版)") with gr.Row(): with gr.Column(width=500): prompt = gr.Textbox(label="输入提示词", lines=8, placeholder="请输入你的需求...") mode = gr.Dropdown(("快速模式", "思考模式", "Agent模式"), label="使用模式", value="快速模式") submit_btn = gr.Button("提交", variant="primary", size="lg") with gr.Column(width=700): output = gr.Textbox(label="输出结果", lines=12, interactive=False) submit_btn.click(kimi_infer, [prompt, mode], output) if __name__ == "__main__": demo.launch(server_name="0.0.0.0", server_port=8080, share=False)
  4. 启动并验证 # 启动服务 python kimi_local_gradio.py # 浏览器访问 http://本机IP:8080,输入问题响应正常即成功

三、API接入(兼容OpenAI SDK,一键调用,多场景适配)

3.1 前置准备:获取API-Key

  1. 访问Kimi一步API官网:https://yibuapi.com/,注册并完成实名认证
  2. 进入控制台→「API Key管理」→「新建API Key」,自定义名称,生成后复制保存(请勿泄露)

3.2 环境安装(复制即用)

# 安装核心依赖(兼容OpenAI SDK,支持多模态调用) pip install --upgrade openai python-dotenv

3.3 核心调用示例(3种场景,代码可直接复制,替换API-Key即可)

场景1:文本交互(问答、代码生成、长文档解析)

import os from openai import OpenAI # 初始化客户端(替换为你的API-Key) client = OpenAI( api_key="sk-your-api-key", # 必改:替换成自己的Kimi API-Key base_url="https://yibuapi.com/v1" # 固定地址,无需修改 ) # 调用Kimi K2.5(支持128K长上下文) completion = client.chat.completions.create( model="kimi-k2.5", messages=[ {"role": "user", "content": "用Python实现快速排序算法,添加详细注释,适配任意整数列表"} ], temperature=0.6, # 0-1,数值越低结果越稳定 max_tokens=2048 # 最大输出长度,按需调整 ) # 输出结果 print("【文本交互结果】") print(completion.choices[0].message.content)

场景2:多模态视觉(图片识别、OCR、图文解析)

import os import base64 from openai import OpenAI client = OpenAI( api_key="sk-your-api-key", # 必改:替换成自己的API-Key base_url="https://yibuapi.com/v1" ) # 读取本地图片并进行base64编码(视觉任务必需) image_path = "test.png" # 必改:替换为你的图片路径(绝对路径优先) with open(image_path, "rb") as f: image_data = f.read() # 构建图片URL(base64格式) image_ext = os.path.splitext(image_path)[1].strip('.') image_url = f"data:image/{image_ext};base64,{base64.b64encode(image_data).decode('utf-8')}" # 调用多模态识别(详细解析图片内容) completion = client.chat.completions.create( model="kimi-k2.5", messages=[ {"role": "system", "content": "精准识别图片中的文字、物体、布局,给出详细描述"}, {"role": "user", "content": [ {"type": "image_url", "image_url": {"url": image_url}}, {"type": "text", "text": "详细描述这张图片的所有可见元素和布局结构"} ]} ], temperature=0.7, max_tokens=2048 ) print("【多模态视觉识别结果】") print(completion.choices[0].message.content)

场景3:批量调用(批量处理文本/图片,高效落地)

import os from openai import OpenAI client = OpenAI( api_key="sk-your-api-key", # 必改:替换成自己的API-Key base_url="https://yibuapi.com/v1" ) # 批量文本任务(示例:批量解析3个技术问题) batch_prompts = [ "解释什么是大模型量化,有哪些常用方法", "对比vLLM和SGLang两种推理引擎的优劣", "Kimi K2.5的多模态能力和其他模型有什么区别" ] # 批量调用并输出结果 for i, prompt in enumerate(batch_prompts, 1): completion = client.chat.completions.create( model="kimi-k2.5", messages=[{"role": "user", "content": prompt}], temperature=0.5, max_tokens=1024 ) print(f"【批量任务{i}结果】") print(completion.choices[0].message.content) print("-" * 50)

3.4 高频报错排查(直接解决,不啰嗦)

# 报错1:Token exceeds maximum limit(Token超限) # 解决方案:视觉任务确保content为列表格式;压缩图片≤5MB;降低max_tokens参数 # 报错2:API key is invalid(API-Key无效) # 解决方案:重新复制API-Key(去除前后空格);登录控制台确认密钥状态为“正常” # 报错3:No module named 'openai'(模块缺失) # 解决方案:重新执行 pip install --upgrade openai # 报错4:图片无法识别(格式错误) # 解决方案:确保图片格式为png/jpg/jpeg;使用绝对路径;检查base64编码代码

四、Agent 集群(动态分工,高效协作,实战落地)

4.1 集群部署前提(必满足)

  • 已完成Kimi K2.5开源部署(Docker/源码均可),GPU显存≥32G
  • 多卡部署需确保GPU数量≥2,已安装NVIDIA驱动(版本≥535)

4.2 单节点Agent集群部署(新手入门,一键启动)

# 进入Kimi K2.5部署目录(Docker部署进入容器,源码部署进入源码目录) # Docker部署进入容器 docker exec -it kimi-k2.5-local bash # 启动Agent集群(单节点,支持10个子Agent,动态调度) kimi agent cluster start \ --cluster-name kimi-cluster-01 \ --agent-num 10 \ --port 8081 \ --model-path /root/models/kimi-k2.5 \ --max-concurrent 50 # 最大并发任务数 # 验证集群启动成功 kimi agent cluster status # 输出“Cluster running,Agent count: 10”即为成功

4.3 多节点Agent集群部署(企业进阶,负载均衡)

# 节点1(主节点,IP:192.168.1.100)启动集群主服务 kimi agent cluster start \ --cluster-name kimi-cluster-main \ --agent-num 20 \ --port 8081 \ --role master \ --model-path /root/models/kimi-k2.5 # 节点2(从节点,IP:192.168.1.101)加入集群 kimi agent cluster join \ --master-ip 192.168.1.100 \ --master-port 8081 \ --agent-num 15 \ --role slave # 查看集群节点状态(主节点执行) kimi agent cluster node list # 输出两个节点信息,Agent总数35即为成功

4.4 Agent集群实战(3个高频场景,指令直接复制)

场景1:多Agent分工整理GitHub项目

# 发送集群任务指令(主节点执行/API调用均可) kimi agent cluster task submit \ --task "整理GitHub Stars排名前十的Claude Code Skills项目,含名称、链接、功能、语言分类" \ --agent-assign auto # 自动分配Agent分工(搜索+验证+聚合) # 查看任务进度 kimi agent cluster task status --task-id 1 # 查看任务结果(生成结构化表格) kimi agent cluster task result --task-id 1 --output ./github_projects.xlsx

场景2:多Agent并行处理办公任务

# 提交并行任务(同时处理3个办公任务) kimi agent cluster task submit \ --task "[任务1]统计今日飞书群消息数量,按部门分类;[任务2]解析3份PDF文档,提取核心要点;[任务3]生成今日工作报表,汇总任务1和2的结果" \ --agent-assign parallel # 并行分配Agent,提升效率

场景3:Agent集群负载均衡优化

# 调整集群并发数(根据CPU/GPU资源调整) kimi agent cluster config set --max-concurrent 80 # 动态扩容Agent数量(无需停止集群) kimi agent cluster agent add --agent-num 10 # 动态缩容Agent数量 kimi agent cluster agent remove --agent-num 5

4.5 集群常见问题排查

# 报错1:集群启动失败,提示GPU资源不足 # 解决方案:关闭其他占用GPU的程序;减少--agent-num参数;使用更高显存的GPU # 报错2:从节点无法加入主节点 # 解决方案:确保主从节点网络互通;关闭防火墙;核对主节点IP和端口 # 报错3:任务分配失败,Agent无响应 # 解决方案:重启集群服务;检查模型路径是否正确;执行kimi agent cluster reset重置集群

五、多模态视觉(核心实战,图片/视频全适配)

5.1 本地部署多模态启用(Docker/源码均适用)

# Docker部署(进入容器执行) docker exec -it kimi-k2.5-local bash kimi config set multimodal.enable true kimi gateway restart # 源码部署(直接执行) kimi config set multimodal.enable true python kimi_local_gradio.py restart # 重启服务生效

5.2 多模态实战场景(4个高频,命令/代码可直接复制)

场景1:图片OCR识别(提取图片中的文字,支持复杂排版)

import os import base64 from openai import OpenAI client = OpenAI( api_key="sk-your-api-key", # 必改:替换成自己的API-Key base_url="https://yibuapi.com/v1" ) # 读取图片(PDF截图/扫描件均可) image_path = "ocr-test.png" with open(image_path, "rb") as f: image_data = f.read() image_ext = os.path.splitext(image_path)[1].strip('.') image_url = f"data:image/{image_ext};base64,{base64.b64encode(image_data).decode('utf-8')}" # 调用OCR识别(提取所有文字,保留排版) completion = client.chat.completions.create( model="kimi-k2.5", messages=[ {"role": "user", "content": [ {"type": "image_url", "image_url": {"url": image_url}}, {"type": "text", "text": "提取图片中的所有文字,保留原始排版,不遗漏任何内容"} ]} ], temperature=0.3, max_tokens=4096 ) print("【OCR识别结果】") print(completion.choices[0].message.content)

场景2:图文生成(根据文本描述,生成符合要求的图片提示词)

from openai import OpenAI client = OpenAI( api_key="sk-your-api-key", base_url="https://yibuapi.com/v1" ) # 文本描述生成图片提示词(适配MidJourney/Stable Diffusion) completion = client.chat.completions.create( model="kimi-k2.5", messages=[ {"role": "user", "content": "生成一张科技感十足的AI大模型集群可视化图片提示词,要求:深蓝色背景、发光的节点网络、未来感UI,细节丰富,适合高清打印"} ], temperature=0.8, max_tokens=1024 ) print("【图文生成提示词】") print(completion.choices[0].message.content)

场景3:图片对比分析(对比两张图片的差异,生成详细报告)

import os import base64 from openai import OpenAI client = OpenAI( api_key="sk-your-api-key", base_url="https://yibuapi.com/v1" ) # 读取两张对比图片 image1_path = "before.png" image2_path = "after.png" with open(image1_path, "rb") as f1, open(image2_path, "rb") as f2: img1_data = f1.read() img2_data = f2.read() # 编码两张图片 img1_url = f"data:image/png;base64,{base64.b64encode(img1_data).decode('utf-8')}" img2_url = f"data:image/png;base64,{base64.b64encode(img2_data).decode('utf-8')}" # 对比分析 completion = client.chat.completions.create( model="kimi-k2.5", messages=[ {"role": "user", "content": [ {"type": "image_url", "image_url": {"url": img1_url}}, {"type": "image_url", "image_url": {"url": img2_url}}, {"type": "text", "text": "详细对比这两张图片的差异,包括颜色、布局、元素变化,生成结构化对比报告,重点标注所有不同点"} ]} ], temperature=0.5, max_tokens=2048 ) print("【图片对比分析报告】") print(completion.choices[0].message.content)

场景4:视频帧识别(提取视频帧,解析帧内内容)

# 1. 提取视频帧(需安装ffmpeg) sudo apt install ffmpeg -y ffmpeg -i test.mp4 -r 1 -f image2 frame_%d.png # 每秒提取1帧,保存为frame_1.png、frame_2.png... # 2. 调用多模态识别视频帧(复用图片识别代码,替换图片路径即可) # 参考场景1的OCR代码,将image_path替换为提取的视频帧路径(如frame_1.png)

六、常见问题排查(全模块高频报错)

  1. 部署报错:端口8080/8081被占用 # Ubuntu/WSL2 sudo lsof -i:8080 | grep -v PID | awk '{print $2}' | xargs sudo kill -9 # Windows(管理员PowerShell) netstat -ano | findstr 8080 taskkill /f /pid 对应PID
  2. 开源部署报错:模型下载失败/缓慢 # 重新配置Hugging Face国内加速 huggingface-cli download moonshot/Kimi-K2.5 \ --local-dir ./kimi-k2.5-model \ --local-dir-use-symlinks False \ --revision unsloth-1.8bit \ --proxy http://你的代理地址:端口(可选)
  3. Agent集群报错:GPU显存不足 # 解决方案:减少Agent数量(--agent-num 5);使用1.8-bit量化版模型;关闭其他占用GPU的程序
  4. 多模态报错:无法启用视觉功能 # 解决方案:确认multimodal已启用(kimi config get multimodal.enable);重新安装依赖 pip install --upgrade torchvision transformers

七、进阶优化(可选,提升性能,干货补充)

  1. 推理速度优化(提升3-5倍,复制即用) # 启用vLLM推理引擎(源码部署) python kimi_local_gradio.py --inference-engine vllm # Docker部署启用vLLM docker run -d \ --name kimi-k2.5-local \ --gpus all \ -p 8080:8080 \ -v kimi-k2.5-data:/root/.kimi \ --restart unless-stopped \ kimi-k2.5:unsloth-1.8bit \ --model-path /root/models/kimi-k2.5 \ --port 8080 \ --num-gpus 1 \ --inference-engine vllm
  2. 数据持久化备份(防止配置/任务丢失) # 备份Docker数据卷 docker run --rm -v kimi-k2.5-data:/source -v /本地备份路径:/target alpine cp -r /source/* /target/ # 备份源码部署模型/配置 cp -r ./kimi-k2.5-model /本地备份路径 cp -r ~/.kimi /本地备份路径
  3. 开机自启配置(服务不中断) # Docker容器开机自启 docker update --restart unless-stopped kimi-k2.5-local # 源码部署开机自启(Ubuntu) echo "python /root/Kimi-K2.5/kimi_local_gradio.py" >> /etc/rc.local chmod +x /etc/rc.local
  4. 多模型切换(本地/Kimi云端模型自由切换) # 切换至Kimi云端模型(无需本地部署,需API-Key) kimi config set model.type cloud kimi config set model.api_key sk-your-api-key # 切换回本地模型 kimi config set model.type local kimi config set model.path /root/models/kimi-k2.5

八、核心补充

  • Kimi K2.5核心优势:128K长上下文、原生多模态、Agent动态集群、兼容OpenAI SDK,开源版无调用次数限制
  • 模型版本选择:个人用1.8-bit量化版(24G GPU),企业用3-bit量化版(32G GPU),集群用完整版(多卡)
  • API调用计费:输入每百万Token 4元,缓存输入低至0.7元,新用户赠15元体验金,足够测试使用
  • 后续更新:Agent集群将支持微信/飞书/钉钉集成,多模态将支持视频完整解析,无需重新部署,直接升级即可

Read more

做鸿蒙 App 一个月:10 个 ArkUI 大坑

做鸿蒙 App 一个月:10 个 ArkUI 大坑

子玥酱(掘金 / 知乎 / ZEEKLOG / 简书 同名) 大家好,我是子玥酱,一名长期深耕在一线的前端程序媛 👩‍💻。曾就职于多家知名互联网大厂,目前在某国企负责前端软件研发相关工作,主要聚焦于业务型系统的工程化建设与长期维护。 我持续输出和沉淀前端领域的实战经验,日常关注并分享的技术方向包括前端工程化、小程序、React / RN、Flutter、跨端方案, 在复杂业务落地、组件抽象、性能优化以及多端协作方面积累了大量真实项目经验。 技术方向:前端 / 跨端 / 小程序 / 移动端工程化 内容平台:掘金、知乎、ZEEKLOG、简书 创作特点:实战导向、源码拆解、少空谈多落地 文章状态:长期稳定更新,大量原创输出 我的内容主要围绕 前端技术实战、真实业务踩坑总结、框架与方案选型思考、行业趋势解读 展开。文章不会停留在“API 怎么用”,而是更关注为什么这么设计、在什么场景下容易踩坑、

By Ne0inhk
Flutter 三方库 appstream 的鸿蒙化适配指南 - 驾驭 Linux 生态元数据规范,打造高性能、标准化、国际化的 OpenHarmony 桌面应用商店分发基石

Flutter 三方库 appstream 的鸿蒙化适配指南 - 驾驭 Linux 生态元数据规范,打造高性能、标准化、国际化的 OpenHarmony 桌面应用商店分发基石

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 appstream 的鸿蒙化适配指南 - 驾驭 Linux 生态元数据规范,打造高性能、标准化、国际化的 OpenHarmony 桌面应用商店分发基石 前言 随着鸿蒙(OpenHarmony)生态向 PC 和平板端的高速扩张,如何为海量的三方软件建立一套标准化的“数字档案”,成了构建应用商店生态的核心痛点。过去,开发者提交应用信息时,往往采用碎片化的 JSON 或自定义文档。这会导致软件分发时详情页展示不一、多语言支持混乱,甚至连基本的截图和版本日志都难以对齐。 为了解决这个问题,我们需要引入一套具备全球化视野的元数据定义标准。appstream 作为 Linux 生态下最重要的应用信息描述规范,能够通过结构化的 XML 标签,精准定义软件的身世、功能和展示资产。适配到鸿蒙平台后,它不仅能让你的重型“鸿蒙私有应用商店”瞬间具备吞金般的解析能力,

By Ne0inhk
Flutter 组件 sse_stream 的适配 鸿蒙Harmony 实战 - 驾驭轻量级服务器发送事件流、实现鸿蒙端长连接实时通讯与断线重连方案

Flutter 组件 sse_stream 的适配 鸿蒙Harmony 实战 - 驾驭轻量级服务器发送事件流、实现鸿蒙端长连接实时通讯与断线重连方案

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 sse_stream 的适配 鸿蒙Harmony 实战 - 驾驭轻量级服务器发送事件流、实现鸿蒙端长连接实时通讯与断线重连方案 前言 在鸿蒙(OpenHarmony)生态的金融实时行情、在线社交协作以及物联网告警应用中,如何实现“数据从服务器到终端的实时推送”是一个核心命题。面对不需要双向通信(WebSocket 太重)且对功耗极其敏感的移动端场景,基于 HTTP 协议的轻量化长连接方案——SSE(Server-Sent Events)成为了事实上的行业标准。 然而,处理不稳定的移动网络波动、处理分块传输(Chunked Encoding)中的字节截断、以及在鸿蒙端实现优雅的断线重连逻辑,依然是开发者面临的技术瓶颈。 sse_stream 是一套专为解析该协议设计的高性能响应流解析引擎。它能将原始的二进制流瞬间转化为语义化的 Event 对象。适配到鸿蒙平台后,它不仅能支撑起一个毫秒级延迟的行情大盘,

By Ne0inhk
【汉化中文版】OpenClaw(Clawdbot/Moltbot)第三方开源汉化中文发行版部署全指南:一键脚本/Docker/npm 三模式安装+Ubuntu 环境配置+中文汉化界面适配开源版

【汉化中文版】OpenClaw(Clawdbot/Moltbot)第三方开源汉化中文发行版部署全指南:一键脚本/Docker/npm 三模式安装+Ubuntu 环境配置+中文汉化界面适配开源版

OpenClaw这是什么? OpenClaw(曾用名 Clawdbot / Moltbot)是一个开源的个人 AI 助手平台(GitHub 120k+ Stars),可以通过 WhatsApp、Telegram、Discord 等聊天软件与 AI 交互。简单说就是:在你自己的机器上运行一个 AI 助手,通过常用聊天软件跟它对话。 forks项目仓库 :https://github.com/MaoTouHU/OpenClawChinese 文章目录 * OpenClaw这是什么? * 汉化效果预览 * 环境要求 * 安装方式 * 方式 A:一键脚本(推荐新手) * 方式 B:npm 手动安装 * 方式 C:Docker 部署(服务器推荐) * 首次配置 * 运行初始化向导 * 安装守护进程(

By Ne0inhk