小龙虾的安装和使用引导【本地已解决跑通,ai对话及执行指令效果】

前言:本文初衷就是搭建属于前端的ai数字员工,协助我开发优化项目,就是命令行或浏览器告诉龙虾,帮我做一个小程序首页登录页,给出具体功能描述,让他开发完预览解决报错,一整个闭环操作吧…

《2026-3-23当前文章主要是安装和配置的引导,之前模型配置复制部分信息不正确,见最新补充,当前文章就不做修改了》解决之前AI对话不回复问题:模型未部署、模型api地址、模型ID复制有误的问题,

《2026-2-24更新:》涉及OpenClaw的安装、网关、核心配置、Ai模型的介绍…

一、小龙虾的安装【open claw安装包到本地】

1. 纯前端角度安装【python、node、git、npm克隆】

1.4.克隆项目 :git clone https://github.com/TencentOpen/OpenClaw.git 【本地没有梯子,挣扎了,没成功!】

无论是通过直接安装,还是使用pnpm(报node版本太低,升级24后部分包还是无法下载),修改淘宝镜像,部分包就是无法下载,其实已经不是网络问题,就是需要访问梯子,昨天折腾半天最后还是放弃这种安装方式…

1.3.python安装成后,打开终端验证版本

1.3.1 小插曲 这里直接使用python --version命令无法获取

Windows 自带的「Python 快捷方式」优先级更高,它拦截了 python 命令,导致系统优先去微软商店找 Python,而不是你刚安装的版本。
解决方法
用 py 命令替代(最快,推荐)
Python 安装时自带了 py.exe 启动器,直接用这个命令:py --version,后面所有python命令,都使用py去执行即可,

1.2.执行安装【勾选了最关键的 Add python.exe to PATH,点击安装】

1.1安装python
python 1.11.9版本

2、小白用户使用,管理员权限power shell终端命令一键安装,【和手动安装效果一样】

  • 2.0 对比手动安装好处:
    脚本全自动帮你装完一切。
    不存在npm 安装卡住,不用切换镜像清缓存重试…
    git 连接 GitHub 失败
    网络超时、自动走国内镜像
    自动绕过 GitHub 限制、自动下载需要软件的对应版本
  • 2.2 脚本命令来源: OpenClaw 官方专为国内用户做的 Windows 一键全自动部署脚本(执行命令需要等待下载,时间有点长看个人电脑和网络)
  • 2.5 【正常安装后】一键脚本安装后,直接进入安全确认环节

2.4 (视情况定,因为我第一次安装折腾很多次npm,pnpm,换镜像下载最后并没有清残余文件和缓存就执行命令了,所以这里部分原因可能就是我之前的行为)安装成功后配置向导,出现包缺失及权限不够问题,解决并成功打开向导信息栏

2.3 执行一键安装,

【2.3.1 官方命令】 iwr -useb https://clawd.org.cn/install.ps1 | iex
【2.3.2 下载进度 + 详细日志命令】推荐+
$ProgressPreference = ‘Continue’
iwr -useb https://clawd.org.cn/install.ps1 | iex

2.1 安装前置(非必须,有安装失败情况可使用):(如果之前有使用npm方式克隆没成功,最后清理一下缓存和残留文件信息)

# 强制停止所有相关进程 taskkill /f /im node.exe 2>$null taskkill /f /im openclaw-cn.exe 2>$null # 卸载旧版本 npm uninstall -g openclaw 2>$null npm uninstall -g clawd 2>$null # 清理 npm 全局缓存 npm cache clean --force npm cache verify # 删除本地残留配置(核心!) Remove-Item -Path "$env:USERPROFILE\.openclaw"-Recurse -Force -ErrorAction SilentlyContinue Remove-Item -Path "$env:USERPROFILE\AppData\Roaming\npm\node_modules\openclaw"-Recurse -Force -ErrorAction SilentlyContinue Write-Host "✅ 所有旧缓存、残留、失败安装包 已全部清空!"

二、安装包安装成功后,完善小龙虾的本地配置 / 环境,让小龙虾可以在本机跑起来

  • 2.1 【可跳过,后面脚本浏览器配置都可】模型的准备,key,api地址,模型id 、模型可使用四者同时满足即可,这里使用的是蓝耕具体看文末的补充1
  • 2.2 下面步骤大概分为:确认安全风险并继续、完成初始化配置(运行模式、配置模型、设置网关、生成配置文件)、启动网关、验证启动状态等…
  • 2.3 【开始】如果不小心退出或误操作配置信息,重新执行命令:openclaw-cn onboard 即可重新进入这个页面,修改或覆盖之前配置即可…
  • 2.3.1

2.3.6 ai给出的回答

在这里插入图片描述

2.3.6 重新关闭-在开启-在新窗口检测,还是失败!

在这里插入图片描述

2.3.5 重启后网关异常被关闭【坑已经开始了】

在这里插入图片描述

2.3.4 重启网关-服务起来?

在这里插入图片描述

2.3.3

在这里插入图片描述

2.3.2 模型没有配置上,就会出现后面浏览器与ai对话,ai卡在那不知道回复,就是因为它的数据源–模型没有!

在这里插入图片描述

补充1 :模型的选择,获取到key,获取到api地址,模型可使用

  • 1.配置 AI 模型(前端推荐:蓝耘 MaaS / 智谱 GLM)
    蓝耕官网注册,【这是收费的,但是用于测试可以,冲1块钱就可以去使用了,后面在切换到其他免费或收费模型,切换配置不复杂…】

选择模型(后面绑定open claw中),这里我选的是deepseek模型,


创建key后(后面在open claw中绑定)

最后:本来想写完整这个闭环过程的,自己卡住在最后一步,无法前进了,【文中部分地方有错误,待修正,修完善后在更新吧】

先写到这,如果你顺利的话配置完open claw的相关设置,浏览器可自动ai对话,如果不顺利就是需要排查问题,这是一个非常漫长过程,当然如果你熟悉服务器属性模型这块,那就事半功倍了,

  • 浏览器能看到页面,ai对话不回复,模型配置问题,已经反复核对过了,奈何知识有限,,,待排查…
  • 使用模型,配置到open claw是一个漫长时间,特别是第一次初次尝试,没有参考全靠ai一个个问试错,最后你以为好了么,人家还在原地!
  • 401常规报错:
  • 500报错:

Read more

AI Daily:Meta Llama 5 引爆“手机端”革命,Tesla Optimus 走进厨房!

AI Daily:Meta Llama 5 引爆“手机端”革命,Tesla Optimus 走进厨房!

摘要:CES 2026 第三日,扎克伯格发布 Llama 5 "Edge" 系列,宣告手机端运行“满血版”大模型时代到来;马斯克展示 Optimus Gen 4 惊人“做家务”能力;好莱坞首部全 AI 生成长电影定档。AI 正在从云端这一“大脑”走向手机和机器人这些“肢体”。 🦙 重磅发布:Meta Llama 5 —— 把 GPT-5 装进口袋 如果说前两天的英伟达和谷歌是在争夺“云端霸权”,那么今天Meta则是在**“端侧”**掀翻了桌子。 扎克伯格在 CES 上正式发布了Llama 5 开源模型家族,其中最引人注目的是Llama 5-Edge (8B &

FLUX.1-dev与Stable Diffusion对比评测:图像质量与生成速度

FLUX.1-dev与Stable Diffusion对比评测:图像质量与生成速度 作为一名长期关注AI图像生成技术的开发者,我一直在寻找能够在质量和速度之间取得最佳平衡的解决方案。最近,Black Forest Labs开源的FLUX.1-dev模型引起了我的注意,特别是它声称能够在消费级硬件上运行,同时保持出色的图像质量。 今天我将通过实际测试,从图像细节、风格控制、生成速度等多个维度,对比FLUX.1-dev与大家熟悉的Stable Diffusion,看看这两个模型在实际使用中究竟表现如何。 1. 测试环境与方法 为了确保对比的公平性,我搭建了统一的测试环境。使用NVIDIA RTX 4090显卡,24GB显存,Intel i9-13900K处理器,64GB DDR5内存。操作系统为Ubuntu 22.04,所有测试都在相同的硬件和软件环境下进行。 测试方法包括定量评估和定性分析。定量方面主要测量生成速度、内存占用等硬性指标;定性方面则通过同一组提示词生成图像,从视觉质量、细节表现、风格一致性等角度进行对比。 我选择了50组涵盖不同场景的提示词,包括人物肖像、风景

零代码体验AI绘画:Jimeng AI Studio保姆级教程

零代码体验AI绘画:Jimeng AI Studio保姆级教程 你不需要写一行代码,也不用折腾环境配置,甚至不用打开终端——只要点几下鼠标,就能生成一张细节锐利、风格可控、堪比专业摄影棚出品的高清图像。这不是未来预告,而是你现在就能上手的现实。今天要介绍的,正是这样一款为“非技术用户”量身打造的影像创作终端:** Jimeng AI Studio (Z-Image Edition)**。 它不堆砌参数,不强制你理解CFG、采样器或LoRA原理;它把所有复杂性藏在后台,只把最直观、最顺手、最出片的界面交到你手上。无论你是想快速做一张社交平台封面、设计小红书配图、生成电商主图,还是单纯想试试“把脑海里的画面变成真实图片”,它都能在30秒内给你答案。 本文将全程以零基础用户视角展开,不讲架构、不谈原理、不列公式,只聚焦三件事: 怎么启动它(5秒完成) 怎么让它听懂你想要什么(提示词怎么写才有效) 怎么让生成结果更稳、更美、更像你心里想的(3个关键微调动作) 全程无需安装Python、不配CUDA、

Vscode新手必看:GitHub Copilot从安装到实战的5个高效用法

Vscode新手必看:GitHub Copilot从安装到实战的5个高效用法 最近和几位刚入行的朋友聊天,发现他们虽然装了Vscode,也听说过GitHub Copilot的大名,但真正用起来的却不多。要么是觉得配置麻烦,要么是打开后只会傻傻地等它自动补全,完全没发挥出这个“AI结对程序员”的威力。这让我想起自己刚开始用Copilot那会儿,也是摸索了好一阵子才找到感觉。今天,我就把自己从安装到深度使用过程中,那些真正提升效率的实战心得整理出来,希望能帮你绕过那些坑,快速把Copilot变成你的开发利器。 GitHub Copilot远不止是一个高级的代码补全工具。当你真正理解它的工作模式,并学会与之高效“对话”时,它能在代码生成、逻辑解释、问题调试乃至学习新框架等多个维度,显著改变你的编程体验。这篇文章不会重复那些官网都有的基础操作,而是聚焦于五个经过实战检验的高效用法,让你从“会用”进阶到“精通”。 1. 环境准备与深度配置:不止是安装插件 很多教程把安装Copilot描述为“点一下按钮”那么简单,但要想获得流畅稳定的体验,一些前置准备和深度配置至关重要。这就像给赛车加油