OpenClaw 龙虾 AI 模型配置教程

我给你做最细、零基础、照着点就能配好的「OpenClaw 龙虾 + 国内AI大模型」配置教程,只讲你现在能用的:通义千问(阿里)、文心一言(百度)、DeepSeek,这三个国内最稳、最好用。

一、先打开龙虾控制面板(第一步必做)

  1. 打开 管理员 PowerShell
  2. 输入这条命令,按回车:

openclaw-cn dashboard

  1. 电脑会自动弹出浏览器
  2. 打开的就是:http://127.0.0.1:18789
  3. 这就是龙虾的后台控制页,后面所有配置都在这里做。

二、所有模型通用配置路径(记住这个流程)

  1. 左边菜单栏点 Models(模型)
  2. 右上角点 Add provider(添加模型厂商)
  3. 选择你要的国内模型
  4. 粘贴 API Key
  5. 接口地址(Endpoint)
  6. Save 保存
  7. 设为 Default Model(默认模型)

下面我一个一个给你写从0拿Key → 填进龙虾的全过程。


三、配置 ① 通义千问(阿里云,最推荐国内模型)

3.1 去阿里云拿到 API Key

  1. 打开阿里云百炼平台:
  2. https://dashscope.console.aliyun.com/
  3. 用支付宝/阿里云账号登录
  4. 左边点 API-KEY管理
  5. 创建新的API-KEY
  6. 复制生成的 API Key(以 sk- 开头)
  7. ⚠️ 只出现一次,一定要复制保存!

3.2 填进 OpenClaw 龙虾

  1. 龙虾控制面板 → Models → Add provider
  2. 选择:Qwen / 通义千问
  3. 填写:
    1. API Key: 粘贴你刚复制的 sk-xxxx
    2. Endpoint / Base URL(固定填这个):https://dashscope.aliyuncs.com/compatible-mode/v1
    3. 模型选择(选一个就行):
    4. qwen-turboqwen-plusqwen-max
    5. Save
    6. Set as default(设为默认)

    四、配置 ② 文心一言(百度)

    4.1 去百度智能云拿 Key

    1. 打开百度智能云千帆:
    2. https://console.bce.baidu.com/qianfan/
    3. 登录 → 开通「千帆大模型平台」
    4. 左边 应用接入创建应用
    5. 创建后拿到 2 个东西:
      1. API Key
      2. Secret Key
    6. 用这两个生成 AccessKey(平台里会自动给)

    4.2 填进龙虾

    1. Models → Add provider → ERNIE / 文心一言
    2. 填写:
      1. AccessKey / Token
      2. Endpoint(固定):https://qianfan.baidubce.com
      3. 模型选:
      4. ernie-3.5ernie-4.0
      5. Save → Set as default

      五、配置 ③ DeepSeek(深度求索,代码强、便宜稳)

      5.1 拿 API Key

      1. 打开 DeepSeek 平台:
      2. https://platform.deepseek.com/
      3. 登录 → 个人中心 → API Keys
      4. 创建 → 复制 sk- 开头的 Key

      5.2 填进龙虾

      1. Models → Add provider → DeepSeek
      2. 填写:
        1. API Key: 你的 sk-xxx
        2. Endpoint(固定):https://api.deepseek.com
        3. 模型选:
        4. deepseek-chat
        5. Save → Set as default

        六、最关键一步:设为默认模型(不设机器人不说话)

        1. 回到 Models 页面
        2. 找到你刚加的国内模型(如通义千问)
        3. 点右边 … 菜单
        4. Set as default model
        5. 出现绿色提示:Default model updated 就成功了

        七、立刻测试:飞书发消息看能不能回复

        1. 保证网关在运行(如果关了就启动):

        openclaw-cn gateway --force

        1. 打开飞书,给你的龙虾机器人发:

        你好

        1. 能正常回复 = 全部配置成功

        八、最常见3个错误(10秒解决)

        1. 机器人不说话
        2. → 没设默认模型 → Models里点 Set as default
        3. 提示 Model not found
        4. → 模型名字填错 → 用我给的名字(qwen-turbo 等)
        5. 提示 API Key 无效
        6. → Key 复制错/漏字符 → 重新去平台复制

        Read more

        分享12个AI免费一键生成PPT的网站【2025年最新】

        分享12个AI免费一键生成PPT的网站【2025年最新】

        一、引言 制作PPT演示文稿是许多场合中必不可少的技能,包括商务会议、教育课程和各种演讲。尽管PowerPoint自带多种设计工具和模板,有时我们仍需要额外的支持来提高演示文稿的专业性和吸引力。幸运的是,随着人工智能技术的进步,现已有一些在线工具通过AI技术协助我们快速生成演示文稿。 ✅本文给大家推荐12个免费一键生成PPT的AI网站,部分网站支持免费无限制下载。 二、一键生成PPT的网站 1. 轻竹AIPPT 传送入口:https://sourl.cn/2y6JKz 推荐指数:⭐⭐⭐⭐⭐ 输入标题30秒自动生成PPT,适用于论文答辩、商业计划、述职汇报等场景,支持word转PPT,在线编辑自动排版。PPT生成是无限制免费的。 例如:介绍人工智能的发展历程及应用场景 如果对模板不满意,还可以切换其他PPT模板 2. 博思AIPPT 传送入口:https://ai-to.cn/url/?u=pptgo 推荐指数:⭐⭐⭐⭐⭐ 用户仅需输入主题、上传文件或选择模板,即可快速生成专业级演示文稿。 例如:生成产品经理年中总结报告PPT

        Python + AI:打造你的智能害虫识别助手

        Python + AI:打造你的智能害虫识别助手

        Python + AI:打造你的智能害虫识别助手 在农业生产中,病虫害是影响作物产量和品质的“隐形杀手”。传统的害虫识别依赖人工巡查,不仅耗时耗力,还容易因经验不足导致误判、漏判。而随着智慧农业的普及,AI技术正成为破解这一难题的关键——今天,我们就用Python从零搭建一个智能害虫识别助手,让电脑替你“火眼金睛”辨害虫,轻松搞定农作物病虫害预警! 一、为什么要做这个项目? 智慧农业的核心是“精准、高效、低成本”,而害虫识别正是其中的典型场景: * 对农户:无需专业植保知识,拍照就能识别害虫种类,快速匹配防治方案; * 对开发者:这是一个“小而美”的实战项目,覆盖AI开发全流程,从数据处理到模型部署,学完就能落地; * 技术价值:融合Python、深度学习、Web部署,是入门AI+垂直领域应用的绝佳案例。 这个项目不需要你有深厚的AI功底,只要掌握Python基础,跟着步骤走,就能做出一个能实际使用的智能识别工具。 二、项目核心技术栈 先明确我们要用到的工具,都是行业主流、

        2026 最强开源 AI 智能体:OpenClaw,为什么全网都叫它 AI 龙虾?

        一、OpenClaw 到底是什么? 一句话:能在你电脑上自动干活的开源 AI 智能体(本地运行、不上云、隐私安全) 它能做: 1、用自然语言让 AI 操作电脑、打开软件、点鼠标、敲键盘 2、自动写代码、跑脚本、处理 Excel、发邮件、爬网页 3、连接本地大模型(Ollama、DeepSeek、通义千问、文心一言) 4、支持 3000+ 技能插件(办公、开发、数据分析、自动化) 5、完全本地部署 ,你的数据不会上传到任何公司服务器 二、为什么网友叫它“AI 龙虾” 因为 Claw = 爪子 、龙虾螯

        【前沿解析】2026年3月29日:AI推理效率双重突破——谷歌TurboQuant内存压缩与RWKV-6开源重构大模型部署范式

        当百万级上下文成为AI应用标配,当边缘设备渴求智能部署,内存墙与算力瓶颈正成为制约AI规模化落地的最后枷锁。2026年3月29日,两大技术突破同步到来:谷歌研究院发布TurboQuant算法,将KV缓存内存占用压缩6倍、速度提升8倍;RWKV开源基金会宣布RWKV-6 1.6B模型正式开源,线性复杂度架构打破Transformer二次方魔咒。这不仅是技术的双重突破,更是AI从实验室走向产业、从云端下沉到终端的范式革命。 引言:效率革命的双引擎——内存压缩与架构创新 2026年3月,AI行业迎来了标志性的效率拐点。在算力增长曲线趋缓、摩尔定律失效的背景下,通过算法优化提升现有硬件效能成为唯一可行路径。谷歌TurboQuant与RWKV-6开源,恰如效率革命的双引擎,从两个维度同时突破传统瓶颈: * TurboQuant:针对大模型推理最核心的内存瓶颈——KV缓存,通过PolarQuant坐标变换与QJL误差校正,实现3-bit量化下的零精度损失,实测内存占用降低83%、注意力计算速度提升8倍 * RWKV-6:基于线性复杂度的时间序列混合架构,在保持强大序列建模能