OpenClaw 龙虾 AI 模型配置教程

我给你做最细、零基础、照着点就能配好的「OpenClaw 龙虾 + 国内AI大模型」配置教程,只讲你现在能用的:通义千问(阿里)、文心一言(百度)、DeepSeek,这三个国内最稳、最好用。

一、先打开龙虾控制面板(第一步必做)

  1. 打开 管理员 PowerShell
  2. 输入这条命令,按回车:

openclaw-cn dashboard

  1. 电脑会自动弹出浏览器
  2. 打开的就是:http://127.0.0.1:18789
  3. 这就是龙虾的后台控制页,后面所有配置都在这里做。

二、所有模型通用配置路径(记住这个流程)

  1. 左边菜单栏点 Models(模型)
  2. 右上角点 Add provider(添加模型厂商)
  3. 选择你要的国内模型
  4. 粘贴 API Key
  5. 接口地址(Endpoint)
  6. Save 保存
  7. 设为 Default Model(默认模型)

下面我一个一个给你写从0拿Key → 填进龙虾的全过程。


三、配置 ① 通义千问(阿里云,最推荐国内模型)

3.1 去阿里云拿到 API Key

  1. 打开阿里云百炼平台:
  2. https://dashscope.console.aliyun.com/
  3. 用支付宝/阿里云账号登录
  4. 左边点 API-KEY管理
  5. 创建新的API-KEY
  6. 复制生成的 API Key(以 sk- 开头)
  7. ⚠️ 只出现一次,一定要复制保存!

3.2 填进 OpenClaw 龙虾

  1. 龙虾控制面板 → Models → Add provider
  2. 选择:Qwen / 通义千问
  3. 填写:
    1. API Key: 粘贴你刚复制的 sk-xxxx
    2. Endpoint / Base URL(固定填这个):https://dashscope.aliyuncs.com/compatible-mode/v1
    3. 模型选择(选一个就行):
    4. qwen-turboqwen-plusqwen-max
    5. Save
    6. Set as default(设为默认)

    四、配置 ② 文心一言(百度)

    4.1 去百度智能云拿 Key

    1. 打开百度智能云千帆:
    2. https://console.bce.baidu.com/qianfan/
    3. 登录 → 开通「千帆大模型平台」
    4. 左边 应用接入创建应用
    5. 创建后拿到 2 个东西:
      1. API Key
      2. Secret Key
    6. 用这两个生成 AccessKey(平台里会自动给)

    4.2 填进龙虾

    1. Models → Add provider → ERNIE / 文心一言
    2. 填写:
      1. AccessKey / Token
      2. Endpoint(固定):https://qianfan.baidubce.com
      3. 模型选:
      4. ernie-3.5ernie-4.0
      5. Save → Set as default

      五、配置 ③ DeepSeek(深度求索,代码强、便宜稳)

      5.1 拿 API Key

      1. 打开 DeepSeek 平台:
      2. https://platform.deepseek.com/
      3. 登录 → 个人中心 → API Keys
      4. 创建 → 复制 sk- 开头的 Key

      5.2 填进龙虾

      1. Models → Add provider → DeepSeek
      2. 填写:
        1. API Key: 你的 sk-xxx
        2. Endpoint(固定):https://api.deepseek.com
        3. 模型选:
        4. deepseek-chat
        5. Save → Set as default

        六、最关键一步:设为默认模型(不设机器人不说话)

        1. 回到 Models 页面
        2. 找到你刚加的国内模型(如通义千问)
        3. 点右边 … 菜单
        4. Set as default model
        5. 出现绿色提示:Default model updated 就成功了

        七、立刻测试:飞书发消息看能不能回复

        1. 保证网关在运行(如果关了就启动):

        openclaw-cn gateway --force

        1. 打开飞书,给你的龙虾机器人发:

        你好

        1. 能正常回复 = 全部配置成功

        八、最常见3个错误(10秒解决)

        1. 机器人不说话
        2. → 没设默认模型 → Models里点 Set as default
        3. 提示 Model not found
        4. → 模型名字填错 → 用我给的名字(qwen-turbo 等)
        5. 提示 API Key 无效
        6. → Key 复制错/漏字符 → 重新去平台复制

        Read more

        Qwen2.5-7B-Instruct实战教程:Chainlit集成语音输入(Whisper API)

        Qwen2.5-7B-Instruct实战教程:Chainlit集成语音输入(Whisper API) 1. 为什么选Qwen2.5-7B-Instruct?不只是“又一个7B模型” 你可能已经见过太多标着“7B”的大模型,但Qwen2.5-7B-Instruct不是简单参数堆砌的产物。它是在Qwen2系列基础上真正“长高长大”的一代——知识更广、逻辑更稳、表达更准,而且特别懂“人话”。 它不像有些模型,你一说“用表格总结这三段话”,它就给你编个格式错乱的假表格;也不像某些轻量模型,聊到第三轮就开始忘掉自己上一句说了啥。Qwen2.5-7B-Instruct在指令理解上明显更“听话”:你让它写一封带日期和落款的辞职信,它真会加;你让它把一段中文翻译成法语再转成JSON结构,它也能一步到位。 更实际的是,它支持131,072 tokens超长上下文——这意味着你能一次性喂给它整本产品文档、几十页会议纪要,甚至是一段长达两小时的会议录音转文字稿,它依然能抓住重点、准确回应。而生成能力也拉满,单次输出最多8192 tokens,写一篇3000字的技术分析报告完全不卡顿。 它还是个

        在VSCode中通过Copilot链接Figma直接生成完整产品

        在VSCode中通过Copilot链接Figma直接生成完整产品

        为了快速开发的需要,开发的范式也开始进行快速迭代调整。可以变为使用Figma (特别是他的Make产品,可以提示指导AI直接生成完整的产品原型)生成原型,然后通过设置Figma的MCP, 在开发工具(本文是在VS Code中使用Copilot)链接Figma, 直接快速的生成Figma上的整套产品原型代码(对模型有要求,还是推荐Gemini-Flash, Claude Sonnet之上的模型),尽量一次到位。 详细步骤记录如下,减少大家踩坑。 1. 获取Figma的API Token 在Figma的左上角用户处点击设置(Settings),然后在安全Security下Personal Access Tokens下面生成token所用(注意根据自身要求设置权限,建议read都选上),注意token的最长有效期为90天。 2. 在VS Code Copilot中设置对应的MCP配置 首先确保MCP发现的功能是开着的,在VS Code中打开设置(Ctrl+,或者Cmd+,), 输入chat.mcp确认Discovery是Enabled. 在extentions中输入@mc

        Llama Factory微调显存参考表:从7B到72B模型的实战验证

        Llama Factory微调显存参考表:从7B到72B模型的实战验证 大语言模型微调是当前AI领域的热门技术,但显存需求往往成为实践中的拦路虎。LLaMA-Factory作为流行的微调框架,官方提供了一份显存参考表,但实际部署时我们常会遇到"理论值"与"实测值"不符的情况。本文将带你通过云实例批量验证7B到72B模型的显存占用规律,为你的微调实践提供可靠依据。 为什么需要验证显存参考表 微调大模型时,显存不足是最常见的报错原因。LLaMA-Factory官方参考表虽然给出了不同模型规模下的显存预估,但实际运行时会受到以下因素影响: * 微调方法差异:全参数微调、LoRA、QLoRA等方法对显存的需求可能相差数倍 * 精度选择:float32、bfloat16、float16等不同精度直接影响显存占用 * 批次大小和序列长度:较长的文本序列会指数级增加显存消耗 * 框架版本差异:如某些commit可能意外修改默认数据类型 这类任务通常需要GPU环境,目前ZEEKLOG算力平台提供了包含LLaMA-Factory的预置环境,可快速部署验证。 测试环境搭建与配置

        智创 AI 新视界 -- AIGC 背后的深度学习魔法:从原理到实践

        智创 AI 新视界 -- AIGC 背后的深度学习魔法:从原理到实践

        💖💖💖亲爱的朋友们,热烈欢迎你们来到 青云交的博客!能与你们在此邂逅,我满心欢喜,深感无比荣幸。在这个瞬息万变的时代,我们每个人都在苦苦追寻一处能让心灵安然栖息的港湾。而 我的博客,正是这样一个温暖美好的所在。在这里,你们不仅能够收获既富有趣味又极为实用的内容知识,还可以毫无拘束地畅所欲言,尽情分享自己独特的见解。我真诚地期待着你们的到来,愿我们能在这片小小的天地里共同成长,共同进步。💖💖💖 本博客的精华专栏: 1. 大数据新视界专栏系列:聚焦大数据,展技术应用,推动进步拓展新视野。 2. Java 大厂面试专栏系列:提供大厂面试的相关技巧和经验,助力求职。 3. Python 魅力之旅:探索数据与智能的奥秘专栏系列:走进 Python 的精彩天地,感受数据处理与智能应用的独特魅力。 4. Java 性能优化传奇之旅:铸就编程巅峰之路:如一把神奇钥匙,深度开启 JVM 等关键领域之门。丰富案例似璀璨繁星,引领你踏上编程巅峰的壮丽征程。 5. Java 虚拟机(