OpenClaw 龙虾 AI 模型配置教程

我给你做最细、零基础、照着点就能配好的「OpenClaw 龙虾 + 国内AI大模型」配置教程,只讲你现在能用的:通义千问(阿里)、文心一言(百度)、DeepSeek,这三个国内最稳、最好用。

一、先打开龙虾控制面板(第一步必做)

  1. 打开 管理员 PowerShell
  2. 输入这条命令,按回车:

openclaw-cn dashboard

  1. 电脑会自动弹出浏览器
  2. 打开的就是:http://127.0.0.1:18789
  3. 这就是龙虾的后台控制页,后面所有配置都在这里做。

二、所有模型通用配置路径(记住这个流程)

  1. 左边菜单栏点 Models(模型)
  2. 右上角点 Add provider(添加模型厂商)
  3. 选择你要的国内模型
  4. 粘贴 API Key
  5. 接口地址(Endpoint)
  6. Save 保存
  7. 设为 Default Model(默认模型)

下面我一个一个给你写从0拿Key → 填进龙虾的全过程。


三、配置 ① 通义千问(阿里云,最推荐国内模型)

3.1 去阿里云拿到 API Key

  1. 打开阿里云百炼平台:
  2. https://dashscope.console.aliyun.com/
  3. 用支付宝/阿里云账号登录
  4. 左边点 API-KEY管理
  5. 创建新的API-KEY
  6. 复制生成的 API Key(以 sk- 开头)
  7. ⚠️ 只出现一次,一定要复制保存!

3.2 填进 OpenClaw 龙虾

  1. 龙虾控制面板 → Models → Add provider
  2. 选择:Qwen / 通义千问
  3. 填写:
    1. API Key: 粘贴你刚复制的 sk-xxxx
    2. Endpoint / Base URL(固定填这个):https://dashscope.aliyuncs.com/compatible-mode/v1
    3. 模型选择(选一个就行):
    4. qwen-turboqwen-plusqwen-max
    5. Save
    6. Set as default(设为默认)

    四、配置 ② 文心一言(百度)

    4.1 去百度智能云拿 Key

    1. 打开百度智能云千帆:
    2. https://console.bce.baidu.com/qianfan/
    3. 登录 → 开通「千帆大模型平台」
    4. 左边 应用接入创建应用
    5. 创建后拿到 2 个东西:
      1. API Key
      2. Secret Key
    6. 用这两个生成 AccessKey(平台里会自动给)

    4.2 填进龙虾

    1. Models → Add provider → ERNIE / 文心一言
    2. 填写:
      1. AccessKey / Token
      2. Endpoint(固定):https://qianfan.baidubce.com
      3. 模型选:
      4. ernie-3.5ernie-4.0
      5. Save → Set as default

      五、配置 ③ DeepSeek(深度求索,代码强、便宜稳)

      5.1 拿 API Key

      1. 打开 DeepSeek 平台:
      2. https://platform.deepseek.com/
      3. 登录 → 个人中心 → API Keys
      4. 创建 → 复制 sk- 开头的 Key

      5.2 填进龙虾

      1. Models → Add provider → DeepSeek
      2. 填写:
        1. API Key: 你的 sk-xxx
        2. Endpoint(固定):https://api.deepseek.com
        3. 模型选:
        4. deepseek-chat
        5. Save → Set as default

        六、最关键一步:设为默认模型(不设机器人不说话)

        1. 回到 Models 页面
        2. 找到你刚加的国内模型(如通义千问)
        3. 点右边 … 菜单
        4. Set as default model
        5. 出现绿色提示:Default model updated 就成功了

        七、立刻测试:飞书发消息看能不能回复

        1. 保证网关在运行(如果关了就启动):

        openclaw-cn gateway --force

        1. 打开飞书,给你的龙虾机器人发:

        你好

        1. 能正常回复 = 全部配置成功

        八、最常见3个错误(10秒解决)

        1. 机器人不说话
        2. → 没设默认模型 → Models里点 Set as default
        3. 提示 Model not found
        4. → 模型名字填错 → 用我给的名字(qwen-turbo 等)
        5. 提示 API Key 无效
        6. → Key 复制错/漏字符 → 重新去平台复制

        Read more

        LLaMA-Factory配置文件详解:YAML参数调优指南

        LLaMA-Factory配置文件详解:YAML参数调优指南 你是否还在为LLM微调时的参数配置感到困惑?是否因参数设置不当导致训练效率低下或模型效果不佳?本文将系统解析LLaMA-Factory的YAML配置文件结构,通过实际案例演示关键参数调优方法,帮助你在10分钟内掌握高效微调的配置技巧。读完本文后,你将能够独立编写优化的配置文件,解决90%的常见微调参数问题。 配置文件基础结构 LLaMA-Factory采用模块化的YAML配置系统,将微调任务划分为5个核心配置区块。这种结构设计使参数管理更清晰,也便于不同任务间的配置复用。典型的配置文件结构如下: ### model # 模型基础配置 ### method # 微调方法配置 ### dataset # 数据集处理配置 ### output # 训练输出配置 ### train # 训练过程配置 ### eval # 评估相关配置(可选) 项目中提供了大量配置示例,覆盖从基础SFT到高级RLHF的各类任务。例如: * LoRA微调示例:examples/train_lora/llama3_lora_sft.ya

        AIGC已经不是未来,而是现在:2025年最值得关注的6大趋势!

        AIGC已经不是未来,而是现在:2025年最值得关注的6大趋势!

        过去一年,AIGC(AI 生成内容)从“概念”彻底走向“落地”。无论你是程序员、产品经理、内容创作者,甚至是业余爱好者,AIGC 已经渗透到每一个内容生产链条中,以一种“你还没准备好,它已经来了”的节奏迅速发展。 本文将带你系统了解:2025 年最热门的 AIGC 内容形态、前沿产品、典型用例,以及未来趋势。 🎥 1. 文生视频已落地:Sora 等产品引爆创意革命         当 OpenAI 推出 Sora 时,整个 AI 圈都沸腾了。         只需一句提示词,比如: "一个穿太空服的熊猫在月球上弹钢琴"         Sora 就能输出秒级电影级视频片段。光影、动作、镜头感,全部一应俱全。 🔧 技术关键词:

        Llama.cpp 全实战指南:跨平台部署本地大模型的零门槛方案

        【个人主页:玄同765】 大语言模型(LLM)开发工程师|中国传媒大学·数字媒体技术(智能交互与游戏设计) 深耕领域:大语言模型开发 / RAG知识库 / AI Agent落地 / 模型微调 技术栈:Python / LangChain/RAG(Dify+Redis+Milvus)| SQL/NumPy | FastAPI+Docker ️ 工程能力:专注模型工程化部署、知识库构建与优化,擅长全流程解决方案        「让AI交互更智能,让技术落地更高效」 欢迎技术探讨/项目合作! 关注我,解锁大模型与智能交互的无限可能! 摘要 本文全面解析轻量级大模型推理框架 Llama.cpp,详细讲解其在 Windows(Winget)、Linux、macOS 三大平台的安装步骤,针对新手优化了模型获取、文件整理、可视化部署的全流程,涵盖命令行交互、OpenAI

        2025终极指南:whisper.cpp跨平台语音识别部署全流程

        2025终极指南:whisper.cpp跨平台语音识别部署全流程 【免费下载链接】whisper.cppOpenAI 的 Whisper 模型在 C/C++ 中的移植版本。 项目地址: https://gitcode.com/GitHub_Trending/wh/whisper.cpp 还在为语音转文字服务的网络延迟和高成本烦恼?whisper.cpp作为开源语音识别解决方案,提供了本地化部署的完美选择。本文将带你深入了解如何在不同平台上快速部署和使用这个强大的离线语音识别工具。 通过本文,你将掌握: * 多平台环境配置的一键安装方法 * 模型下载与优化的性能调优技巧 * 常见部署问题的快速解决方案 * 监控与维护的最佳实践 平台选择:找到最适合你的方案 平台类型安装难度推理速度内存占用适用场景Windows桌面⭐⭐1.2x1.1GB个人使用Linux服务器⭐⭐⭐1.5x0.9GB企业部署macOS开发⭐2.0x0.7GB移动应用Android设备⭐⭐⭐⭐0.8x0.5GB边缘计算 环境搭建:快速启动的完整步骤 基础环境准备