【图文】Codex接入Kimi K2/GLM-4.6 环境配置指南 (Windows/macOS/Ubuntu)

【图文】Codex接入Kimi K2/GLM-4.6 环境配置指南 (Windows/macOS/Ubuntu)

Codex接入Kimi K2/GLM-4.6 环境配置指南 (Windows/macOS/Ubuntu)

前言

紧跟DeepSeek的步伐,智谱也在节前发布了GLM-4.6,并称它是智谱"最强的代码Coding模型(较GLM-4.5提升27%)"

  • 代码能力对齐Claude Sonnet 4,部分榜单对齐Claude Sonnet 4.5。
  • 上下文长度增加到200K。
  • 推理能力提升,增加图像识别与搜索能力。
  • token消耗较GLM-4.5节省30%以上。

GLM Coding Plan订阅自动升级至GLM-4.6(包含已订阅的用户):

  • 支持Claude Code、Roo Code、Kilo Code、Cline等10+主流编程工具。
  • 套餐命名对齐Claude,用量为Claude x3,费用为Claude x1/7,综合性价比是Claude的21倍。
  • 套餐首次购买优惠价格及后续原价为:
    • Lite (120prompts/5h):20元/月 (续费40元/月)
    • Pro (600prompts/5h):100元/月(续费200元/月)
    • Max (2400prompts/5h):200元/月(续费400元/月)
  • 注:每次 prompt 预计可调用模型 15-20 次,每月总计可用总量高达几十亿到数百亿tokens,折算下来仅为 API 价格的 0.1 折,极具性价比。

我9月10号订阅的Lite,20元买不了吃亏买不了上当,已经用了三周了感觉非常的棒,编程能力也是足够日常工作中使用,工作中的强度根本达不到5小时120次prompts的限制。

GLM-4.5的编程能力已经很强了,这次升级到GLM-4.6又是一个大的进步。推荐各位编程工作的小伙伴,花一杯奶茶钱试试这家大模型,真的很好用

第一次可以用亲人的手机号试一下,满意的话再上自己的手机号,直接入年卡~

使用我的邀请链接订阅GLM Coding Plan,还能再打9折:GLM Coding Plan邀请9折


本指南将引导您完成安装 Codex ,并通过API方式配置 Kimi K2GLM-4.6 模型,以更实惠的方式来AI编程。

1、安装 Node.js

在开始之前,您的系统需要安装好 Node.js。

验证安装:安装完成后,打开您的终端(Terminal)或命令提示符(CMD),运行以下命令来验证。

node -v 

如果成功安装,将会显示 Node.js 的版本号(如图绿框中的)。

在这里插入图片描述

下载与安装:请前往 Node.js 官方网站 下载并安装最新版本的 Node.js(建议使用 v18 或更高版本)。根据您的操作系统下载对应的安装包。

在这里插入图片描述

2、安装 Codex

接下来,我们将全局安装 Codex NPM 包。此步骤在不同操作系统下的主要区别在于是否需要管理员权限。

注意:为了获得最佳的安装体验,建议连接稳定的网络环境(例如使用科学上网)运行安装命令。

2.1、Windows

    1. 管理员身份 打开您的 命令提示符(CMD)PowerShell

输入并运行以下安装命令:

npminstall -g @openai/codex 
在这里插入图片描述

2.2、macOS / Ubuntu

    1. 打开您的 终端(Terminal)
    1. 由于全局安装 npm 包需要系统权限,您需要在命令前加上 sudo

输入并运行以下安装命令(过程中会提示您输入电脑的登录密码):

sudonpminstall -g @openai/codex 

2.3、验证安装 (所有系统通用)

安装完成后,在 新的终端窗口 中运行以下命令来验证。(旧的窗口也许可以,建议新的哈)。

codex--version 

如果终端成功返回版本号,则代表 Codex 已成功安装(绿框中的)。

在这里插入图片描述

3、获取API Key

Codex 安装成功,这时它还不能工作,因为需要登录官方或者其他模型厂商才可以。
我没有订阅GPT,因为太贵了,所以我选择了 Kimi K2和GLM-4.6的 API 来驱动Codex。
因此我们先去获取Kimi K2和GLM-4.6 的 API Key来登录。
你可以把这个API Key理解成访问密码,访问模型时需要用到这个密码哦。

3.1、获取GLM-4.6 API Key

  1. 前往 智谱AI开放平台智谱AI开放平台

申请成功后点击一下API key的复制按钮,把key复制到剪贴板中给后续使用。

在这里插入图片描述

登录后按顺序点击:右上角的头像 -> API key -> 添加新的API key -> 输入一个名字来标识这个key -> 确定。

在这里插入图片描述

创建账号并登录,系统会赠送2000万token供你试用。更建议选择月卡订阅,我自己买的20元/月的试用,日常开发足够。后续考虑升级成季度订阅~ 选择图中的立即订阅,还可以再优惠10%

在这里插入图片描述

3.2、获取Kimi K2 API Key

  1. 前往 Moonshot AI开放平台Moonshot AI开放平台
  2. 注册与登录:如果您没有账户,请先注册一个新账户并登录。
  3. 创建 API Key:在平台仪表盘中,找到创建 API Key 的选项。
  4. 关于费用
    • 新用户通常会获赠少量免费额度(例如 15 元)供测试使用。
    • 若要长期或高频率使用,建议充值至少 50 元,以解锁更高的请求速率(RPM),从而获得更流畅的体验。

重要提示:API Key 在创建后只会显示一次,请务必立即复制并妥善保存。

在这里插入图片描述

4、配置环境变量

万事俱备,只欠东风!为了让 Codex 能够成功连接到 Kimi K2和GLM-4.6,我们需要配置环境变量到Codex

4.1、Windows

您可以选择以下任一方法进行配置:

  • 方法二:使用系统属性面板
    1. 在 Windows 搜索栏中输入“环境变量”,并选择“编辑系统环境变量”。
    2. 在“系统属性”窗口中,点击“环境变量…”。
    3. 在“系统变量”区域,点击“新建…”,并添加两个新变量。

方法一:使用命令提示符
打开命令提示符(无需管理员),并执行以下两条命令。请确保将 "你的GLM_API_Key""你的Kimi_API_Key" 替换为您真实的 API Key。替换后重启一下终端。

setx GLM_API_KEY "你的GLM_API_Key" setx KIMI_API_KEY "你的Kimi_API_Key"

注意:使用 setx 设置的变量需要 重启终端 才会生效。建议关闭所有终端,然后再打开一个新的。
注意:使用 setx 设置的变量需要 重启终端 才会生效。建议关闭所有终端,然后再打开一个新的。
注意:使用 setx 设置的变量需要 重启终端 才会生效。建议关闭所有终端,然后再打开一个新的。

在这里插入图片描述

4.2、macOS / Ubuntu

在 macOS 和 Ubuntu 系统中,环境变量通常配置在 Shell 的配置文件中。

  1. 确定您的 Shell 类型
    在终端中运行 echo $SHELL
    • 如果输出包含 zsh,您的配置文件是 ~/.zshrc
    • 如果输出包含 bash,您的配置文件是 ~/.bashrc

使配置生效
运行以下命令让配置立即生效(或直接重启终端)。

# 如果您修改了 .zshrcsource ~/.zshrc # 如果您修改了 .bashrcsource ~/.bashrc 

添加环境变量
在文件的末尾,添加以下两行。请将 你的Kimi_API_Key 替换为您真实的 API Key。

exportGLM_API_KEY="你的GLM_API_Key"exportKIMI_API_KEY="你的Kimi_API_Key"

添加后,按下 Ctrl + O 保存文件,然后按 Ctrl + X 退出编辑器。

编辑配置文件
使用您喜欢的文本编辑器打开对应的文件。这里以 nano 为例(一个对新手友好的终端编辑器)。

# 如果您使用 Zsh (macOS 默认)nano ~/.zshrc # 如果您使用 Bashnano ~/.bashrc 

5、运行并配置 Codex

好,到此所有准备工作已经完成!让我们启动 Codex 吧!

  1. 打开一个新的终端窗口。

我们让他自我介绍一下,如果收到回复,就证明配置正确了(如图绿色框的回复)。

在这里插入图片描述

接着退出Codex,重新进入一下。一定要退出重进,因为我们刚改了配置嘛,需要让Codex重新加载~再次进入Codex,可以看到模型是GLM-4.6了:

在这里插入图片描述

然后打开~/.codex/config.toml文件(windows在C:\Users\你的用户名\.codex\config.toml),这里我使用vscode来打开并编辑,直接复制粘贴以下内容并保存,这里我使用GLM-4.6的模型,你要用kimi的话就把glm注释掉,然后把kimi打开:

model_provider = "glm" model = "glm-4.6" # model_provider = "kimi" # model = "kimi-k2-0905-preview" [model_providers.glm] name = "zai" base_url = "https://open.bigmodel.cn/api/coding/paas/v4" env_key = "GLM_API_KEY" [model_providers.kimi] name = "kimi" base_url = "https://api.moonshot.cn/v1" env_key = "KIMI_API_KEY" 
在这里插入图片描述

紧接着让你输入API Key,注意这里是输入的GPT官方的API Key,我们胡乱输一个确认即可:

在这里插入图片描述

输入codex 命令,你会看到让你选择登录方式,我们这里需要按方向键切换到2. Provide your own API key,回车确认:

codex 
在这里插入图片描述

6、FAQ

6.1、登录报错

  • 可能在第4步 配置环境变量 出错,需要注意windows命令行需要全部关闭,后续新开的才会生效。
  • 文章示例的GLM-4.6使用的是包月计划对应的base_url,如果你没有订阅包月套餐就会报错,可以点击这个链接包月:GLM 编程神器包月套餐·限时优惠-10%

如果你只是想试用GLM-4.6,可以把Codex的配置文件中glm的base_url改为:

https://open.bigmodel.cn/api/paas/v4/ 

6.2、使用KIMI K2对话报错或警告

使用KIMI模型时,向AI发送消息后,Codex会提示一些错误或警告, 比如这样:

在这里插入图片描述

这个原因是你没有氪金,Kimi官方赠送的免费额度每秒只能访问3次,而 Codex 会根据内置策略来多次调用api,很容易就超过每秒3次。
解决方案也很简单,氪金50块钱可以解决,哈哈哈哈。自己抉择吧~!

在这里插入图片描述

6.3、其他模型可以通过API接入吗

  • 可以,类似glm和kimi,比如deepseek,你可以去deepseek官网申请对应的api key并氪金,然后按照这篇教程配置进来。deepseek传送门:DeepSeek 开方平台

6.4、官方的配置文档参考

  • config配置:https://github.com/openai/codex/blob/main/docs/config.md
  • mcp配置:https://github.com/openai/codex/blob/main/docs/advanced.md#model-context-protocol-mcp

Read more

保姆级教程:Windows本地部署Ollama+OpenClaw,打造你的AI赚钱系统(APP开发/量化/小说/剪辑)

摘要:想用AI搞钱但卡在技术门槛?本文手把手教你用一台Windows电脑,零成本本地部署Ollama大模型+OpenClaw智能中枢,赋予AI开发APP、量化分析、编写小说、剪辑辅助等“赚钱技能”。全程无需编程基础,跟着鼠标点、照着命令敲,即可拥有24小时待命的AI员工。 一、写在前面 很多朋友对AI变现跃跃欲试,却常被这些问题劝退: * 云端部署太贵,API调用怕浪费钱 * 技术文档看不懂,不知道从哪下手 * 数据隐私担忧,不敢把敏感资料上传 其实,你手头那台Windows电脑完全能胜任!本文将带你搭建一套完全本地化、免费、可扩展的AI生产力系统,让AI帮你写代码、分析表格、生成文案、处理视频,真正把AI变成你的“赚钱工具”。 系统架构: * 本地大脑:Ollama + DeepSeek模型,负责理解任务、生成内容 * 智能中枢:OpenClaw(原名OpenClaude),负责调用各类工具(Skill) * 赚钱技能:通过安装Skill包,让AI具备特定领域的实操能力 适用人群:

By Ne0inhk
一个后台管理所有 AI:手把手教你搭建属于自己的 AI 中转站(CLIProxyAPI版)

一个后台管理所有 AI:手把手教你搭建属于自己的 AI 中转站(CLIProxyAPI版)

目录 * 前言 * 第一部分:基础设施准备与 CLIProxyAPI 的核心部署 * 1.1 服务器选型与环境初始化 * 1.2 CLIProxyAPI 的自动化安装 * 1.3 核心配置文件 `config.yaml` 的深度定制 * 第二部分:系统服务化管理与故障排查 * 2.1 初始启动尝试与 Systemd 服务注册 * 2.2 服务启动失败的深度分析与路径修正 * 2.3 修正 Systemd 配置与服务恢复 * 第三部分:Web 管理界面的访问与 OAuth 认证集成 * 3.1 网络防火墙配置 * 3.2 仪表盘登录与功能概览 * 3.3 Google OAuth 认证流程

By Ne0inhk
Flutter for OpenHarmony:Flutter 三方库 dart_mcp — 开启鸿蒙端的 AI Agent 通信协议新纪元(适配鸿蒙 HarmonyOS Next ohos)

Flutter for OpenHarmony:Flutter 三方库 dart_mcp — 开启鸿蒙端的 AI Agent 通信协议新纪元(适配鸿蒙 HarmonyOS Next ohos)

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net。 Flutter for OpenHarmony:Flutter 三方库 dart_mcp — 开启鸿蒙端的 AI Agent 通信协议新纪元(适配鸿蒙 HarmonyOS Next ohos) 前言 随着生成式 AI 的爆发,Model Context Protocol (MCP) 正逐渐成为连接大型语言模型(LLM)与外部工具(Tools)、数据源(Resources)及上下(Context)的标准开放协议。它由 Anthropic 发起,旨在解决 AI 代理在获取现实世界信息时的碎片化问题。 在 Flutter for OpenHarmony 开发中,我们不仅关注 UI

By Ne0inhk
移动端也能玩转!OpenClaw iOS/Android 端部署教程,语音唤醒 + 全场景随身 AI 助手

移动端也能玩转!OpenClaw iOS/Android 端部署教程,语音唤醒 + 全场景随身 AI 助手

一、背景与价值:随身AI助手的刚需场景 随着大语言模型技术的普及,全场景AI助手的需求日益增长——无论是通勤途中的语音笔记、户外场景的实时翻译,还是离线环境下的知识查询,移动端随身AI都能解决传统桌面AI的场景局限。OpenClaw作为一款轻量级、可离线运行的开源AI框架,支持语音唤醒、多模态交互等核心功能,完美适配iOS/Android双平台部署,为用户打造真正的随身AI助手。 二、核心原理:OpenClaw移动端部署的技术逻辑 OpenClaw的移动端部署核心是将轻量化大语言模型(如Qwen-2-0.5B-Instruct)、语音唤醒模型(如PicoVoice Porcupine)与移动端推理引擎(如MLKit、TensorFlow Lite)进行整合,实现三大核心流程: 1. 低功耗语音唤醒:通过本地运行的轻量唤醒模型监听关键词,避免持续调用麦克风导致的高功耗; 2. 本地推理加速:利用移动端硬件加速(NNAPI、Core ML)运行量化后的大语言模型,实现离线交互; 3. 跨平台适配:通过Flutter或React Native统一代码底座,同时适配iOS的沙箱

By Ne0inhk