Claude Code 配置教程:如何通过修改 settings.json 优化 AI 编程体验

Claude Code 配置教程:如何通过修改 settings.json 优化 AI 编程体验

安装 Node.js:

https://nodejs.org/dist/v24.12.0/node-v24.12.0-x64.msi 

安装 Claude Code

打开 CMD,运行:

npm install -g @anthropic-ai/claude-code 

安装完成后验证:

claude --version 

安装成功会输出版本号,如果报错,请把错误信息发给deepseek,元宝这类AI工具。它们会告诉你解决方案的。

配置 settings.json

编辑配置文件:

C:\Users\你的用户名.claude\settings.json 

写入以下内容:

{ "env": { "ANTHROPIC_AUTH_TOKEN": "sk-xxx", "ANTHROPIC_BASE_URL": "url地址", "API_TIMEOUT_MS": "3000000", "CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": "1", "ANTHROPIC_MODEL": "claude-sonnet-4-5-20250929" }, "alwaysThinkingEnabled": true } 

注意:文件路径把你的用户名替换成你Windows的实际用户名,把 url,API Key和模型成你使用的。比如GLM,豆包或者其中claude code中转方都可以。

Claude Code Router

如果有多个渠道要灵活切换模型使用,推荐安装Claude Code Router,

npm install -g @musistudio/claude-code-router 

然后在默认路径:

C:\Users\你的用户名.claude-code-router 

这里的你的用户名路径以你电脑默认路径为准。下面是我本地参考如下配置,示例都是国内模型,实际上你配置claude系列模型也都是可以用的。

{ "LOG": true, "LOG_LEVEL": "debug", "CLAUDE_PATH": "", "HOST": "127.0.0.1", "PORT": 3456, "APIKEY": "", "API_TIMEOUT_MS": "600000", "PROXY_URL": "", "transformers": [], "Providers": [ { "name": "new-api", "api_base_url": "http://192.168.77.235:3011/v1/chat/completions", "api_key": "sk-xx", "models": [ "MiniMax-M2.1", "ZhipuAI/GLM-4.7", "ZhipuAI/GLM-4.6", "gemini-2.5-flash", "gemini-2.5-pro" ] } ], "StatusLine": { "enabled": false, "currentStyle": "default", "default": { "modules": [] }, "powerline": { "modules": [] } }, "Router": { "default": "new-api,MiniMax-M2.1", "background": "new-api,ZhipuAI/GLM-4.6", "think": "new-api,ZhipuAI/GLM-4.7", "longContext": "new-api,ZhipuAI/GLM-4.7", "longContextThreshold": 60000, "webSearch": "new-api,gemini-2.5-flash", "image": "new-api,gemini-2.5-flash" }, "CUSTOM_ROUTER_PATH": "" } 

也可以通过可视化UI来进行配置。

ccr ui 

效果如下图:

在这里插入图片描述

配置之后要重启运行。使用的话很简单,在命令行里,执行

ccr restart ccr code 

一般我们都是用编辑器打开某个项目,在项目的根目录下执行ccr code命令。执行完之后,可以看到如下的页面效果。后面直接对话交流需求即可。

在这里插入图片描述

这里主要使用的是魔塔社区的GLM-4.7模型,目前每天每个账号可以使用100次。推荐注册Iflow,目前使用GLM4.6模型是免费的,地址: https://platform.iflow.cn/models

在ccr ui对填写iflow的地址和api就可以了,目前国产模型效果写产品原型和简单应用还是很不错的。参考下面配置

在这里插入图片描述

使用什么模型都在路由中这里配置,配置后记得点右上角的保存并重启。重启后,ccr code里运行的模型会自动更新。

在这里插入图片描述

内置提示词配置

使用cc或者ccr都可以配置内置提示词,在电脑的默认路径:

C:\Users\你的用户名.claude C:\Users\你的用户名.claude-code-router 

找到CLAUDE.md

## Development Partnership I'll help you build frontend code and prototypes. I'll handle implementation details while you guide the overall vision and requirements. ## Core Workflow: Research → Plan → Implement → Validate - **Research**: Understand existing patterns and frontend architecture - **Plan**: Propose frontend approach and get your approval - **Implement**: Build with proper component structure and error handling - **Validate**: Run formatters, linters, and test in browser compatibility ## Frontend Code Organization - Keep components small and focused - Use clear naming conventions for files and functions - Follow component composition patterns - Group related UI elements logically ## Frontend Architecture Principles - Prefer explicit over implicit: - Clear component names over clever abstractions - Obvious data flow over hidden state management - Direct props passing over deep context when possible - Delete old code completely - no need for deprecation in prototypes - Optimize for readability and maintainability ## JavaScript/TypeScript Development Standards - Use TypeScript types instead of `any` when possible - Early returns to reduce nesting - Proper error handling in user interactions and API calls - Consistent component structure - Clear comments for complex UI logic ## UI/UX Considerations - Focus on responsive design principles - Consider accessibility in component design - Implement consistent styling patterns - Optimize for performance on common devices ## Problem Solving When stuck: Stop and look for simpler solutions When uncertain: "Let me think about different UI approaches" When choosing: "I see approach A (simpler) vs B (more flexible). Which do you prefer?" ## Testing Strategy for Frontend - Test critical user flows - Ensure browser compatibility - Validate responsive behavior - Check performance on key interactions ## Progress Tracking - Use TodoWrite comments for tracking next steps - Maintain clear documentation of component usage 

在使用的时候,cc和ccr是独立的。也就是你可以在一个终端使用cc,另一个终端使用使用ccr。到这一步基本上你就能非常灵活的使用claude code了。至于后面的CMP,skills都是进阶,用起来之后再学不迟。


关于作者:石云升|AI博主 & AI企业落地师,专注企业AI落地与业务流程重构。

在这里插入图片描述

Read more

Stable Diffusion 3.5 FP8支持多卡并行吗?实测双GPU扩展性表现

Stable Diffusion 3.5 FP8 支持多卡并行吗?实测双GPU扩展性表现 在生成式AI进入工业化部署的今天,一个核心问题摆在每一个MLOps工程师面前:如何让像 Stable Diffusion 3.5 这样的大模型,在保持高质量输出的同时,真正跑得快、压得小、扩得开? 2024年发布的 stable-diffusion-3.5-fp8 镜像正是朝着这个方向迈出的关键一步。它不再只是“能用”的开源模型,而是开始向“好用”、“高效”、“可规模化”演进的技术产品。尤其是其对 FP8量化 的支持,引发了社区广泛讨论——但这还不够。更关键的问题是:这个FP8版本能不能稳稳地跑在双GPU上?多卡扩展性能否扛住生产压力? 我们带着这个问题,结合官方技术文档、Hugging Face生态工具链以及实际硬件测试(双NVIDIA L40S + NVLink),深入拆解了SD3.5 FP8的底层机制与部署表现。 FP8

蓝耘智算 + 通义万相 2.1:为 AIGC 装上 “智能翅膀”,翱翔创作新天空

蓝耘智算 + 通义万相 2.1:为 AIGC 装上 “智能翅膀”,翱翔创作新天空

1. 引言:AIGC 的崛起与挑战 在过去几年中,人工智能生成内容(AIGC)技术突飞猛进。AIGC 涉及了文本生成、图像创作、音乐创作、视频制作等多个领域,并逐渐渗透到日常生活的方方面面。传统的内容创作方式已经被许多人类创作者所推崇,但随着时间的推移,人工智能的出现使得创作的边界变得更加模糊。 然而,尽管人工智能技术取得了巨大进展,如何高效地将 AI 模型与计算平台结合,以便为 AIGC 提供更加高效、智能的支持,仍然是一个关键问题。蓝耘智算与通义万相 2.1 的结合为解决这一问题提供了新的方向。这种创新的技术融合使得 AIGC 可以不仅仅依赖于数据处理的能力,还可以实现智能化的生成和创作,推动内容创作的未来。 2. 蓝耘智算:为 AIGC 提供智能支持 2.1 蓝耘智算简介 蓝耘智算是一种综合性计算平台,专注于为大规模人工智能应用提供优化计算资源。在过去几年中,蓝耘智算不断发展壮大,已成为许多行业中的顶尖计算平台之一,广泛应用于机器学习、

零代码体验AI写作:Qwen2.5-32B-Instruct网页版直接调用

零代码体验AI写作:Qwen2.5-32B-Instruct网页版直接调用 你是否试过在浏览器里点几下,就让一个320亿参数的大模型为你写方案、改文案、理逻辑、编报告?不用装环境、不写代码、不配GPU——连终端都不用打开。 这次我们不聊本地部署、不讲Docker编排、不碰vLLM配置。我们就用最轻的方式,把Qwen2.5-32B-Instruct这个当前中文能力顶尖的开源大模型,直接“请”进你的浏览器里,像用搜索引擎一样提问,像发微信一样获得专业级文字输出。 这不是概念演示,而是真实可用的网页服务;不是简化阉割版,而是完整支持128K上下文、8K长文本生成、结构化数据理解与JSON输出的原生能力。它背后跑的是Ollama轻量推理框架,但对你来说——只有输入框和回车键。 下面带你全程零门槛上手,从打开页面到写出第一段可商用文案,5分钟搞定。 1. 为什么是Qwen2.5-32B-Instruct?它到底强在哪 先说结论:它不是“又一个大模型”,而是目前开源生态中,中文理解+逻辑表达+工程落地能力最均衡的32B级选手。我们不堆参数,只看你能用它做什么。 1.1

node-llama-cpp安装与配置:Windows、Linux和Mac全平台教程

node-llama-cpp安装与配置:Windows、Linux和Mac全平台教程 【免费下载链接】node-llama-cppRun AI models locally on your machine with node.js bindings for llama.cpp. Force a JSON schema on the model output on the generation level 项目地址: https://gitcode.com/gh_mirrors/no/node-llama-cpp node-llama-cpp是一个基于llama.cpp的Node.js绑定库,让你能够在本地机器上运行AI模型,并在生成级别强制模型输出符合JSON模式。本文将为你提供Windows、Linux和Mac全平台的安装与配置教程,帮助你快速上手这款强大的AI工具。 一、准备工作 在开始安装node-llama-cpp之前,请确保你的系统满足以下要求: