本周AI开发者必学:Qwen 3.5 MoE 本地部署,10分钟跑通完整版

本周AI开发者必学:Qwen 3.5 MoE 本地部署,10分钟跑通完整版

文章目录

无意间发现了一个ZEEKLOG大神的人工智能教程,忍不住分享一下给大家。很通俗易懂,重点是还非常风趣幽默,像看小说一样。床送门放这了👉 http://blog.ZEEKLOG.net/jiangjunshow

开篇:你的显卡终于不用吃灰了

朋友,你电脑里那块 RTX 3060 是不是已经沦为"蒸汽平台专属显卡"了?每天除了打《黑神话:悟空》就是对着桌面发呆。别着急,这周阿里放了个大招——Qwen 3.5 MoE 全系列开源,尤其是那个 35B-A3B 的"显存刺客"版本,用 3B 的激活参数干 35B 参数的活儿,堪称"显存不够,智商来凑"的典范。

所谓 MoE(Mixture of Experts,混合专家模型),你可以理解为 AI 界的"会诊制度"。普通模型是个"全科医生",啥病都得看;MoE 则是"专家会诊台",来了病人先分给对应科室的专家,既保证了专业度,又不需要把所有专家都请到现场——省电省显存,聪明得很。

今天这篇就带你用 Ollama 一把梭,从下载到跑通 API,全程不用配 Python 环境,不用折腾 PyTorch,十分钟让你的本地大模型从" PPT 阶段"进入"生产环境"。


一、选型指南:你的显卡能跑哪个版本?

Qwen 3.5 这次发布堪称"全家桶式开卷",从手机能跑的 0.8B 到工作站专属的 35B,全给你安排明白了。但别一上来就冲着最大的下载,先看看你机箱里那位"煤气灶"的成色:

显存 4GB 以下(轻薄本/老显卡)

选 0.8B 或 2B 版本。这俩是"Lite 版",虽然脑子小点,但写个周报、翻译个文档完全够用,关键是 CPU 都能跑,风扇都不带转的。

显存 8GB(RTX 3060/4060 笔记本)

闭眼入 9B 版本。这是甜点级,中文能力对标早期 GPT-4,写代码、写文案一手抓,显存占用大概 6GB 左右,还能留点余量挂个微信。

显存 16GB 以上(RTX 4080/4090 富哥)

直接上 35B-A3B MoE。这个版本 total 参数 35B,但每次只激活 3B 参数,推理时显存占用和 7B 模型差不多,但智商直接对标 GPT-4o mini。用 llama.cpp 跑 Q4_K_M 量化版,24GB 显存能吃得消。

苹果 M 系列用户

恭喜你们,统一内存架构就是为 MoE 而生的。M3 Pro 以上机型跑 9B 版本流畅得跟原生应用似的,M3 Max 甚至可以试试 35B 版本。


二、Ollama 一键安装:比装微信还简单

别被那些"先装 CUDA、再配 PyTorch、最后编译 llama.cpp"的教程吓退,咱们用 Ollama——这工具堪称大模型界的"Docker Hub",一个命令行工具搞定所有环境。

Windows/macOS 用户:

直接去 ollama.com 下载安装包,双击、下一步、完成。安装完后右下角会出现个羊驼图标,说明服务已经跑起来了。

Linux 用户(Ubuntu/Debian):

一条命令搞定:

curl-fsSL https://ollama.com/install.sh |sh

装完后验证一下:

ollama --version

输出类似 ollama version 0.5.1 就算成功。

国内网络加速技巧:

如果下载慢,可以设置镜像源。在终端输入(Windows 用 PowerShell):

Windows PowerShell

$env:OLLAMA_HOST="0.0.0.0"

Linux/macOS

exportOLLAMA_HOST=0.0.0.0 

三、模型下载:挑个"媳妇"娶回家

Ollama 的模型库就是个"应用商店",咱们直接搜 qwen3.5。这里有个坑要注意:MoE 版本和普通版本的命名规则不一样,别下错了。

查看可用模型:

ollama pull qwen3.5:9b 

这条命令会开始下载 9B 版本。如果你要 MoE 版本,目前 Ollama 库中可能显示为 qwen3.5:35b 或类似的标签。下载时盯着终端看,速度取决于你的宽带,一般来说 9B 版本大概 5GB 左右,35B 量化版大约 20GB。

下载完成后测试:

ollama run qwen3.5:9b 

这时候你会进入交互模式,光标闪烁处直接打字:

用鲁迅的口吻评价一下程序员写代码不写注释

如果看到模型开始"之乎者也"地吐槽,说明部署成功。按 Ctrl+D 退出对话。


四、API 接口封装:让你的代码也能调用

光在终端聊天可不行,咱们得让 Python/Java 代码也能调用。Ollama 自带兼容 OpenAI 格式的 API,这就是"披着羊驼皮的 ChatGPT"。

启动 API 服务:

ollama serve 

这条命令会在后台挂起服务,默认监听 localhost:11434

Python 调用示例:

from openai import OpenAI # 初始化客户端,api_key 随便填,base_url 指向本地 client = OpenAI( base_url='http://localhost:11434/v1', api_key='ollama'# 本地部署不需要验证,但参数必须给)# 调用对话接口 response = client.chat.completions.create( model='qwen3.5:9b',# 必须和 ollama list 显示的完全一致 messages=[{'role':'system','content':'你是个毒舌但专业的编程助手'},{'role':'user','content':'帮我写个 Python 爬虫,爬取豆瓣电影 Top250'}], stream=True# 流式输出,打字机效果)# 处理流式响应for chunk in response:if chunk.choices[0].delta.content:print(chunk.choices[0].delta.content, end='', flush=True)

Java/Spring Boot 调用示例:

@RestControllerpublicclassAIController{@PostMapping("/chat")publicSseEmitterchat(@RequestBodyString message){SseEmitter emitter =newSseEmitter();WebClient client =WebClient.builder().baseUrl("http://localhost:11434").build();Map body =Map.of("model","qwen3.5:9b","messages",List.of(Map.of("role","user","content", message)),"stream",true); client.post().uri("/api/chat").bodyValue(body).retrieve().bodyToFlux(String.class).subscribe(data ->{try{ emitter.send(data);}catch(Exception e){ emitter.completeWithError(e);}}, emitter::completeWithError, emitter::complete);return emitter;}}

五、进阶玩法:开启"深度思考"模式

Qwen 3.5 有个隐藏技能——思考模式(Thinking Mode)。默认情况下,9B 及以下版本为了省算力是关闭的,但你可以手动开启,让模型像 o1 一样"深呼吸"再回答。

临时开启(单次对话):

ollama run qwen3.5:9b --chat-template-kwargs '{"enable_thinking":true}'

永久开启(修改 Modelfile):

先导出当前模型的配置:

ollama show qwen3.5:9b --modelfile> Modelfile 

编辑这个文件,在 FROM 行下面添加:

FROM qwen3.5:9b # 启用思考模式 PARAMETER temperature 0.7 SYSTEM 你是一个擅长深度推理的 AI 助手,回答前请先逐步思考 

然后创建新模型:

ollama create qwen3.5-thinking -f Modelfile ollama run qwen3.5-thinking 

这时候问它"证明一下哥德巴赫猜想",你会看到它先输出一堆 `` 标签包裹的思考过程,最后给出结论——虽然还是证不出来,但过程看着就很专业。


六、多模态实战:让 AI 看懂你的截图

如果你下载的是 Qwen3.5-VL 版本(视觉模型),它还能看懂图片。这个在写前端代码时特别有用——直接把 UI 设计稿截图扔给它,让它生成 HTML/CSS。

Python 多模态调用:

import base64 # 读取图片转 base64withopen("ui_design.png","rb")as f: image_base64 = base64.b64encode(f.read()).decode('utf-8') response = client.chat.completions.create( model='qwen3.5-vl:7b',# VL 版本 messages=[{"role":"user","content":[{"type":"text","text":"把这个设计稿转成 HTML+Tailwind CSS 代码"},{"type":"image_url","image_url":{"url":f"data:image/png;base64,{image_base64}"}}]}])

避坑指南:

图片别太大,建议压缩到 1024x1024 以下,不然显存会炸。如果显存不足,Ollama 会自动 fallback 到 CPU 模式,那时候速度就比 2G 网络还慢了。


七、性能调优:榨干最后一滴显存

1. 上下文长度控制

Qwen 3.5 支持 256K 上下文,但默认可能只开 4K。在 Modelfile 里加一行:

PARAMETER num_ctx 8192 

显存够的话可以开到 32K,写长篇小说续写都没问题。

2. GPU offload 调优

如果你用 llama.cpp 而非 Ollama,可以精细控制层数:

./llama-cli -m qwen3.5-9b-Q4_K_M.gguf \ --n-gpu-layers 35\-c8192\--temp0.7

--n-gpu-layers 35 表示把 35 层权重扔给显卡,剩下的 CPU 扛。数字越大显存占用越高,根据实际情况调。

3. 并发优化

默认 Ollama 只处理一个请求,想同时服务多个用户:

exportOLLAMA_NUM_PARALLEL=4exportOLLAMA_MAX_LOADED_MODELS=2 ollama serve 

八、生产环境部署:从玩具到工具

如果你要把这个部署到公司内网,别直接用 ollama run,得用 Docker 封装:

version:'3.8'services:ollama:image: ollama/ollama:latest volumes:- ./models:/root/.ollama ports:- 11434:11434deploy:resources:reservations:devices:-driver: nvidia count:1capabilities:[gpu]

配合 Open-WebUI 或者 Cherry Studio,你就能得到一个完全私有化、数据不出域的 ChatGPT 替代品。


结语:本地部署的文艺复兴

以前我们总说"本地部署大模型"是极客的玩具,又慢又笨。但 Qwen 3.5 MoE 架构的出现,加上 Ollama 这种"傻瓜式"工具,让这件事变得比配 Java 环境还简单。4GB 显存就能跑,断网也能用,数据还留在自己硬盘里——这对于处理合同、病历、内部文档的开发者来说,简直是刚需。

这周花十分钟搭起来,下周你的同事还在排队申请 GPT-4 API 额度的时候,你已经在本地跑完了一百份文档的总结。技术这玩意儿,有时候"快"就是"好",“本地"就是"自由”。

赶紧试试吧,别让显卡再闲置了。

Read more

Llama-Factory是否支持强化学习微调?RLHF模块进展

Llama-Factory 是否支持强化学习微调?RLHF 模块进展深度解析 在大模型时代,如何让一个“通才”变成懂你心思的“专家”,是每个开发者都在思考的问题。预训练语言模型虽然知识渊博,但生成内容常常天马行空、缺乏边界。监督微调(SFT)能教会它基本对话能力,可要让它真正理解人类偏好——比如更喜欢简洁回答而非啰嗦段落、避免敏感话题、保持逻辑连贯——仅靠标注好的输入-输出对已经不够了。 这时候,基于人类反馈的强化学习(RLHF) 就成了关键突破口。ChatGPT 的惊艳表现背后,正是 RLHF 在起作用:不是直接告诉模型“该说什么”,而是通过大量“这个回答比那个好”的比较数据,训练出一个打分器(奖励模型),再用这个打分器去引导主模型一步步优化自己的输出策略。 听起来很美,但落地极难。RLHF 是一条由 SFT → 奖励模型训练 → PPO 强化学习组成的复杂流水线,涉及多个模型协同、分布式计算调度和算法稳定性控制。对于大多数团队来说,从零搭建这样一套系统成本太高。

前端营销(AIGC II)

前端营销(AIGC II)

营销并非传统意义上的“前端创意投放”,而是深度内嵌于供应链、流量、用户、商品、场域的中台化运营体系。京东上下游链路极长,从采销、仓储、履约到流量分发、转化成交、用户复购,营销的核心价值是整合——找准人、选好货、用对场。前端在这里不再只是“做页面”,而是承接中台能力、串联全链路、支撑多品类快节奏运营的关键枢纽。 本文从业务理解与技术实现两大维度,系统拆解京东营销前端的真实角色、能力边界与工程实践。 一、业务理解:先懂营销,再写代码 京东营销前端的起点,是对齐业务本质:营销偏中台、本质是运营。前端必须把业务逻辑吃透,才能用技术支撑“整合”核心目标。 1.1 京东营销的核心定位:整合型运营中台 * 核心价值:人-货-场全域整合 * 人:搜推用户、PLUS会员、校园人群、CPS渠道人群、品牌定向人群 * 货:

买不起显卡怎么玩AI语音?Whisper云端镜像5分钟上手

买不起显卡怎么玩AI语音?Whisper云端镜像5分钟上手 你是不是也遇到过这样的情况:想做一个酷炫的AI语音项目参加比赛,但家里电脑配置太低,连个独立显卡都没有?父母一听要花上万块买设备就摇头,而你又不想放弃这个展示创意的机会。别急——现在有一种方法,不用买显卡、不依赖高性能电脑,也能在5分钟内跑通最先进的语音识别模型。 这就是我们要聊的主角:Whisper云端镜像。它基于OpenAI开源的Whisper语音识别技术,专为资源有限的小白用户设计。无论你是高中生做AI创新赛项目,还是初学者想试试语音转文字功能,都可以通过ZEEKLOG提供的预置镜像,在云端快速部署并使用强大的语音识别能力。 这篇文章就是为你量身打造的实战指南。我会带你一步步操作,从零开始,不需要懂代码细节,也不需要自己装环境,只要跟着步骤点击几下,就能让Whisper模型帮你把录音自动转成文字,甚至还能支持多语言翻译和时间戳标注!整个过程就像打开一个网页应用那么简单。 学完这篇,你能做到: * 理解Whisper是什么、能干什么 * 在低配电脑上实现高精度语音转写 * 快速部署并调用云端AI模型服务

Diffusers中文教程:从AI绘画小白到高手的完整指南

Diffusers中文教程:从AI绘画小白到高手的完整指南 【免费下载链接】diffusersDiffusers:在PyTorch中用于图像和音频生成的最先进扩散模型。 项目地址: https://gitcode.com/GitHub_Trending/di/diffusers 快速上手:5分钟创作你的第一幅AI画作 还在为复杂的AI绘画配置发愁?别担心,跟着我一起,用最简单的步骤快速体验AI绘画的魅力! 首先,让我们准备基础环境: # 创建专属AI绘画环境 python -m venv ai_painting_env source ai_painting_env/bin/activate # 一键安装核心包 pip install diffusers transformers accelerate torch 现在,让我们用三行代码生成第一幅作品: from diffusers import StableDiffusionPipeline import torch # 魔法开始!