MS-S1 MAX,AI MAX 395在Ubuntu24利用Vulkan版llama.cpp运行gpt-oss 120b

MS-S1 MAX,AI MAX 395在Ubuntu24利用Vulkan版llama.cpp运行gpt-oss 120b

1、安装amd gpu驱动和Rocm

wget https://repo.radeon.com/amdgpu-install/7.1.1/ubuntu/noble/amdgpu-install_7.1.1.70101-1_all.deb sudo apt install ./amdgpu-install_7.1.1.70101-1_all.deb sudo apt update sudo apt install "linux-headers-$(uname -r)" "linux-modules-extra-$(uname -r)" sudo apt install amdgpu-dkms sudo apt install python3-setuptools python3-wheel sudo usermod -a -G render,video $LOGNAME sudo apt install rocm 

参考官网

2、通过GTT解锁96G显存

1、进入bios->setup->advanced->NBIO common options->GFX configuration->UMA Frame buffer size改显存
2、修改grub

vim /etc/default/grub #设置保存 GRUB_CMDLINE_LINUX_DEFAULT="quiet splash amd_iommu=off ttm.pages_limit=27648000 ttm.page_pool_size=27648000 amdttm.pages_limit=27648000 amdttm.page_pool_size=27648000 apparmor=0" update-grub 

重启生效
参考b站大佬

3、安装vulkan

sudo apt install vulkan-tools 

4、下载llama.cpp release,硬要自己编译也可以

下载页

wget https://github.com/ggml-org/llama.cpp/releases/download/b7503/llama-b7503-bin-ubuntu-vulkan-x64.tar.gz #进入目录 #去https://hf-mirror.com/ggml-org/collections中找自己想要部署的模型,里边有运行命令 ./llama-server -hf ggml-org/gpt-oss-120b-GGUF -c 0 --jinja #文件下载到~/.cache/llama.cpp/目录中 

5、安装amdgpu_top

sudo dpkg -i amdgpu-top_0.11.0-1_amd64.deb sudo amdgpu_top 

6、最终效果

如果你的token速度只有二十几,那就是纯cpu算的没跑了

在这里插入图片描述


amdgpu_top验证

在这里插入图片描述


注意,如果你要用其他电脑访问,需要增加参数–host 0.0.0.0,具体参考文档

Read more

5个超实用nano banana提示词网站!7000条灵感任你选,秒变AI绘画大神!

5个超实用nano banana提示词网站!7000条灵感任你选,秒变AI绘画大神!

最近刷社交媒体,到处都是nano banana生成的惊艳图片,朋友圈都快被刷屏了! 抱着"吃瓜"的心态试了一下, 结果直接被谷歌的nano banana狠狠震撼到了!😱 不多说,直接上干货——精心整理了近7000条提示词玩法大全,保证让你从小白秒变大神! 资源名称收录提示词数量推荐原因资源链接youwind5676提示词多https://youmind.com/zh-CN/nano-banana-pro-promptsaiwind1000+提示词多https://aiwind.org/Awesome-Nano-Banana-images1102万颗星推荐https://github.com/PicoTrex/Awesome-Nano-Banana-imagesawesome-nano-banana1008千多颗星推荐https://github.com/JimmyLv/awesome-nano-bananaawesome-nanobanana-pro69分类全,案例实用https://github.com/ZeroLu/awesome-nanobanana-pro

VS Code + WSL 下 GitHub 访问不稳定 & Copilot/Codex 一直 Thinking 的完整解决方案(国内平台安全版)

VS Code + WSL 下 GitHub 访问不稳定 & Copilot/Codex 一直 Thinking 的完整解决方案(国内平台安全版) 本文记录一次开发环境排查过程: 从 VS Code + WSL 环境下 GitHub 克隆失败,到 Copilot/Codex 长时间停在 “Thinking…” 的完整解决步骤。 特别说明: 文中提到的 “网络辅助工具”“连接加速端口”“外网连通性优化” 都指代常见的 网络优化方式,用于解决访问境外开发资源时的稳定性问题(GitHub、Copilot 等)。 📌 一、问题概述 使用 VS Code + WSL 进行开发时可能遇到以下问题: ❌ 1. Git clone 失败 fatal:

论文查重太贵?这些自带免费查重功能的AI写作工具帮你省钱

论文查重太贵?这些自带免费查重功能的AI写作工具帮你省钱

论文查重太贵?这些自带免费查重 + 降重 + 去 AI 味的写作工具,学生党直接用,帮你省下几百块查重费。 一、核心推荐:免费查重 + 降重双强(学生首选) 1. PaperRed(中文双降天花板) * 免费查重:每日1-2 次免费查重,新用户额外多轮免费;AIGC 检测每日2 次免费。 * 核心优势: * 查重结果与知网误差 **<2%**,适配高校系统。 * 语义级降重:重复率45%→8.77%,AIGC 率稳定 **<5%**,保留专业术语。 * 免费格式排版、文献引用、答辩 PPT 生成。 * 适合:本科 / 硕博初稿、多次修改、AI 内容自查。 2. 毕业之家(

2026 AI编程工具Agent时代终极横评:Cursor vs Claude Code vs Windsurf vs Copilot

2026 AI编程工具Agent时代终极横评:Cursor vs Claude Code vs Windsurf vs Copilot

上一篇AI视频生成后Sora时代:Wan 2.6、Seedance与Kling重塑格局 下一篇2026Q1 AI季报:从模型竞争到系统竞争,Coding→Agent大主线全解析 摘要 2026年,AI编程工具从"代码补全"正式进入"编程Agent"时代。Cursor以8 Agent并行开发领跑体验,Claude Code以SWE-bench 80.8%的Agent能力成为重度用户首选,Windsurf以$15/月的定价提供Cursor级功能,GitHub Copilot以$10/月保持最高性价比入门档。本文基于2026年3月最新实测数据,从七个维度全面对比四款工具,助你找到最适合团队的AI编程助手。 核心结论:单论Agent能力,Claude Code(SWE-bench 80.8%)是当前最强;单论IDE体验和补全质量,Cursor(Supermaven)领先;