Ubuntu DeepSeek R1本地化部署 Ollama+Docker+OpenWebUI

1 显卡安装

#查看显卡型号 llh@study:~/soft$ lspci | grep -i nvidia 10:00.0 VGA compatible controller: NVIDIA Corporation TU116 [GeForce GTX 1660 SUPER] (rev a1) 10:00.1 Audio device: NVIDIA Corporation TU116 High Definition Audio Controller (rev a1) 10:00.2 USB controller: NVIDIA Corporation TU116 USB 3.1 Host Controller (rev a1) 10:00.3 Serial bus controller: NVIDIA Corporation TU116 USB Type-C UCSI Controller (rev a1 #查看推荐驱动 llh@study:~/soft$ sudo ubuntu-drivers devices 
sudo apt install nvidia-driver-580 #安装完成 重启服务器 sudo reboot
#验证驱动是否安装成功 llh@study:~$ nvidia-smi 

2 安装docker

curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo apt-key add - sudo add-apt-repository "deb [arch=amd64] https://download.docker.com/linux/ubuntu $(lsb\_release -cs) stable" sudo apt-get update sudo apt-get install docker-ce # sudo systemctl start docker # docker --version

3 安装 Ollama

#下载自动安装脚本 wget https://ollama.com/install.sh . #安装 sudo sh install.sh
#验证服务 sudo systemctl status ollama #查看版本 ollama --version
#配置局域网访问 sudo vim /etc/systemd/system/ollama.service [Service] Environment="OLLAMA_HOST=0.0.0.0:11434" # 监听所有网卡 Environment="OLLAMA_ORIGINS=*" # 允许跨域请求,测试环境 # sudo systemctl daemon-reload sudo systemctl restart ollama

4 模型下载

ollama pull deepseek-r1:7b #查看本地模型 llh@study:~/soft$ ollama list NAME ID SIZE MODIFIED deepseek-r1:7b 755ced02ce7b 4.7 GB About a minute ago #删除 ollama rm deepseek-r1:7b

5 运行模型

ollama run deepseek-r1:7b

Read more

AIGC - Raphael AI:全球首个无限制免费 AI 图片生成器

AIGC - Raphael AI:全球首个无限制免费 AI 图片生成器

文章目录 * 引言 * 一、Raphael AI 是什么? * 二、核心引擎:Flux.1-Dev 与 Flux Kontext * 1. Flux.1-Dev:极速与精细的结合 * 2. Flux Kontext:精确的语义理解 * 三、主要功能一览 * 1. 零成本创作 * 2. 多风格引擎 * 3. 高级文本理解 * 4. 极速生成 * 5. 隐私保护 * 四、实测体验与使用方式 * 五、与其他 AI 绘图平台的对比 * 六、未来发展与生态计划 * 七、总结:AI 创意的平权时代 引言 在生成式 AI 技术飞速发展的时代,图像生成的门槛正在被彻底打破。

RMBG-2.0多任务协同方案:接入Stable Diffusion工作流,生成→抠图→合成一体化

RMBG-2.0多任务协同方案:接入Stable Diffusion工作流,生成→抠图→合成一体化 1. 为什么抠图成了AI图像工作流的“卡点”? 你有没有遇到过这样的场景:用Stable Diffusion生成了一张绝美的角色立绘,但背景太杂乱,想换到电商详情页却卡在了抠图环节?手动PS耗时半小时,AI在线工具又担心图片上传泄露隐私,还动不动就崩掉——毛发边缘糊成一片,玻璃杯透明感全无,甚至把飘动的发丝直接切掉。 这不是个别现象。大量设计师、内容创作者、电商运营者反馈:生成容易,落地难;模型很炫,流程断在抠图这一步。 而RMBG-2.0(BiRefNet)的出现,正在悄悄改变这个局面。它不是又一个“差不多能用”的抠图工具,而是首个真正意义上能无缝嵌入本地AI图像工作流的高精度、低延迟、零隐私风险抠图引擎。它不只解决“能不能抠”,更解决“抠完怎么用”——直接对接SD WebUI、ComfyUI、乃至自定义Python脚本,让“生成→

在Windows11利用llama.cpp调用Qwen3.5量化模型测试

1.下载llama.cpp二进制文件 访问 https://github.com/ggml-org/llama.cpp/releases 或者 https://bgithub.xyz/ggml-org/llama.cpp/releases 选择适合自己平台的。我没有独立显卡,所以选择CPU版本 https://bgithub.xyz/ggml-org/llama.cpp/releases/download/b8192/llama-b8192-bin-win-cpu-x64.zip 解压到\d\llama8\目录。 2.下载量化模型 按照 章北海mlpy 公众号:Ai学习的老章~ID:mindszhang666 写的知乎文章Qwen3.5 0.8B/2B/