Ubuntu DeepSeek R1本地化部署 Ollama+Docker+OpenWebUI

1 显卡安装

#查看显卡型号 llh@study:~/soft$ lspci | grep -i nvidia 10:00.0 VGA compatible controller: NVIDIA Corporation TU116 [GeForce GTX 1660 SUPER] (rev a1) 10:00.1 Audio device: NVIDIA Corporation TU116 High Definition Audio Controller (rev a1) 10:00.2 USB controller: NVIDIA Corporation TU116 USB 3.1 Host Controller (rev a1) 10:00.3 Serial bus controller: NVIDIA Corporation TU116 USB Type-C UCSI Controller (rev a1 #查看推荐驱动 llh@study:~/soft$ sudo ubuntu-drivers devices 
sudo apt install nvidia-driver-580 #安装完成 重启服务器 sudo reboot
#验证驱动是否安装成功 llh@study:~$ nvidia-smi 

2 安装docker

curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo apt-key add - sudo add-apt-repository "deb [arch=amd64] https://download.docker.com/linux/ubuntu $(lsb\_release -cs) stable" sudo apt-get update sudo apt-get install docker-ce # sudo systemctl start docker # docker --version

3 安装 Ollama

#下载自动安装脚本 wget https://ollama.com/install.sh . #安装 sudo sh install.sh
#验证服务 sudo systemctl status ollama #查看版本 ollama --version
#配置局域网访问 sudo vim /etc/systemd/system/ollama.service [Service] Environment="OLLAMA_HOST=0.0.0.0:11434" # 监听所有网卡 Environment="OLLAMA_ORIGINS=*" # 允许跨域请求,测试环境 # sudo systemctl daemon-reload sudo systemctl restart ollama

4 模型下载

ollama pull deepseek-r1:7b #查看本地模型 llh@study:~/soft$ ollama list NAME ID SIZE MODIFIED deepseek-r1:7b 755ced02ce7b 4.7 GB About a minute ago #删除 ollama rm deepseek-r1:7b

5 运行模型

ollama run deepseek-r1:7b

Read more

开源 AI 工具 OpenClaw 安装详解,Windows 本地部署超简单

开源 AI 工具 OpenClaw 安装详解,Windows 本地部署超简单

2026 年开源圈热度很高的 AI 工具 OpenClaw,也被大家叫做 “小龙虾”,凭借本地运行、操作简单、能自动完成电脑任务等特点,受到不少办公用户和技术爱好者欢迎。和普通 AI 聊天工具不同,OpenClaw 可以直接根据自然语言指令,自动操作电脑、处理文件、执行重复工作,让日常办公效率明显提升。 不少想体验的朋友,都卡在环境配置、命令行操作这些步骤上。这篇文章就针对 Windows 用户,整理一套完整的一键部署流程,不用配置 Python、Node.js,不用敲代码,跟着步骤走就能快速搭建好自己的本地 AI 智能体。后续还会更新更多进阶用法和实用技巧,建议收藏方便回看。 一、OpenClaw 小龙虾有哪些亮点 OpenClaw 之所以受欢迎,核心是解决了普通 AI 工具门槛高、隐私顾虑、功能不够实用等问题,整体使用体验更贴近日常需求: * 本地运行,数据不联网,

医疗AI多智能体资源调度:用Python构建高性能MCU资源池

医疗AI多智能体资源调度:用Python构建高性能MCU资源池

作者 | Allen_lyb 发布时间 | 2026年1月 标签 | #Python #异步编程 #医疗AI #资源调度 #系统架构 引言 最近在重构我们的医疗AI服务平台时,遇到了一个典型的多智能体资源争用问题。想象一下这样的场景: * 急诊风险预警智能体检测到患者可能发生脓毒症,需要立即调用GPU进行推理 * 同时,影像分析智能体正在处理一批CT扫描,也需要GPU资源 * 质控智能体要分析医嘱合规性,需要调用大语言模型接口 * 病历总结智能体正在为出院患者生成报告 所有智能体都在"抢"有限的GPU卡、模型并发槽位、API调用额度。如果让每个智能体自己管理资源抢占,结果就是: 1. 资源利用不均:有的GPU卡空闲,有的被排队挤爆 2. 优先级混乱:急诊任务可能被常规任务阻塞 3. 无法审计:谁占用了什么资源?为什么失败?说不清楚 这就是我们需要一个中央调度器的原因。在多方会议系统中,这类组件被称为MCU(多点控制单元)

AI世界模型(World Model)全解析:技术原理、研究进展与产业落地

AI世界模型(World Model)全解析:技术原理、研究进展与产业落地 摘要:世界模型(World Model)作为连接AI感知、决策与行动的核心枢纽,正成为突破通用人工智能(AGI)瓶颈的关键技术。本文从概念溯源、理论基础出发,系统剖析世界模型的技术架构、核心分类与实现方法,结合2024-2026年最新研究成果(如LeCun团队潜在动作世界模型、DIAMOND扩散模型)与产业落地案例,深入探讨其在强化学习、游戏开发、自动驾驶、机器人等领域的应用价值,最后梳理当前技术挑战并展望未来研究方向。全文兼顾学术深度与工程实践,为AI研究者与技术从业者提供全面的世界模型知识体系。 一、引言:从“符号拟合”到“世界理解”,AI的认知革命 1.1 大语言模型的认知瓶颈 自ChatGPT掀起大模型浪潮以来,大语言模型(LLM)凭借海量文本数据的统计拟合能力,在语义理解、内容生成、逻辑推理等领域展现出惊人实力。但在杨立昆、李飞飞等顶尖学者眼中,当前LLM仍是“

GLM-4.7 & MiniMax M2.1 限免上线!工程级 Agent 模型正式接入 AI Ping

GLM-4.7 & MiniMax M2.1 限免上线!工程级 Agent 模型正式接入 AI Ping

前言:从"能生成"到"能长期跑"的工程级大模型 大模型产业落地阶段,工程交付稳定性与长时 Agent 运行效率成为核心衡量标准,GLM-4.7 与 MiniMax M2.1 作为国产模型两条差异化成熟路线的代表,跳出单轮生成质量局限,聚焦真实场景长期稳定运行能力。AI Ping 平台整合多供应商资源,实现两款旗舰模型免费开放与统一调度,通过标准化测试、可视化看板与智能路由,为用户搭建从选型到落地的便捷桥梁。 呼朋唤友薅羊毛,Token白给不限量! 🎁AI Ping(aiping.cn)邀友福利来袭!邀请好友完成注册,双方各得 20 元平台算力点,所有模型及供应商全场通用,邀友无上限、福利赚不停,赶紧分享解锁双重福利~https://aiping.cn/#?channel_partner_