ollama 模型管理、删除模型 、open-webui 开启大模型交互

ollama 模型管理、删除模型 、open-webui 开启大模型交互
0-9


文章目录

ollama 基本信息

  • https://ollama.com/
1-001
ollama 运行模型
命令行执行即可

0.6B parameter model

ollama run qwen3:0.6b 

1.7B parameter model

ollama run qwen3:1.7b 

4B parameter model

ollama run qwen3:4b 

ollama 模型管理

要删除 Ollama 中的本地模型,可以通过命令行工具(CLI)或 API 操作。以下是具体步骤和注意事项:

🔧 方法一:使用命令行删除单个模型

删除指定模型
使用 ollama rm <模型名称> 命令删除目标模型:

ollama rm deepseek-r1:8b

输出deleted 'deepseek-r1:8b'

查看已安装模型列表
运行以下命令确认模型名称和版本:

ollama list

示例输出

NAME ID SIZE MODIFIED deepseek-r1:8b28f8fd6cdc674.9 GB 10 hours ago qwen2.5-3b:latest fe5cd25d719e 2.1 GB 24 hours ago 

⚙️ 方法二:批量删除所有模型

若需清理全部模型,可结合命令一次性删除:

ollama list |awk'{print $1}'|xargs -I {} ollama rm{}
  • 作用:自动获取所有模型名称并逐一删除。
  • 注意:此操作不可逆,需谨慎使用!

🗑️ 方法三:彻底卸载 Ollama(含所有数据)

如果不再需要 Ollama,可完全卸载并清理残留文件:

  1. 卸载软件
  2. 删除数据目录
      • Windows:C:\Users\<用户名>\.ollama
      • macOS/Linux:~/.ollama

所有系统:手动删除 Ollama 的数据存储目录:

rm -rf ~/.ollama # Linux/macOS

Linux

sudorm /usr/local/bin/ollama sudorm -rf /usr/share/ollama 

macOS (Homebrew)

brew uninstall ollama 

Windows

winget uninstall ollama 

⚠️ 注意事项

  1. 模型恢复
    删除后模型无法恢复,需重新通过 ollama pull 下载。

缓存清理
若曾通过 Hugging Face 独立下载模型,需额外清理缓存:

rm -rf ~/.cache/huggingface/hub/models--deepseek-ai* 

服务状态
删除模型前无需停止 Ollama 服务,但卸载软件前需终止相关进程:

pkill ollama # macOS/Linux Stop-Process -Name "ollama" -Force # Windows

验证是否删除成功

  • 运行 ollama list,若无输出则说明所有模型已清除。
  • 检查磁盘空间:删除后原模型占用的空间(如 4.9GB)应被释放。

open-webui 安装 开启大模型交互

open-webui pip 安装
conda activate base pip install open-webui 
open-webui 启动服务
open-webui serve --port 8082
浏览器访问 http://IP:8082/ :
  • http://IP:8082/
  • 邮箱注册账号,即可通过 open-webui 开启大模型交互
1-001

❤️ 时不我待,一起学AI


9-9

Read more

基于FPGA的USB2.0 UTMI PHY芯片测试方案设计与实现

1. 从零开始:为什么我们需要一个FPGA测试平台? 大家好,我是老张,在芯片验证这个行当里摸爬滚打了十几年。今天想和大家聊聊一个非常具体、但又很实际的问题:当你拿到一颗全新的USB2.0 PHY芯片,比如Cypress的CY7C68000,你怎么知道它到底好不好用?数据收发准不准?协议符不符合标准? 你可能说,上昂贵的专业测试仪啊!没错,但动辄几十万上百万的仪器,不是每个团队、每个项目都能轻松配备的。而且,专业仪器往往是个“黑盒”,你只知道结果,对内部数据流的细节和实时状态把控不够灵活。这时候,基于FPGA的自建测试平台就显示出它的巨大优势了。它就像你自己搭的一个乐高工作台,每一个模块、每一根信号线你都能看得见、摸得着、改得了。 我这次用的核心是Xilinx的XCVU440这块FPGA。选它,一是性能足够强悍,能轻松应对USB2.0高速(480Mbps)模式下的数据处理;二是它的资源丰富,我可以把MicroBlaze软核处理器、各种总线转换逻辑、调试探针全都塞进去,形成一个片上系统(SoC)。整个方案的目标很明确:用FPGA模拟一个“智能主机”,通过标准的UTMI接口去“

最新 AI 论文盘点(2026-03-18):6 篇新作看记忆、长上下文、医疗评测、机器人策略与世界模型

最新 AI 论文盘点(2026-03-18):6 篇新作看记忆、长上下文、医疗评测、机器人策略与世界模型 今天这批新论文里,我觉得有几条线特别值得看。 一条是 LLM / Agent 的记忆与长上下文,讨论怎么把“记住信息”和“真正用好上下文”这两件事拆开来做。 一条是医疗与真实场景评测,重点不再是静态 benchmark,而是更贴近临床和工作流的真实使用偏好。 还有一条是机器人与具身智能,不少工作开始把重点放在“少改模型、更多利用结构和搜索”上,而不是一味增大训练规模。 这篇挑 6 篇我认为更值得盘的论文,尽量少复述摘要,多讲它到底在解决什么问题、方法核心新在哪里、为什么值得关注、局限和边界是什么。 1. NextMem:给 LLM Agent 做“潜在事实记忆” 论文: NextMem: Towards Latent Factual

论文阅读--Agent AI 探索多模态交互的前沿领域(一)

论文阅读--Agent AI 探索多模态交互的前沿领域(一)

这篇文章是近来介绍 Agent AI 非常全面的一篇综述,围绕多模态交互与通用人工智能(AGI)的发展需求展开,融合了学术研究积累、技术突破与行业应用诉求。整篇文章的结构如下: 摘要 多模态人工智能系统有望在我们的日常生活中普及。让这些系统具备更强交互性的一个有效途径,是将其作为智能体(Agent)嵌入物理与虚拟环境中。目前,现有系统以大型基础模型为核心构建模块来打造具象化智能体(embodied agents)。将智能体嵌入此类环境,能助力模型处理和解读视觉信息与上下文数据 —— 这对于开发更复杂、更具上下文感知能力的人工智能系统至关重要。例如,一个能够感知用户动作、人类行为、环境物体、音频表达及场景整体情绪的系统,可用于指导智能体在特定环境中做出合理响应。 为推动基于智能体的多模态智能研究,本文将 “智能体人工智能(Agent AI)” 定义为一类交互式系统:这类系统能够感知视觉刺激、语言输入及其他基于环境的数据,并能产生有意义的具象化动作。具体而言,我们探索的系统旨在通过整合外部知识、多感官输入和人类反馈,基于 “下一具象化动作预测” 来优化智能体性能。我们认为,通过在真实

机器人笔记——轨迹规划

机器人笔记——轨迹规划

前言 之前的文章讲过到了关节是持续运动的,雅可比矩阵正是描述关节运动与机器人末端运动映射关系的有力工具。然而有了如何映射的工具仅仅是分析机器人运动的开始,要知道空间两点间的运动轨迹是多样的,因此就产生了轨迹规划的概念。这里讲的轨迹规划可以理解为寻求最优路径的过程,下文对其展开介绍。  前序内容 * 机构自由度的计算 * 齐次变换与齐次变换矩阵的计算 * 机器人正运动学——学习笔记 * 机器人正运动学实例——PUMA560机械臂(附Matlab机器人工具箱建模代码) * 机器人逆运动学——以六自由度机器人为例(详解、易懂,附全部Matlab代码) * 双平行四边形码垛机械臂的运动学正逆解——简化方法(附完整Matlab代码、解析过程) * 机器人笔记——关于atan2与atan的区别 * 雅可比矩阵——机器人笔记(简化、易懂) 1. 什么是机器人轨迹规划? 想要解答这个问题,我们先来看什么是轨迹。 轨迹:就是机器人手臂(末端点或操作点)的位置、速度、加速度对于时间的历程; 我们在意的其实是,机器人末端轨迹对于工件的状态或相对关系,就像下面右侧图一样