CentOS 7 docker安装ollama、open-webui

--创建 ai 用户,以 root 身份执行

useradd -m -s /bin/bash ai

passwd ai --ai@2026!

mkdir -p /home/ai

chown -R ai:ai /home/ai

chmod 755 /home/ai

--安装 Docker,以 root 身份执行

yum remove -y docker docker-client docker-client-latest docker-common docker-latest docker-latest-logrotate docker-logrotate docker-engine

yum install -y yum-utils device-mapper-persistent-data lvm2 # 安装依赖

yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo # 添加 Docker 仓库(使用阿里云镜像加速)

yum install -y docker-ce docker-ce-cli containerd.io # 安装 Docker

#ai用户加入docker、wheel组

usermod -aG docker ai

# 配置 Docker 镜像加速(国内)

mkdir -p /etc/docker

cat > /etc/docker/daemon.json <<EOF

{

"registry-mirrors": [

"https://docker.1ms.run",

"https://hub.rat.dev"

]

}

EOF

systemctl daemon-reload # 让 systemd 重新读取配置文件

systemctl start docker # 启动 Docker

systemctl status docker# 查看启动状态

systemctl restart docker # 重启 Docker

# 验证

docker --version

docker info 看Registry Mirrors是否国内镜像

- 安装ollama

su - ai

mkdir -p /home/ai/{ollama,open-webui}

docker pull docker.1ms.run/ollama/ollama:latest

docker pull docker.1ms.run/dyrnq/open-webui:latest

#查看镜像

[ai@localhost ~]$ docker images

REPOSITORY TAG IMAGE ID CREATED SIZE

docker.1ms.run/dyrnq/open-webui latest eef064db6151 3 days ago 4.64GB

docker.1ms.run/ollama/ollama latest cb27efcf587f 3 days ago 5.63GB

[ai@localhost ~]$

# 启动 Ollama容器

docker run -d \

--name ollama \

--restart unless-stopped \

-p 11434:11434 \

-v /home/ai/ollama:/root/.ollama \

-e OLLAMA_HOST=0.0.0.0 \

docker.1ms.run/ollama/ollama:latest

启动:docker start ollama # docker run会自动启动,stop以后才用此命令启动

停止:docker stop ollama

查看:docker ps -a | grep ollama # -a 参数可显示已经stop的容器

docker exec -it ollama ollama -v

curl http://localhost:11434/api/version

删除容器:docker rm -f ollama # 如果docker run 后面参数修改了,要重新启动,就需要先删除容器,否则会报错;-f 参数可强制删除正在运行的容器

离线模型-下载:https://modelscope.cn/models/unsloth/Qwen3-8B-GGUF下载Qwen3-8B-Q4_K_M、Qwen3-8B-Q3_K_M,下载后放到/home/ai/ollama/models目录

离线模型-注册文件:在目录/home/ai/ollama/models创建文件:vi Modelfile

FROM /root/.ollama/models/Qwen3-8B-Q4_K_M.gguf

在线模型-拉取:docker exec -it ollama ollama pull qwen3:4b

离线模型-注册:docker exec -it ollama ollama create qwen3-8b -f /root/.ollama/models/Modelfile

查看已下载模型:docker exec -it ollama ollama list

测试模型:docker exec -it ollama ollama run qwen3:4b "你好,请介绍一下你自己"

删除模型:docker exec -it ollama ollama rm qwen3-8b:latest

交互模式执行命令:docker exec -it ollama bash;ollama-v;

# 启动 Open WebUI(手动 docker run)

docker run -d \

--name open-webui \

--restart unless-stopped \

-p 3000:8080 \

-v /home/ai/open-webui:/app/backend/data \

--add-host=host.docker.internal:host-gateway \

-e OLLAMA_BASE_URL=http://host.docker.internal:11434 \

docker.1ms.run/dyrnq/open-webui:latest

停止:docker stop open-webui

查看:docker ps | grep open-webui

Open WebUI http://172.30.3.241:3000

Ollama API http://172.30.3.241:11434

Read more

OpenClaw中飞书机器人配置指南:如何让群消息免 @ 也能自动回复

用 OpenClaw 做飞书机器人时,默认配置下,群里的消息必须 @ 机器人 才能触发回复。这在很多场景下很不方便——如果希望机器人在群里"隐身"工作,不用 @ 就能自动监听和回复,需要额外配置。 本文记录我解决这个问题的完整过程,供同样踩坑的同学参考。 问题描述 现象: * 飞书群里 @ 机器人 → 正常回复 ✅ * 飞书群里不 @ 机器人 → 没有任何反应 ❌ 环境: * OpenClaw 框架 * 飞书自建应用(机器人) * WebSocket 长连接模式 解决过程 第一步:修改 OpenClaw 配置 在 openclaw.json 中找到飞书渠道配置: "channels":{"feishu":{"requireMention&

反无人机智能指控系统思考

2026年1月3日,美国使用人机协同手段非法抓捕委内瑞拉总统马杜罗及其夫人的事件过程中,美CIA部署了多架隐形无人机组成的监控体系,对委内瑞拉空域实施几乎不间断的空中监视,结合线人情报,综合分析得出马杜罗的具体位置与行动轨迹,为特种部队突袭提供了精准坐标,因此,构建严密的反无人机智能指控系统就越来越重要。结合“态、势、感、知”可以构建反无人机综合智能指控系统,以“感知-理解-预测-决策”为主线,将四者深度融合,形成“数据驱动-智能认知-动态响应”的闭环体系。以下从核心要素、技术架构、关键环节三个层面展开说明: 一、核心要素解析 首先明确“态、势、感、知”在反无人机场景中的具体内涵: * 感(感知):多源异构传感器的数据采集与初步处理,目标是“看得清”。包括雷达(探测距离/速度)、光电(可见光/红外成像)、无线电侦测(信号指纹识别)、声学(声波特征)、激光测距等多手段融合,覆盖“

OpenClaw上身机器人,AI不仅能帮订外卖,还能替你跑腿了!

OpenClaw上身机器人,AI不仅能帮订外卖,还能替你跑腿了!

手把手教你一键部署OpenClaw(Clawdbot),2分钟搞定! 过去这些年,AI大多时候还只是待在屏幕里,帮人写写字、画画图或者跑个自动脚本。但最近 OpenClaw 生态彻底爆火,两个基于它的开源项目直接打破了虚拟与现实的界限。这消息一传出来,全球搞机器人和AI的极客们都坐不住了。 就在2月23号旧金山举行的 SF OpenClaw 黑客松上,ROSClaw 项目拿下了冠军。Irvin 团队搞出了一个中间连接层,把现在最火的开源 AI Agent 平台 OpenClaw 直接插到了真实的机器人硬件上。刚拿完奖,团队就大方地宣布把项目开源了。 手把手教你一键部署OpenClaw(Clawdbot),2分钟搞定! 手把手教你一键部署OpenClaw(Clawdbot),2分钟搞定! 具体是怎么做到的呢?他们通过智能插件把 OpenClaw 接到了机器人操作系统(ROS 2)上,还利用 WebRTC 技术实现了超低延迟的安全连接。这意味着你在地球任何一个角落,都能远程操控那些兼容 ROS 的机器人。AI

LabVIEW开发解魔方机器人

LabVIEW开发解魔方机器人

机器人在教育实践与技术验证领域的应用日益广泛,解魔方机器人作为融合视觉识别、运动控制、算法优化的典型载体,需实现图像采集、色块识别、动作执行的全流程自动化,同时兼顾教学场景下的手动操作与可视化演示需求。传统方案存在软硬件集成复杂、开发周期长、交互性不足等问题,基于 LabVIEW 的图形化编程优势,构建集视觉处理、三维建模、指令下发、运动控制于一体的智能解魔方系统,既满足高效复原需求,又具备教学演示的直观性与扩展性。 整体架构设计 系统采用 “LabVIEW 上位机 + 单片机下位机” 的分布式架构,实现功能分层与协同联动,充分发挥 LabVIEW 在数据处理、界面开发、硬件通信的集成优势,架构简洁且可维护性强。 1. 上位机:基于 LabVIEW 全流程开发,承担图像采集处理、色块识别校准、三维孪生建模、还原算法解算、串口通信控制等核心功能,是系统的逻辑与交互中心; 2. 下位机:以单片机为控制核心,接收上位机指令,通过驱动模块控制步进电机执行魔方转动动作,同时反馈执行状态;