国产化服务器部署:银河麒麟系统搭建 Web 服务实战
在银河麒麟服务器版(V10 SP3)上部署 Nginx Web 服务的完整流程。内容包括环境准备(硬件配置、网络设置)、软件源配置、Nginx 安装(yum 及源码编译两种方案)、配置文件修改、网页文件部署、服务启动与自启设置,以及防火墙端口开放和 SELinux 配置。最后提供了性能优化建议和访问测试方法,确保服务在国产化环境下安全稳定运行。
在银河麒麟服务器版(V10 SP3)上部署 Nginx Web 服务的完整流程。内容包括环境准备(硬件配置、网络设置)、软件源配置、Nginx 安装(yum 及源码编译两种方案)、配置文件修改、网页文件部署、服务启动与自启设置,以及防火墙端口开放和 SELinux 配置。最后提供了性能优化建议和访问测试方法,确保服务在国产化环境下安全稳定运行。
了基于 Docker 在本地部署 Ollama 与 Open WebUI 的完整流程。内容包括环境准备、Ollama 安装与模型拉取、Open WebUI 容器化部署、Docker Compose 组合管理、GPU 加速配置及 Python API 调用示例。通过该方案可实现离线运行的私有化大语言模型服务。
详细记录了在 Ubuntu 系统下构建 ROS2 Humble、Gazebo Classic 及 PX4 飞控的仿真环境全过程。内容涵盖 PX4 源码克隆与子模块更新、依赖项自动化安装、SITL 仿真模型编译、QGroundControl 地面站配置、Micro-XRCE-DDS-Agent 通信桥接器部署以及 ROS2 工作空间初始化。通过多终端协同启动仿真与 Offboard 控制节点,实现了无人机在 Gazebo 中的虚拟起飞,为…
介绍在 Android 设备的 Termux 环境中安装 llama.cpp 包,下载 Qwen3.5 量化模型,并通过命令行交互及内置服务器功能启动本地 WebUI 进行大语言模型推理的过程。主要步骤包括使用 apt 安装依赖、下载 GGUF 格式模型文件、运行 llama-cli 进行终端对话以及启动 llama-server 提供 HTTP 服务。

在老款 Mac 上通过 OpenClaw 环境部署本地 AI 服务的硬件配置要求,涵盖 CPU、内存、存储及网络的具体建议,旨在帮助用户利用旧设备构建本地 AI 工作站。
介绍 Jimeng AI Studio 零代码 AI 绘画工具的使用教程。涵盖启动方式、提示词编写技巧、参数微调、风格模板及常见问题解决。无需编程基础,通过网页界面即可生成高质量图像,适合电商、社媒及创意海报设计场景。
介绍自动化 AI 智能体龙虾 AI(OpenClaw)的跨平台部署方法及日常使用技巧。涵盖 Windows、macOS 及 Linux 系统的环境准备与一键安装步骤,包括 Git、Node.js 配置及 API Key 设置。提供文件整理、数据处理、浏览器自动化等高频指令示例,并包含常见问题排查指南,帮助用户快速实现电脑自动化办公。

介绍 Anthropic 推出的 AI 编程命令行工具 Claude Code。内容涵盖环境要求(macOS/Ubuntu/WSL、Node.js)、安装步骤、基础命令(如 /init、/model)、MCP 协议支持及常用指令。文章解析了不同订阅套餐的功能差异,并提供了项目上下文管理(CLAUDE.md)与多文件操作的最佳实践,旨在帮助开发者利用自然语言高效完成编码任务。
使用 Docker 容器技术部署 Stable Diffusion WebUI 的方法。主要步骤包括克隆项目代码、选择 AUTOMATIC1111 或 ComfyUI 界面启动,以及访问本地 Web 服务。文章涵盖了环境要求、功能对比及故障排除建议,旨在帮助用户快速搭建本地 AI 图像生成环境。

介绍在 Mac mini M4 上通过 OpenClaw 框架结合 Ollama 运行 Qwen 2.5 模型,利用 WebSocket 接入飞书机器人的私有化部署方案。涵盖环境准备(Node.js、Ollama)、模型选型优化、配置文件修改、飞书事件订阅配置及调试步骤。

如何在绿联 NAS 上配置 WebDAV 服务以实现公网访问,并通过 RaiDrive 将 NAS 存储挂载到本地计算机。主要步骤包括确认 IPv6 支持、购买域名、配置腾讯云访问凭证、启用 NAS WebDAV 及 DDNS 服务、使用 Docker 部署反向代理(推荐 Lucky)、设置防火墙规则,最后在 RaiDrive 中添加 WebDAV 连接。该方法解决了绿联 NAS 无法直接通过 RaiDrive 原生支持挂载的问题,实现…
介绍如何配置中国科学技术大学 Docker 镜像源以加速 GLM-4.6V-Flash-WEB 模型在国内的部署。针对 Docker Hub 拉取慢的问题,通过修改 daemon.json 指向镜像代理地址,实现分钟级环境搭建。文章涵盖配置步骤、容器运行命令及常见故障排查,帮助开发者快速完成多模态模型的本地或私有云部署。

AI 智能体的概念及 Coze 平台的优势,重点演示了如何在本地通过 Docker 私有化部署 Coze 应用服务。内容涵盖环境准备、配置文件修改、容器启动及控制台访问,并展示了基于 Coze 搭建情绪鼓励师助手的基本流程。
详细记录了在 Ubuntu 24.04 系统上配置 OpenClaw 使用本地 Memory 模式的完整流程。针对 Memory 搜索不生效的问题,通过修改配置文件启用 local provider,并依次完成 CUDA 与 cuDNN 环境搭建、llama.cpp 源码编译及 node-llama-cpp 安装。此外,还解决了 sqlite-vec 动态库加载失败的问题,最终实现基于本地模型的语义检索功能,无需依赖外部 API Key…
档介绍了使用 Docker 在 Windows 或 Linux 环境下安装和配置 Neo4j 图数据库的步骤。内容包括环境准备、创建挂载目录、拉取镜像、启动容器命令(含 Linux 和 Windows 示例)、设置认证密码、访问 Web 界面以及配置远程访问。同时提供了常见问题的解决方案,如端口占用、数据持久化及防火墙设置等。
介绍如何在 OpenClaw 中配置多个 Agent 并绑定不同的飞书机器人。步骤包括创建新 Agent、配置飞书渠道 AppID 和 Secret、绑定 Agent 与飞书账号,以及重启网关服务。同时列出了常见问题排查方法,如长连接、Token 配置及避免一个应用绑定多个 Agent 等注意事项。

介绍如何使用 Llama-Swap 在本地实现多个大语言模型的动态切换。通过部署轻量级代理服务,用户无需手动管理端口或进程,即可根据请求自动启动或停止对应模型服务。教程涵盖环境准备、配置文件编写及 API 调用测试,支持灵活的资源分组控制,适用于需要对比模型输出或节省成本的本地 AI 应用场景。
对国内访问 ghcr.io 镜像速度慢的问题,介绍了 Open WebUI 部署时的镜像加速方案。通过对比南京大学、华为云等镜像源,推荐使用无需认证的南京大学镜像站。切换配置后下载速度显著提升,有效解决了连接超时和带宽限制问题,提升了开发效率。
介绍在安卓手机上通过 Termux 运行 Ubuntu 容器,部署本地 Llama 大模型(如 Qwen2.5),并集成 OpenClaw 进行 AI 交互的完整流程。涵盖环境配置、模型选择(Ollama/llama.cpp)、服务启动及局域网访问方法,无需 Root 权限,适合具备基础命令行操作能力的用户。
利用 Docker 部署 xiaomusic 音乐播放系统的完整流程。内容涵盖环境准备、基础与完整版部署命令、语音控制配置、多设备协同方案以及性能优化与备份策略。旨在解决小爱音箱音乐播放受限、资源整合困难等问题,提供跨设备的智能音乐管理方案。