
绿联云 NAS 配置 WebDAV 实现公网访问
介绍绿联云 NAS 配置 WebDAV 以实现公网访问的方法。主要步骤包括购买域名、配置 DDNS 自动更新 IP、申请 SSL 证书、使用内网穿透工具(如 frp)建立隧道,以及替换默认证书启用 HTTPS。最终实现 Zotero 等应用通过 WebDAV 协议进行远程文献同步。

介绍绿联云 NAS 配置 WebDAV 以实现公网访问的方法。主要步骤包括购买域名、配置 DDNS 自动更新 IP、申请 SSL 证书、使用内网穿透工具(如 frp)建立隧道,以及替换默认证书启用 HTTPS。最终实现 Zotero 等应用通过 WebDAV 协议进行远程文献同步。
介绍如何为 Gemma-3-12B-IT WebUI 实施三层安全加固。首先通过 Nginx 配置 HTTPS 反向代理,利用 Let's Encrypt 证书加密传输数据;其次设置 IP 白名单,仅允许特定地址访问服务;最后配置请求频率限制,防止资源滥用和 DDoS 攻击。文中提供了完整的 Nginx 配置文件示例、一键部署脚本及测试验证方法,确保 AI 服务在公网环境下的安全性与稳定性。

OpenCode、OpenClaw 和 TuriX-CUA 三款 AI 智能体工具。OpenCode 是开源 AI 编码代理,支持多端接入和多模型兼容;OpenClaw 是全功能自托管 AI 执行中枢,提供 Docker 及直接安装方式;TuriX-CUA 是基于视觉的桌面操作智能体。文章详细说明了各工具的安装步骤、配置方法及使用场景,重点解决了 OpenClaw 在 Docker 环境下的重启问题。

解决了 GitHub Copilot 在 WSL 环境下因网络代理设置导致无法使用的问题。主要原因为 VS Code Remote 默认继承宿主机的本地代理(127.0.0.1),而 WSL 内部访问该地址无效。解决方案包括在 VS Code 设置中关闭本地代理配置,或手动将代理地址修改为宿主机的局域网 IP(如 172.x.x.x)。此外,文中提供了 Shell 脚本用于自动获取宿主机 IP 并配置 WSL 环境下的 HTTP/HTT…

基于 Damn Vulnerable Drone 靶场演示无人机安全测试流程。通过启动靶场环境,利用 nmap 进行网络扫描与信息收集,识别无人机及地面站 IP。针对 SSH、RTSP 流媒体及 PPP 服务进行脆弱性探测,包括端口扫描、版本检测及弱口令分析。文章旨在帮助安全研究人员理解无人机通信协议及潜在风险,强调仅在授权范围内进行合法研究。
介绍 ROS 机器人工程师学习计划的第 1 天内容,重点讲解 Linux 终端命令及 ROS 基础操作。涵盖常用文件操作、权限管理、包管理及 ROS 核心命令如 roscore、catkin_make 等。文章详细说明了如何建立 ROS 工作空间并进行验收练习,同时阐述了 Linux 在 ROS 启动、编译、调试、部署四个环节中的核心作用,帮助初学者掌握 ROS 开发环境的搭建与基本运维技能。

记录了 OpenClaw 对接飞书机器人时遇到的两个主要问题:群消息无响应及 Gateway 频繁断开。经排查,消息不回是因为使用了不支持 WebSocket 的快捷版 App ID,需更换为自建应用 ID;Gateway 断开则因前台启动进程未受 LaunchAgent 管理导致无法自动恢复。解决方案包括修正飞书多账号配置结构(使用 accounts 字段),以及通过 openclaw gateway start 命令配合 Launc…
介绍如何在本地部署环境中将 Clawdbot 聊天前端与私有部署的 Qwen3-32B 模型通过 Ollama 连通。核心步骤包括确认 Ollama 服务状态、启动 Clawdbot 容器并配置网络模式、编写内部代理服务以转换 OpenAI 兼容接口与 Ollama 原生接口的差异,以及调整前端 API 地址。最终实现数据不出本地的低延迟对话体验,并包含常见问题排查及性能优化建议。

介绍在 Ubuntu 20.04 系统上安装 Ollama 本地大语言模型的方法,包括命令行操作、模型拉取与管理。同时演示如何通过 Docker 部署 Open WebUI 图形界面,实现类似 ChatGPT 的本地对话体验,涵盖环境检查、服务管理及常用命令配置。

利用 Dify 智能体和 LangBot 工具,结合飞书开放平台构建 AIOps 对话机器人的实践方案。主要流程包括 Docker 环境部署、LangBot 服务启动、Dify 流水线配置、飞书应用权限设置及机器人测试。通过 MCP Server 对接可实现更深层的运维数据分析能力。
对 Face Analysis WebUI 部署后 cache 目录膨胀导致磁盘空间不足的问题,提供了详细的解决方案。首先区分了模型缓存与分析中间缓存的不同性质,前者需保留,后者需定期清理。接着介绍了三种清理方式:手动命令、定时任务(crontab)以及基于应用生命周期的按需清理。此外,还提供了一套轻量级 Bash 脚本实现磁盘使用率监控与自动清理,并建议将 temp 目录迁移至独立分区或使用软链接解耦路径,以保障系统长期稳定运行。
详细阐述了在 Mac Mini 上部署 OpenClaw 开源 AI 智能体的完整流程。涵盖系统服务器化配置、Node.js 环境搭建、Docker 沙箱安全隔离、消息渠道集成及生产级运维监控。通过本地化部署方案,实现具备系统操作能力的 AI 助手,兼顾隐私保护与低延迟响应。
Jetson Orin NX 环境下,推荐使用 OpenClaw 结合 Ollama(主模型)和 llama.cpp(备用模型)部署本地大模型。Ollama 提供原生 API 用于主模型及 Embeddings,llama.cpp 通过 OpenAI 兼容接口作为 fallback。配置需设置环境变量,修改 openclaw.json 以启用自动发现 Ollama 并显式添加 llama.cpp 为自定义 Provider。启动顺序为先…

Linux 系统中 ar 命令的功能与作用,该命令用于创建、修改和提取归档文件,常用于静态库构建。文章列出了常用参数(r、x、t、c、v、f)的详细说明,并演示了创建归档文件的基本用法,旨在帮助系统管理员和开发者掌握文件打包与管理技巧。

针对本地部署 AI 服务(如大语言模型、Stable Diffusion)的远程访问需求,传统端口映射不安全且 VPN 配置复杂。介绍利用 P2P 虚拟组网技术构建加密隧道的方案。通过在主机和客户端安装轻量级客户端,设备可在逻辑上处于同一局域网,实现无需公网 IP 的安全远程监控、交互操作及文件管理。该方案具备端到端加密、低延迟等优势,兼顾数据隐私与使用便利性。
在 Windows、macOS 及 Linux 环境下通过 Docker 部署小米智能家居 Miloco 后端及视觉大模型的分离式方案。主要步骤包括安装 Docker 环境、配置 Docker Compose 启动后端服务、使用 LM Studio 或 vLLM 部署本地视觉模型,以及对接云端规划模型(如硅基流动 Qwen3-8B)。最终实现 Miloco 系统的完整运行,支持视觉理解与任务规划功能,无需依赖官方集成方式,部署更加灵活。

介绍如何在本地部署环境下配置 OpenClaw 以连接飞书机器人。主要步骤包括:在飞书开放平台创建企业自建应用并配置权限;获取 App ID 和 App Secret;编写 Shell 脚本通过 API 查询用户 OpenID;最后在 OpenClaw 中填入凭证并测试消息推送功能。适用于具备基本命令行操作能力的开发者。
介绍基于 OpenClaw Gateway 的多 Agent 系统架构,实现飞书应用与 AI Agent 的对接。每个飞书机器人对应独立 AI Agent,拥有专属工作空间、知识库及模型配置,确保数据与模型状态严格隔离。文档包含 Agent 添加命令、安装流程及插件配置日志示例,展示了如何配置飞书插件并启用相关功能。
在腾讯云端部署 Openclaw 并配置多个飞书机器人的完整流程。内容包括前置环境准备、飞书企业自建应用创建、Openclaw Agent 配置、渠道绑定及测试验证。通过为不同 Agent 绑定独立飞书机器人,可实现办公提效、资讯推送等场景化分工协作。文末提供了常见问题排查方案及常用命令汇总,帮助用户快速完成自动化工作流搭建。
如何在 Ollama 中为 Llama-3.2-3B 模型启用 NVIDIA GPU 加速。内容包括前置环境检查(驱动、CUDA、Ollama 版本)、核心配置命令(OLLAMA_NUM_GPU)、性能实测对比及常见问题排查(显存溢出、Docker 部署等)。通过设置环境变量,用户可显著提升推理速度并降低首字延迟,实现本地高效部署。