
Linux 系统部署 OpenClaw 并接入 QQ 机器人
在 Debian 12 系统上从零部署 OpenClaw 框架并接入 QQ 机器人的完整流程。主要步骤包括配置 APT 镜像源、安装 Node.js 环境、使用官方脚本一键安装 OpenClaw、配置华为云 MaaS 模型服务,以及通过插件集成 QQ 机器人账号。最后验证了服务状态与对话功能,支持扩展 Telegram、Discord 等其他频道及自定义技能模块。

在 Debian 12 系统上从零部署 OpenClaw 框架并接入 QQ 机器人的完整流程。主要步骤包括配置 APT 镜像源、安装 Node.js 环境、使用官方脚本一键安装 OpenClaw、配置华为云 MaaS 模型服务,以及通过插件集成 QQ 机器人账号。最后验证了服务状态与对话功能,支持扩展 Telegram、Discord 等其他频道及自定义技能模块。

在 Windows 环境下,通过安装 Ollama 运行本地大语言模型,配置 Docker 及 WSL 环境,并利用 Open WebUI 实现可视化交互的完整流程。涵盖 Ollama 模型下载与路径设置、Docker Desktop 安装、Hyper-V 启用方法以及 Open WebUI 容器部署步骤,最终实现在本地浏览器中调用和管理 AI 模型。

如何在本地离线环境下部署 AI 大模型。主要使用 Ollama 作为模型管理工具,结合 Qwen3.5:cloud 作为主力模型和 Qwen3:0.6b 作为低配备选模型,并通过 OpenClaw 提供可视化交互界面。教程涵盖环境准备(Windows 系统,8GB 以上内存,无需 GPU)、详细安装步骤(Ollama 安装、模型拉取、OpenClaw 配置及连接)、效果展示及常见问题解决。该方案支持完全离线运行,保护用户隐私,且对硬件要…
在苹果M1/M2/M3芯片Mac上通过Docker容器和Rosetta转译层安装Xilinx Vivado工具的方法。主要步骤包括正确安装Apple Chip版本的Docker Desktop、安装Rosetta环境、克隆开源项目仓库并执行安装脚本。文中还涵盖了权限设置、版本兼容性配置(支持2022.2至2024.1版本)以及常见问题的排查方案,如脚本执行失败或性能优化建议。该方案无需双系统切换即可在Arm架构设备上运行基于Intel的…
介绍在 Ubuntu 20.04 环境下安装 QGroundControl 地面站的流程。包括配置系统依赖、下载并运行 AppImage 安装包,以及解决地图白屏问题的缓存清理方法。
介绍在 M 系列 Mac 上安装 Clawdbot 并进行 API 配置的完整流程。内容包括环境准备(macOS 13+、Node.js ARM 版)、CLI 安装、后台服务初始化、大模型 API 密钥配置(支持 Claude、Gemini、DeepSeek)、Chrome 插件加载以及功能验证。同时提供了常见问题的解决方案及常用指令参考,帮助用户实现网页自动化与办公流程自动化。

如何在 OpenClaw 中配置飞书机器人。首先通过终端运行 openclaw config 命令初始化通道,等待安装完成后准备填写飞书凭证。接着在飞书后台创建机器人并获取 App ID 和 App Secret,同时注意在事件订阅中添加特定的关键词以确保长连接正常工作。最后通过与机器人对话获取配对码,使用 openclaw pairing approve 命令完成授权,实现 OpenClaw 与飞书机器人的正常交互。

介绍使用 Docker 部署 Web-Check 网站诊断工具,并结合 cpolar 内网穿透实现公网远程访问的方案。步骤包括 Docker 安装、容器配置、本地测试验证及隧道设置(含随机域名与固定子域名)。该方案解决了无公网 IP 下的异地协作检测需求,保障数据安全并提升运维效率。

介绍通过 Ollama 将 Claude Code 接入本地开源模型的方法,实现离线、安全且免费的 AI 开发环境。主要步骤包括安装客户端、配置环境变量指向本地 Ollama 服务以及指定模型启动。该方案避免了数据上传云端的风险,节省了订阅费用,并支持灵活切换 Qwen3、GLM 等多种开源模型,适合对隐私和成本敏感的开发者。

如何在本地通过 Docker 部署开源大语言模型应用开发平台 Dify。内容涵盖环境准备(安装 Docker Desktop 和 Git)、配置镜像源、拉取源码、初始化环境变量及启动服务。完成部署后可通过浏览器访问 localhost/install 进行账号注册和使用。该方案适合希望私有化部署 AI 应用的开发者,无需复杂编程即可构建生成式 AI 应用。

记录了在 4 张 NVIDIA A30 显卡上部署 Qwen3-VL-32B 模型的实战经验。发现 vLLM 因依赖张量并行(TP)导致 PCIe 通信瓶颈而卡死,而 Ollama(基于 llama.cpp)采用流水线并行(PP)成功运行。文章分析了 NVLink 缺失对多卡推理的影响,建议在无 NVLink 环境下优先使用 llama.cpp 或开启 vLLM 的流水线并行模式,并推荐使用 GGUF 量化以优化带宽压力。

介绍 OpenClaw-Docker-CN-IM 的 Docker 部署流程。支持飞书、钉钉、QQ、企业微信等 IM 平台集成,内置 AI 代码助手及浏览器自动化工具。涵盖环境准备、镜像拉取、环境变量配置(模型、通道)、服务启动及常见问题排查。通过 Docker Compose 实现快速部署与数据持久化,适用于构建多平台 AI 机器人网关的开发者。

AiScan-N 是一款基于人工智能的自动化渗透测试工具,支持在 Kali Linux 环境下运行。它利用机器学习技术自动识别漏洞、模拟攻击并生成报告,旨在提升安全测试效率,降低对人工专家的依赖。其核心功能、使用场景及在授权环境下的实际操作演示,包括目标扫描、漏洞发现与权限提升等步骤。
解决了 Windows 系统下 Codex 等 AI 工具因网络限制导致'正在思考'无响应的问题。通过排查发现 Electron/Node 应用不读取系统代理,需手动配置环境变量。提供了一套基于 HTTP_PROXY 和 HTTPS_PROXY 环境变量的批处理脚本,实现一键开启或关闭代理,确保开发工具联网的同时不影响国内软件正常使用。适用于 Codex、Cursor、VSCode 等多种开发环境。

介绍在 Windows 11 下配置 CUDA 版 llama.cpp 的方法,通过环境变量实现命令行全局调用。支持 GGUF 格式模型本地离线运行,利用 NVIDIA 显卡加速推理。涵盖环境准备、目录整理、路径配置、运行命令及常见问题解决,适合 RTX 30/40 系列显卡用户快速部署本地大模型聊天工具。

如何使用 Docker 一键部署 AstrBot 与 NapCat,接入 DeepSeek AI 实现 QQ 智能对话。内容包括初始化配置、人设切换、插件安装(如点歌)、MCP 服务扩展(如 12306 查询),以及使用 cpolar 进行内网穿透以实现公网访问管理面板。

档指导用户从零开始使用 OpenDroneMap (ODM) 处理无人机航拍影像,生成三维点云、数字表面模型及正射影像。涵盖系统环境要求、数据准备(含 GPS 信息检查)、手动安装与 Docker 部署步骤、命令行执行参数详解及结果查看工具(QGIS、CloudCompare、MeshLab)。包含常见问题解决与性能优化建议,适用于希望进行三维建模的无人机影像处理用户。
介绍 OpenCode,一款运行在终端的开源 AI 编程助手。支持 75+ 模型切换,具备 Skills 插件系统,可精准理解项目结构并执行代码修改。内容涵盖安装配置(脚本/NPM)、全局规则设置、核心使用技巧(斜杠命令、快捷键、文件引用、Plan/Build 模式)、常见问题排查及实战案例。旨在帮助用户在命令行环境中高效利用 AI 辅助开发。

介绍 OpenClaw 接入 QQ 机器人的配置流程。需先在 QQ 开放平台创建应用获取 AppID 和 Secret,随后通过命令行安装插件并配置通道。重点提示家用宽带因动态 IP 导致连接不稳定,推荐使用云服务器部署。功能涵盖私聊、群聊、图片及文件收发等。
Alpamayo-R1-10B 自动驾驶 VLA 模型在 Linux 环境下基于 Supervisor 服务的部署及 WebUI 端口自定义配置方法。主要涵盖环境准备、配置文件定位、环境变量修改、服务重启验证及防火墙设置等步骤。同时提供了多实例部署和 Nginx 负载均衡等进阶方案,并包含端口冲突、启动失败等常见问题的排查指南。