跳到主要内容
极客日志极客日志
首页博客AI提示词GitHub精选代理工具
搜索
|注册
重置
编程语言 / Shell / Bash

标签

全部标签AIjavaNode.jsNuctPayPPT制作React NativeRNSaaSWeChat大前端算法

分类

全部分类
编程语言
PythonJavaScriptTypeScriptJavaKotlinGo / GolangRustC++CC#F#PHPRubySwiftObjective-CScalaClojureElixirErlangHaskellDartLuaPerlRJuliaMATLAB / OctaveSQLShell / BashPowerShellHTML / CSSZigNimCrystalGroovyVisual Basic .NETSolidity汇编

排序

最新更新最新发布最多浏览最多点赞
绿联云 NAS 配置 WebDAV 实现公网访问
Shell / Bash

绿联云 NAS 配置 WebDAV 实现公网访问

介绍绿联云 NAS 配置 WebDAV 以实现公网访问的方法。主要步骤包括购买域名、配置 DDNS 自动更新 IP、申请 SSL 证书、使用内网穿透工具(如 frp)建立隧道,以及替换默认证书启用 HTTPS。最终实现 Zotero 等应用通过 WebDAV 协议进行远程文献同步。

修罗发布于 2026/4/6更新于 2026/4/209 浏览3 点赞约 12 分钟阅读
Shell / BashAI

Gemma-3-12B-IT WebUI 安全加固:HTTPS、IP 白名单与限流

介绍如何为 Gemma-3-12B-IT WebUI 实施三层安全加固。首先通过 Nginx 配置 HTTPS 反向代理,利用 Let's Encrypt 证书加密传输数据;其次设置 IP 白名单,仅允许特定地址访问服务;最后配置请求频率限制,防止资源滥用和 DDoS 攻击。文中提供了完整的 Nginx 配置文件示例、一键部署脚本及测试验证方法,确保 AI 服务在公网环境下的安全性与稳定性。

FrontendX发布于 2026/4/6更新于 2026/4/1911 浏览5 点赞约 55 分钟阅读
OpenCode、OpenClaw 与 Ollama 安装配置指南
Shell / BashNode.jsAI

OpenCode、OpenClaw 与 Ollama 安装配置指南

OpenCode、OpenClaw 和 TuriX-CUA 三款 AI 智能体工具。OpenCode 是开源 AI 编码代理,支持多端接入和多模型兼容;OpenClaw 是全功能自托管 AI 执行中枢,提供 Docker 及直接安装方式;TuriX-CUA 是基于视觉的桌面操作智能体。文章详细说明了各工具的安装步骤、配置方法及使用场景,重点解决了 OpenClaw 在 Docker 环境下的重启问题。

暗影行者发布于 2026/4/6更新于 2026/4/2018 浏览7 点赞约 33 分钟阅读
WSL 中 VS Code Copilot 代理配置问题及解决方案
Shell / BashAI

WSL 中 VS Code Copilot 代理配置问题及解决方案

解决了 GitHub Copilot 在 WSL 环境下因网络代理设置导致无法使用的问题。主要原因为 VS Code Remote 默认继承宿主机的本地代理(127.0.0.1),而 WSL 内部访问该地址无效。解决方案包括在 VS Code 设置中关闭本地代理配置,或手动将代理地址修改为宿主机的局域网 IP(如 172.x.x.x)。此外,文中提供了 Shell 脚本用于自动获取宿主机 IP 并配置 WSL 环境下的 HTTP/HTT…

数字游民发布于 2026/4/6更新于 2026/4/1914 浏览5 点赞约 7 分钟阅读
IoT 无人机安全测试实战:信息收集与服务探测
Shell / BashAI

IoT 无人机安全测试实战:信息收集与服务探测

基于 Damn Vulnerable Drone 靶场演示无人机安全测试流程。通过启动靶场环境,利用 nmap 进行网络扫描与信息收集,识别无人机及地面站 IP。针对 SSH、RTSP 流媒体及 PPP 服务进行脆弱性探测,包括端口扫描、版本检测及弱口令分析。文章旨在帮助安全研究人员理解无人机通信协议及潜在风险,强调仅在授权范围内进行合法研究。

暗影行者发布于 2026/4/6更新于 2026/4/1916 浏览5 点赞约 5 分钟阅读
Shell / BashAI

ROS 开发入门:第一天 Linux 终端命令与基础操作

介绍 ROS 机器人工程师学习计划的第 1 天内容,重点讲解 Linux 终端命令及 ROS 基础操作。涵盖常用文件操作、权限管理、包管理及 ROS 核心命令如 roscore、catkin_make 等。文章详细说明了如何建立 ROS 工作空间并进行验收练习,同时阐述了 Linux 在 ROS 启动、编译、调试、部署四个环节中的核心作用,帮助初学者掌握 ROS 开发环境的搭建与基本运维技能。

LinuxPan发布于 2026/4/6更新于 2026/4/1911 浏览3 点赞约 7 分钟阅读
OpenClaw 对接飞书机器人配置踩坑:消息不回与 Gateway 断开排查
Shell / BashAI

OpenClaw 对接飞书机器人配置踩坑:消息不回与 Gateway 断开排查

记录了 OpenClaw 对接飞书机器人时遇到的两个主要问题:群消息无响应及 Gateway 频繁断开。经排查,消息不回是因为使用了不支持 WebSocket 的快捷版 App ID,需更换为自建应用 ID;Gateway 断开则因前台启动进程未受 LaunchAgent 管理导致无法自动恢复。解决方案包括修正飞书多账号配置结构(使用 accounts 字段),以及通过 openclaw gateway start 命令配合 Launc…

二进制发布于 2026/4/6更新于 2026/4/1911 浏览1 点赞约 5 分钟阅读
Shell / BashNode.jsAI大前端

Clawdbot 对接 Qwen3-32B 的 Web 网关配置指南

介绍如何在本地部署环境中将 Clawdbot 聊天前端与私有部署的 Qwen3-32B 模型通过 Ollama 连通。核心步骤包括确认 Ollama 服务状态、启动 Clawdbot 容器并配置网络模式、编写内部代理服务以转换 OpenAI 兼容接口与 Ollama 原生接口的差异,以及调整前端 API 地址。最终实现数据不出本地的低延迟对话体验,并包含常见问题排查及性能优化建议。

漫步发布于 2026/4/6更新于 2026/4/2016 浏览4 点赞约 25 分钟阅读
Ubuntu 20.04 安装 Ollama 及 Open WebUI 部署大语言模型教程
Shell / BashAI算法

Ubuntu 20.04 安装 Ollama 及 Open WebUI 部署大语言模型教程

介绍在 Ubuntu 20.04 系统上安装 Ollama 本地大语言模型的方法,包括命令行操作、模型拉取与管理。同时演示如何通过 Docker 部署 Open WebUI 图形界面,实现类似 ChatGPT 的本地对话体验,涵盖环境检查、服务管理及常用命令配置。

接口猎人发布于 2026/4/6更新于 2026/4/1914 浏览5 点赞约 8 分钟阅读
AIOps 实践:使用 Dify+LangBot 搭建飞书智能体机器人
Shell / BashAI

AIOps 实践:使用 Dify+LangBot 搭建飞书智能体机器人

利用 Dify 智能体和 LangBot 工具,结合飞书开放平台构建 AIOps 对话机器人的实践方案。主要流程包括 Docker 环境部署、LangBot 服务启动、Dify 流水线配置、飞书应用权限设置及机器人测试。通过 MCP Server 对接可实现更深层的运维数据分析能力。

CoderByte发布于 2026/4/6更新于 2026/4/208 浏览1 点赞约 14 分钟阅读
Shell / BashAI算法

Face Analysis WebUI Cache 目录清理与磁盘空间管理策略

对 Face Analysis WebUI 部署后 cache 目录膨胀导致磁盘空间不足的问题,提供了详细的解决方案。首先区分了模型缓存与分析中间缓存的不同性质,前者需保留,后者需定期清理。接着介绍了三种清理方式:手动命令、定时任务(crontab)以及基于应用生命周期的按需清理。此外,还提供了一套轻量级 Bash 脚本实现磁盘使用率监控与自动清理,并建议将 temp 目录迁移至独立分区或使用软链接解耦路径,以保障系统长期稳定运行。

黑客发布于 2026/4/6更新于 2026/4/1911 浏览5 点赞约 12 分钟阅读
Shell / BashNode.jsAI

Mac Mini 部署 OpenClaw 实战指南:构建本地 AI 数字管家

详细阐述了在 Mac Mini 上部署 OpenClaw 开源 AI 智能体的完整流程。涵盖系统服务器化配置、Node.js 环境搭建、Docker 沙箱安全隔离、消息渠道集成及生产级运维监控。通过本地化部署方案,实现具备系统操作能力的 AI 助手,兼顾隐私保护与低延迟响应。

HadoopMan发布于 2026/4/6更新于 2026/4/1911 浏览4 点赞约 28 分钟阅读
Shell / BashAI算法

Jetson 上 OpenClaw + Ollama + llama.cpp 联动配置模板

Jetson Orin NX 环境下,推荐使用 OpenClaw 结合 Ollama(主模型)和 llama.cpp(备用模型)部署本地大模型。Ollama 提供原生 API 用于主模型及 Embeddings,llama.cpp 通过 OpenAI 兼容接口作为 fallback。配置需设置环境变量,修改 openclaw.json 以启用自动发现 Ollama 并显式添加 llama.cpp 为自定义 Provider。启动顺序为先…

晚风叙旧发布于 2026/4/6更新于 2026/4/1910 浏览1 点赞约 16 分钟阅读
Linux ar 命令备份压缩实操指南
Shell / Bash

Linux ar 命令备份压缩实操指南

Linux 系统中 ar 命令的功能与作用,该命令用于创建、修改和提取归档文件,常用于静态库构建。文章列出了常用参数(r、x、t、c、v、f)的详细说明,并演示了创建归档文件的基本用法,旨在帮助系统管理员和开发者掌握文件打包与管理技巧。

热情发布于 2026/4/6更新于 2026/4/198 浏览2 点赞约 1 分钟阅读
本地 AI 服务远程管理难题与加密隧道解决方案
Shell / BashAI

本地 AI 服务远程管理难题与加密隧道解决方案

针对本地部署 AI 服务(如大语言模型、Stable Diffusion)的远程访问需求,传统端口映射不安全且 VPN 配置复杂。介绍利用 P2P 虚拟组网技术构建加密隧道的方案。通过在主机和客户端安装轻量级客户端,设备可在逻辑上处于同一局域网,实现无需公网 IP 的安全远程监控、交互操作及文件管理。该方案具备端到端加密、低延迟等优势,兼顾数据隐私与使用便利性。

随缘发布于 2026/4/6更新于 2026/4/207 浏览2 点赞约 6 分钟阅读
Shell / BashAI算法

小米智能家居 Miloco 分离式部署指南

在 Windows、macOS 及 Linux 环境下通过 Docker 部署小米智能家居 Miloco 后端及视觉大模型的分离式方案。主要步骤包括安装 Docker 环境、配置 Docker Compose 启动后端服务、使用 LM Studio 或 vLLM 部署本地视觉模型,以及对接云端规划模型(如硅基流动 Qwen3-8B)。最终实现 Miloco 系统的完整运行,支持视觉理解与任务规划功能,无需依赖官方集成方式,部署更加灵活。

追风少年发布于 2026/4/6更新于 2026/4/1913 浏览3 点赞约 6 分钟阅读
OpenClaw 本地部署配置飞书机器人指南
Shell / BashAI

OpenClaw 本地部署配置飞书机器人指南

介绍如何在本地部署环境下配置 OpenClaw 以连接飞书机器人。主要步骤包括:在飞书开放平台创建企业自建应用并配置权限;获取 App ID 和 App Secret;编写 Shell 脚本通过 API 查询用户 OpenID;最后在 OpenClaw 中填入凭证并测试消息推送功能。适用于具备基本命令行操作能力的开发者。

雾岛听风发布于 2026/4/6更新于 2026/4/209 浏览2 点赞约 14 分钟阅读
Shell / BashAI

OpenClaw 多 Agent 系统对接飞书机器人指南

介绍基于 OpenClaw Gateway 的多 Agent 系统架构,实现飞书应用与 AI Agent 的对接。每个飞书机器人对应独立 AI Agent,拥有专属工作空间、知识库及模型配置,确保数据与模型状态严格隔离。文档包含 Agent 添加命令、安装流程及插件配置日志示例,展示了如何配置飞书插件并启用相关功能。

王者发布于 2026/4/6更新于 2026/4/1910 浏览2 点赞约 7 分钟阅读
Shell / BashSaaSAI

腾讯云端 Openclaw 与飞书多机器人配置指南

在腾讯云端部署 Openclaw 并配置多个飞书机器人的完整流程。内容包括前置环境准备、飞书企业自建应用创建、Openclaw Agent 配置、渠道绑定及测试验证。通过为不同 Agent 绑定独立飞书机器人,可实现办公提效、资讯推送等场景化分工协作。文末提供了常见问题排查方案及常用命令汇总,帮助用户快速完成自动化工作流搭建。

咸鱼开飞机发布于 2026/4/6更新于 2026/4/1915 浏览4 点赞约 20 分钟阅读
Shell / BashAI算法

Llama-3.2-3B 部署与 Ollama GPU 加速(CUDA/cuDNN)全流程

如何在 Ollama 中为 Llama-3.2-3B 模型启用 NVIDIA GPU 加速。内容包括前置环境检查(驱动、CUDA、Ollama 版本)、核心配置命令(OLLAMA_NUM_GPU)、性能实测对比及常见问题排查(显存溢出、Docker 部署等)。通过设置环境变量,用户可显著提升推理速度并降低首字延迟,实现本地高效部署。

云间运维发布于 2026/4/6更新于 2026/4/2013 浏览7 点赞约 14 分钟阅读
上一页下一页