跳到主要内容
极客日志极客日志
首页博客AI提示词GitHub精选代理工具
搜索
|注册
重置
编程语言 / Shell / Bash

标签

全部标签AIjavaNode.jsNuctPayPPT制作React NativeRNSaaSWeChat大前端算法

分类

全部分类
编程语言
PythonJavaScriptTypeScriptJavaKotlinGo / GolangRustC++CC#F#PHPRubySwiftObjective-CScalaClojureElixirErlangHaskellDartLuaPerlRJuliaMATLAB / OctaveSQLShell / BashPowerShellHTML / CSSZigNimCrystalGroovyVisual Basic .NETSolidity汇编

排序

最新更新最新发布最多浏览最多点赞
OpenClaw 在 Windows WSL 环境下的部署与飞书配置指南
Shell / BashNode.jsAI

OpenClaw 在 Windows WSL 环境下的部署与飞书配置指南

在 Windows 系统通过 WSL 子系统部署 OpenClaw AI 工具的完整流程。内容包括安装 WSL、配置 Node.js 环境、执行一键安装脚本,以及解决 sharp 模块和 systemd 服务启动等常见问题。后续章节详细说明了如何配置 AI 模型提供商(如 MiniMax、Kimi 等)及飞书聊天渠道的接入步骤,包括创建应用、设置权限和回调配置,最终实现本地 AI 助手与飞书的交互。

佛系玩家发布于 2026/4/6更新于 2026/4/1915 浏览2 点赞约 33 分钟阅读
基于 Docker 部署 DeskClaw 人机协同办公平台实战
Shell / BashSaaSAI

基于 Docker 部署 DeskClaw 人机协同办公平台实战

DeskClaw 是一款开源的人机协同运营平台,旨在让 AI 同事协助人类完成业务运营。详细讲解了在 Windows 本地环境通过 Docker Desktop 一键部署 DeskClaw 的步骤,包括安装 Docker、克隆代码、启动服务及获取账号。同时演示了如何创建赛博工作区、配置 AI 同事技能包及大模型接口,实现自动化行业情报收集等实际场景,帮助用户构建本地化的智能办公系统。

晚风告白发布于 2026/4/6更新于 2026/4/2011 浏览4 点赞约 20 分钟阅读
Shell / BashNode.jsAI

OpenClaw QQ 机器人接入指南

介绍如何在 Linux 或 WSL2 环境下,通过 Docker 部署 NapCat QQ 机器人框架,实现与 OpenClaw 智能助手的对接。主要步骤包括环境检查(Docker、Node.js)、配置 Docker Compose 使用 Host 网络模式启动 NapCat 容器,并通过扫码登录完成 QQ 绑定。适用于 OpenClaw 2026.2.26+ 版本。

忘忧发布于 2026/4/6更新于 2026/4/1912 浏览4 点赞约 4 分钟阅读
Open WebUI 本地部署指南:基于 Ollama 的 AI 对话界面搭建
Shell / BashAI

Open WebUI 本地部署指南:基于 Ollama 的 AI 对话界面搭建

Open WebUI 的安装与配置流程。Open WebUI 是一个开源的 LLM 可视化交互框架,支持本地部署及多模型接入。首先需在 Linux 环境下安装 Ollama 并配置 systemd 服务,随后通过 Docker 部署 Open WebUI。配置过程中需注意网络加速及外部连接设置,最后通过浏览器访问完成账号注册与模型选择,即可实现本地 AI 对话。

橘子海发布于 2026/4/6更新于 2026/4/2010 浏览2 点赞约 10 分钟阅读
Shell / Bash

华三 H3C 交换机 NTP 时间同步配置方法

华三 H3C 交换机配置 NTP 时间同步的方法,包含命令行和 Web 界面两种方式。命令行模式涉及启用服务、设置服务器地址、调整时区、配置认证及验证状态;Web 模式通过登录管理页面操作。配置完成后需保存并检查同步状态,注意网络连通性及防火墙端口设置。

板砖工程师发布于 2026/4/6更新于 2026/4/2010 浏览1 点赞约 3 分钟阅读
Shell / Bash

Windows 11 资源管理器增强:QTTabBar 中文优化版安装指南

如何在 Windows 11 上通过 QTTabBar 插件增强系统资源管理器功能。文章对比了替换式管理器与增强式插件的区别,推荐后者以降低学习成本并实现无缝集成。提供了中文优化版的获取建议及基础安装步骤,帮助用户提升文件管理效率。

RefactorPro发布于 2026/4/5更新于 2026/4/2010 浏览4 点赞约 2 分钟阅读
Shell / BashAI

Open WebUI Docker 部署:容器化最佳实践

介绍如何使用 Docker 容器化部署 Open WebUI,支持 Ollama 及兼容 OpenAI API 的 LLM 运行器。内容涵盖基础部署步骤、GPU 加速配置(NVIDIA/AMD)、数据持久化方案(卷与目录挂载)、安全加固措施(密码设置、端口管理)以及监控日志管理。提供了 docker-compose 配置示例、环境变量调整方法及常见问题排查指南,帮助用户搭建稳定高效的本地 AI 交互平台,并包含资源优化与备份策略等生产环…

锁机制发布于 2026/4/5更新于 2026/4/209 浏览2 点赞约 19 分钟阅读
基于 cpolar 内网穿透实现 OpenClaw 远程访问与应用
Shell / BashAI大前端

基于 cpolar 内网穿透实现 OpenClaw 远程访问与应用

介绍如何使用 cpolar 内网穿透工具将本地部署的 OpenClaw AI 服务映射至公网,实现随时随地访问。内容包括安装配置 cpolar、通过 OpenClaw 辅助配置 NAS 资源、生成小游戏及远程桌面穿透,以及解决跨域访问问题并固定二级子域名。教程涵盖 Windows/Linux 环境下的命令行操作与 Web 界面设置,确保用户在局域网外也能安全使用本地 AI 助手。

竹影清风发布于 2026/4/5更新于 2026/4/2019 浏览3 点赞约 10 分钟阅读
MacBook 部署大模型指南:Ollama 与 llama.cpp 配置
Shell / BashAI算法

MacBook 部署大模型指南:Ollama 与 llama.cpp 配置

介绍在新款 Apple Silicon MacBook 上部署本地大模型的两种方案。首先确认硬件需 M1/M2/M3 芯片及 16GB+ 内存,系统 macOS 13+。方案一推荐 Ollama,通过 Homebrew 安装,支持一键拉取 Llama3、Mistral 等模型,注意内存不足时使用量化版本。方案二为 llama.cpp,需编译源码并下载 GGUF 格式模型,适合追求极致性能的用户。两者均支持离线运行,Ollama 适合新手…

GitMaster发布于 2026/4/5更新于 2026/4/207 浏览1 点赞约 8 分钟阅读
基于 Docker 部署 Web-Check 结合内网穿透实现远程网站检测
Shell / BashNode.js大前端

基于 Docker 部署 Web-Check 结合内网穿透实现远程网站检测

介绍如何在 Linux Ubuntu 系统下通过 Docker 部署开源网站检测工具 Web-Check,并利用内网穿透技术实现公网远程访问。内容包括 Docker 安装、容器编排配置、本地服务验证以及通过 cpolar 配置随机和固定公网域名的步骤,帮助运维人员安全便捷地监控网站状态。

JavaCoder发布于 2026/4/5更新于 2026/4/2012 浏览4 点赞约 10 分钟阅读
Shell / BashSaaSAI算法

基于 Docker 一键部署 PandaWiki 个人 AI 知识库教程

介绍如何使用开源工具 PandaWiki 搭建个人 AI 知识库。通过 Docker 在 Linux 系统上一键部署,配置嵌入、重排及文本模型实现 RAG 检索增强生成。支持从飞书导入文档、上传离线文件,并提供 AI 问答机器人接入功能。该方案兼顾数据隐私与知识管理,适合个人私有化部署使用。

ByteFlow发布于 2026/4/5更新于 2026/4/2018 浏览3 点赞约 7 分钟阅读
MacOS 下基于 Docker 部署 OpenClaw 并集成飞书机器人教程
Shell / BashAI

MacOS 下基于 Docker 部署 OpenClaw 并集成飞书机器人教程

介绍在 MacOS 系统下使用 Docker 部署开源 AI 助手框架 OpenClaw,并完成大模型 API 配置与飞书机器人集成的全流程。步骤包括安装 Docker、拉取镜像、启动容器、配置自定义大模型接口、在飞书开放平台创建应用及长链接回调、权限设置,最后通过配对命令实现飞书端对话功能。该方案利用容器化技术规避环境兼容问题,适合快速搭建轻量级 AI 办公助手。

极客零度发布于 2026/4/5更新于 2026/4/1911 浏览2 点赞约 60 分钟阅读
Shell / BashAI

AI Agent Skills 资源合集及多平台一键安装指南

AI Agent Skills 的概念及其在 Cursor、Claude Code 等工具中的应用。文章提供了包含官方资源和社区精选技能的开源合集项目地址,详细说明了在不同操作系统(macOS/Linux/Windows)下的一键安装方法,包括 Shell 和 PowerShell 脚本的使用。此外,还列举了代码审查、Git 提交等示例技能及实际使用效果,帮助开发者利用 AI 提升代码质量和工作效率。

不知所云发布于 2026/4/5更新于 2026/4/1912 浏览4 点赞约 6 分钟阅读
Meta Quest VR 开机无法自动重连 WiFi 的解决方法
Shell / Bash

Meta Quest VR 开机无法自动重连 WiFi 的解决方法

Meta Quest 系列设备基于 Android 系统,因网络连通性检测机制(captive portal)在国内网络环境下常失败,导致开机无法自动重连 WiFi。通过 ADB 命令关闭该检测机制,实现永久解决。步骤包括连接设备开启 USB 调试,执行 settings put global captive_portal_mode 0 命令,并通过 get 命令验证参数。此方法不影响正常使用,仅跳过外网可达性验证。若需恢复可改回 1。

CryptoLab发布于 2026/4/5更新于 2026/4/197 浏览1 点赞约 7 分钟阅读
OpenClaw 多飞书机器人配置指南
Shell / BashAI

OpenClaw 多飞书机器人配置指南

档详细说明了在 OpenClaw 框架下配置多个飞书机器人的流程。主要步骤包括创建独立 Agent、在飞书开放平台获取凭证并配置 Channel、将 Agent 绑定至对应飞书账号、设置用户白名单以绕过配对限制,最后重启网关验证路由。通过配置文件管理多账号映射,实现不同 Agent 响应不同飞书会话。

信号故障发布于 2026/4/5更新于 2026/4/1916 浏览4 点赞约 13 分钟阅读
基于 OpenClaw 与 Open WebUI 的企业多部门 AI 平台部署指南
Shell / BashNode.jsSaaSAI

基于 OpenClaw 与 Open WebUI 的企业多部门 AI 平台部署指南

在 Ubuntu 服务器上利用 OpenWebUI 作为统一前端,结合多个 OpenClaw 容器节点构建企业级多部门 AI 平台的方案。通过 Docker Compose 实现物理隔离,解决权限越界、无法溯源及业务隔离问题。详细步骤包括配置 Docker 网络与镜像源、设置目录权限、调整网关端口及环境变量、开启 OpenAI 兼容接口,并在 OpenWebUI 中完成 API 接入与 RBAC 权限分配,最终实现数据隔离与精准管控。

全栈工匠发布于 2026/4/5更新于 2026/4/189 浏览3 点赞约 12 分钟阅读
Shell / BashAI算法

Llama-3.2-3B 部署优化:Ollama 配置上下文窗口与 Token 限制

介绍如何在 Ollama 中优化 Llama-3.2-3B 模型的上下文窗口(Context Window)和生成长度(Token Limit)。通过创建自定义 Modelfile 调整 num_ctx 和 num_predict 参数,解决长对话记忆丢失或文本截断问题。内容包括环境检查、Modelfile 编写、模型构建及测试验证方法,帮助提升模型处理长文档和多轮对话的能力。

猫巷少女发布于 2026/4/5更新于 2026/4/2010 浏览5 点赞约 10 分钟阅读
Foxglove 开发环境完整搭建指南 (含常见坑位)
Shell / BashAI算法

Foxglove 开发环境完整搭建指南 (含常见坑位)

Foxglove 是一款专为机器人团队打造的数据分析与可视化平台。 Foxglove 的开发环境搭建流程,包括 Ubuntu 系统下 Foxglove Bridge 的安装与启动命令、ROS 仿真程序的配合运行、以及 Foxglove Studio 客户端的远程连接配置。此外,还涵盖了 Web 端访问的安全提示(SSL)及控制面板主题设置等常见问题解决方案,帮助开发者快速完成环境部署并避免常见配置错误。

山野诗人发布于 2026/4/5更新于 2026/4/2012 浏览3 点赞约 4 分钟阅读
MS-S1 MAX 与 AI MAX 395 在 Ubuntu 24 下使用 Vulkan llama.cpp 运行 gpt-oss 120b
Shell / BashAI算法

MS-S1 MAX 与 AI MAX 395 在 Ubuntu 24 下使用 Vulkan llama.cpp 运行 gpt-oss 120b

在 Ubuntu 24 系统下,基于 MS-S1 MAX 与 AI MAX 395 硬件,通过安装 AMD GPU 驱动、ROCm 及 Vulkan 环境,并配置内核参数以解锁大显存,最终利用 Vulkan 版 llama.cpp 成功运行 gpt-oss 120b 模型的完整流程。包含驱动安装、BIOS 设置、GRUB 参数调整、模型下载及服务器启动命令,并通过 amdgpu_top 验证 GPU 使用情况。

孤勇者发布于 2026/4/5更新于 2026/4/1913 浏览2 点赞约 5 分钟阅读
Nginx 配置 HTTPS 实战:前端与后端集成指南
Shell / Bash大前端

Nginx 配置 HTTPS 实战:前端与后端集成指南

介绍如何在 Nginx 上配置 HTTPS 以支持前后端分离架构。主要步骤包括域名解析、端口开放、证书申请与安装、Nginx 配置文件修改以及 HTTP 到 HTTPS 的重定向。通过合理配置 SSL 证书和反向代理规则,确保前端静态资源与后端 API 均通过加密通道传输,同时解决 Vue history 路由刷新 404 等常见问题。

猫巷少女发布于 2026/4/5更新于 2026/4/2015 浏览6 点赞约 12 分钟阅读
上一页下一页