AI agent:介绍 PicoClaw 安装,使用说明

PicoClaw 是一个超轻量级的个人 AI 助手,可以用在从嵌入式开发板到普通电脑的各类设备上。它最吸引人的特点就是极低的资源占用飞快的启动速度。下面我来为你详细介绍它的安装和使用方法。

📖 PicoClaw 简介

PicoClaw 由矽速科技(Sipeed)开发,使用 Go 语言编写。它的核心优势在于,通过将计算密集的大模型推理任务交给云端 API,本地只负责轻量的协调工作,从而实现了惊人的轻量化。

特性OpenClawNanoBotPicoClaw
编程语言TypeScriptPythonGo
内存占用>1GB>100MB< 10MB
启动时间 (0.8GHz核心)>500秒>30秒<1秒
硬件成本参考Mac Mini (约$599)多数Linux开发板 (~$50)任意Linux板 (最低$10)

📦 安装指南

你可以根据自己的需求和环境,选择以下任意一种方式安装。

  • 💾 方式一:预编译二进制(最简单)
    直接从项目的 Releases 页面 下载对应你操作系统和架构(如 linux-arm64, windows-amd64)的文件,重命名为 picoclaw(或 picoclaw.exe),并放到系统 PATH 路径下即可。

🐳 方式三:使用 Docker(环境隔离,快速体验)
这是最干净、依赖最少的方法,非常适合快速上手。

# 1. 克隆仓库git clone https://github.com/sipeed/picoclaw.git cd picoclaw # 2. 复制并编辑配置文件(填入你的API Key)cp config/config.example.json config/config.json # 编辑 config.json 文件,填入你的 LLM API Key 等信息vim config/config.json # 3. 使用 Docker Compose 启动网关服务docker compose --profile gateway up -d

🔧 方式二:从源码编译(适合开发者)
如果你想要体验最新特性,或者你的设备架构特殊,可以自行编译:

git clone https://github.com/sipeed/picoclaw.git cd picoclaw make deps make build # 编译makeinstall# 安装到系统

⚙️ 配置 PicoClaw

安装完成后,需要进行初始化和配置。

    • 获取 API Key:可以从 智谱 AIOpenRouter 等平台获取。
    • (可选)配置网络搜索:如果想让它能联网查资料,可以获取一个免费的 Brave Search API Key 并填入配置。

配置文件:编辑 ~/.picoclaw/config.json 文件,这是核心步骤。你需要至少配置一个 LLM 提供商(如智谱、OpenRouter)的 API Key。一个最小化的配置示例如下(以智谱 AI 为例):

{"agents":{"defaults":{"model":"glm-5",// 或其他模型名"max_tokens":8192}},"providers":{"zhipu":{"api_key":"你的智谱API Key","api_base":"https://open.bigmodel.cn/api/paas/v4"}}}

初始化:运行以下命令,它会在你的用户目录下创建 ~/.picoclaw/ 文件夹和默认配置文件。

picoclaw onboard 

🚀 使用场景

配置好之后,你就可以用多种方式和你的 AI 助手交互了。

  • 💬 本地命令行对话
  • 🤖 接入聊天平台(网关模式)
    这是 PicoClaw 最实用的功能之一,可以让你通过 Telegram、Discord 等日常 App 与 AI 助手聊天。
  • ⏰ 高级功能:定时任务与个性化
    • 自定义人格:通过修改 ~/.picoclaw/workspace/ 下的 AGENTS.mdSOUL.md 文件,可以用自然语言定义助手的性格、技能和行为准则,无需编写代码。

定时任务(cron):你可以设置让助手定时执行任务,比如每天早上9点提醒你今天的日程。

picoclaw cronadd--message"提醒我今天的重要会议"--cron"0 9 * * 1-5"

启动网关服务:

picoclaw gateway 

如果是 Docker 安装,网关通常已经后台运行了。之后,你就可以在手机上随时随地和你的 AI 助手对话了。

~/.picoclaw/config.json 文件中,找到 channels 部分,填入你创建的 Telegram Bot Token 和你的用户 ID。

{"channels":{"telegram":{"enabled":true,"token":"你的Telegram Bot Token","allowFrom":["你的Telegram用户ID"]}}}

交互式对话:进入连续的聊天模式。

picoclaw agent 

一次性提问:适合快速查询。

picoclaw agent -m"介绍一下皮皮虾的特点"

希望这份指南能帮你顺利上手 PicoClaw。


AI agent : picoclaw 在 Win 10 上如何编译?

我查阅了相关资料,目前还没有找到关于在 Windows 10 上从源码编译 PicoClaw 的官方指南。

不过,PicoClaw 是一个用 Go 语言编写的项目,它会编译成一个单一的可执行文件 。因此,你可以通过以下两种方式在 Windows 10 上获得它:

🛠️ 方法一:从源码自行编译(通用方法)

如果你的目标确实是自行编译,可以尝试标准的 Go 语言编译流程。由于 PicoClaw 的项目结构包含 go.mod 文件,编译过程应该比较直接。

你可以打开命令提示符或 PowerShell,执行以下步骤:

  1. 安装 Go 环境:确保你的 Windows 10 系统已安装 Go(推荐 1.16 及以上版本)。

编译项目:在项目根目录下执行 go build 命令,Go 会自动下载依赖并生成可执行文件。

go build -o picoclaw.exe 

获取源码

git clone https://github.com/picoclaw/picoclaw.git cd picoclaw 

⚡ 方法二:直接下载预编译版本(推荐)

如果你主要是想使用 PicoClaw 而非参与源码开发,更简单的方法是直接下载官方提供的 Windows 预编译版本。根据相关资料,PicoClaw 提供了 Windows 的二进制文件 。

  1. 下载文件:从 PicoClaw 的 GitHub Releases 页面下载 picoclaw-windows-amd64.exe
  2. 放置与重命名:将下载的文件放到一个方便的目录,例如 C:\picoclaw,并将其重命名为 picoclaw.exe
  3. 初始化工作区:在 picoclaw.exe 所在目录打开命令提示符,运行 picoclaw init 命令生成配置文件和工作区 。
  4. 配置 API 密钥:编辑生成的配置文件(默认路径为 C:\Users\你的用户名\.picoclaw\workspace\config.json),填入你的 LLM API 密钥(如 OpenAI、DeepSeek 或本地 Ollama)。
  5. 运行:最后,执行 picoclaw run 即可开始使用 。

💡 建议

如果你在编译过程中遇到任何问题,或者想了解更详细的配置方法(比如如何接入 Telegram 或配置本地 Ollama),可以查阅我找到的这份完整指南 。另外,建议去 PicoClaw 的官方 GitHub 仓库看看,通常 README.mdCONTRIBUTING.md 文件里会包含最权威的编译说明。

你是想参与开发所以需要编译,还是主要为了使用它?如果是后者,直接下载编译好的版本会省事很多。


我的实践经验

先下载 go1.25.x.windows-amd64.msi , 然后安装。
where go
D:\Go\bin\go.exe
where gmake
D:\Strawberry\c\bin\gmake.exe
D:
cd D:\AI\picoclaw-main
D:\AI\picoclaw-main> gmake deps
all modules verified
D:\AI\picoclaw-main> gmake build
Run generate…
Run generate complete
Building picoclaw for MSYS_NT-10.0/x86_64…

github.com/sipeed/picoclaw/pkg/tools
github.com/sipeed/picoclaw/pkg/heartbeat
github.com/sipeed/picoclaw/pkg/agent
github.com/sipeed/picoclaw/cmd/picoclaw
Build complete: build/picoclaw-MSYS_NT-10.0-x86_64

D:\AI\picoclaw-main> cd build
D:\AI\picoclaw-main\build> dir
2026/02/20 00:11 17,773,056 picoclaw
2026/02/20 00:11 17,773,056 picoclaw-MSYS_NT-10.0-x86_64
rename picoclaw picoclaw.exe

D:\AI\picoclaw-main\build> picoclaw onboard
🦞 picoclaw is ready!

Next steps:

  1. Add your API key to C:\Users\your.picoclaw\config.json
    Get one at: https://openrouter.ai/keys
  2. Chat: picoclaw agent -m “Hello!”

Read more

Llama3-8B对话体验差?open-webui界面调优实战案例

Llama3-8B对话体验差?open-webui界面调优实战案例 1. 为什么Llama3-8B在open-webui里“不好用” 你是不是也遇到过这种情况:明明拉下了Meta-Llama-3-8B-Instruct的GPTQ-INT4镜像,显卡是RTX 3060,vllm也跑起来了,open-webui网页也打开了,可一输入问题,响应慢、回复短、上下文断连、甚至反复重复同一句话?不是模型不行,而是默认配置没对上——就像给跑车装了自行车刹车片。 Llama3-8B本身素质过硬:80亿参数、原生8k上下文、英语指令遵循能力对标GPT-3.5、MMLU 68+、HumanEval 45+,单卡3060就能跑。但它对对话系统层的调度逻辑非常敏感。open-webui作为前端界面,默认采用的是通用型API调用策略,而没针对Llama3系列的tokenizer行为、stop token设计、streaming节奏做适配。结果就是: * 模型已生成完,界面还在等“结束信号”; * 多轮对话中,system prompt被意外截断或覆盖; * 中文输入时,因token边界识别不准,

[大模型实战 02] 图形化的大模型交互: Open WebUI部署指南

[大模型实战 02] 图形化的大模型交互: Open WebUI部署指南

核心摘要 (TL;DR)目标:为本地的 Ollama 模型穿上漂亮的图形化界面 (GUI)。工具:Docker + Open WebUI (社区最活跃的开源 WebUI)。核心功能:媲美 ChatGPT 的对话界面、本地知识库 (RAG)、自定义角色 (Agent)。 相信各位友人在上一篇文章中,已经学会了如何用ollama在终端中运行Qwen模型。命令行工具有时候会感觉有点过于Geek,黑洞洞的命令窗口和冷冰冰的滚动的文字的技术感是有的,但是对于如果咱们想把大模型展示给其他朋友,或者自己想日常使用,那这时候咱们就需要换一个更友好,更光鲜的交互方式。 这也是这篇博文想带大家解决的问题:用10分钟时间,搭建一个功能媲美ChatGPT的私有化网页页面,并且连接咱们的模型 Open WebUI就是我们完成这个目标的利器,其也是目前社区最活跃,功能最强大的开源大模型交互界面。 01. 模型服务准备 在开始之前,因为要接入咱们的Ollama模型,所以我们要确认我们的Ollama服务运行起来了。 可以通过在终端输入curl http://localhost:5656命令去验证其是否正

web酒店客房管理系统信息管理系统源码-SpringBoot后端+Vue前端+MySQL【可直接运行】

web酒店客房管理系统信息管理系统源码-SpringBoot后端+Vue前端+MySQL【可直接运行】

摘要 随着旅游业的快速发展和酒店行业的不断扩张,传统的酒店客房管理方式已难以满足现代化管理的需求。人工操作效率低下、信息易丢失、管理流程繁琐等问题日益凸显,亟需一套高效、智能的酒店客房管理系统来提升运营效率和服务质量。数字化管理不仅能减少人力成本,还能通过数据分析优化客房资源配置,提升客户满意度。因此,开发一款基于SpringBoot后端、Vue前端和MySQL数据库的酒店客房管理系统具有重要的现实意义。关键词:酒店管理、数字化、SpringBoot、Vue、MySQL。 本系统采用前后端分离架构,后端基于SpringBoot框架实现高效的数据处理和业务逻辑,前端使用Vue.js构建动态交互界面,数据库采用MySQL存储数据。系统功能包括客房信息管理、客户预订管理、订单结算、员工权限管理等模块,支持多角色登录和权限控制。通过响应式设计和RESTful API接口,系统实现了数据的实时更新和高效交互。系统源码可直接运行,便于二次开发和功能扩展,为酒店行业提供了一套完整的数字化解决方案。关键词:前后端分离、权限管理、RESTful API、实时更新、二次开发。 数据表 客房信息数据

前端仔狂喜!我用这个开源神器,3分钟给项目配上API后台!

前端仔狂喜!我用这个开源神器,3分钟给项目配上API后台!

作为一名前端开发,我最怕听到的话就是:“这个页面内容需要后台可配”。这意味着无尽的沟通、漫长的等待,甚至还得自己去学写后端接口。最近,我终于找到了一个能将我从这种痛苦中解放出来的神器——Strapi。 什么是Strapi? Strapi 是一个开源的无头(Headless)CMS,GitHub上狂揽 60.5k Star。简单说,它能让你通过点击鼠标的可视化界面,快速创建出结构化的内容模型,并自动生成配套的 RESTful API 或 GraphQL。你不需要写一行后端代码,就能拥有一个功能强大的、可随时调用的数据后台。 传统部署的“噩梦” 想法很美好,但我尝试手动部署 Strapi 时,才发现这根本不是给前端玩的: * 环境依赖复杂:首先你得有个 Node.js 环境,还得配个正经的数据库,比如 PostgreSQL 或 MySQL,光是数据库的安装和配置就够我喝一壶的。 * 配置繁琐:你需要手动创建数据库、配置环境变量,