openclaw使用本地llama.cpp

llama.cpp兼容openapi接口,自然可以作为openclaw的后端。
添加自定义provider同前:为openclaw增加自定义provider
反复修改,总是不能得到正确的model状态。

{"meta":{"lastTouchedVersion":"2026.2.3-1", "lastTouchedAt":"2026-02-05T12:16:30.399Z"}, "wizard":{"lastRunAt":"2026-01-30T12:20:58.674Z", "lastRunVersion":"2026.1.29", "lastRunCommand":"onboard", "lastRunMode":"local"}, "models":{"mode":"merge", "providers":{"llamacpp":{"baseUrl":"http://192.168.1.182:8087/v1", "apiKey":"no need key", "api":"openai-completions", "models":[{"id":"Qwen3-8B-Q6_K", "name":"Qwen3", "api":"openai-completions", "reasoning": true, "input":["text"], "cost":{"input":0, "output":0, "cacheRead":0, "cacheWrite":0}, "contextWindow":262144, "maxTokens":32000}]}}}, "agents":{"defaults":{"model":{"primary":"llamacpp/Qwen3-8B-Q6_K"}, "models":{"llamacpp/Qwen3-8B-Q6_K":{"alias":"Qwen3"}}, "maxConcurrent":4, "subagents":{"maxConcurrent":8}}}, "messages":{"ackReactionScope":"group-mentions"}, "commands":{"native":"auto", "nativeSkills":"auto"}, "gateway":{"port":18789, "mode":"local", "bind":"loopback", "auth":{"mode":"token", "token":"a08c51975f90e3afa566f4af1de977a70b6e9630909cc8c0", "password":"a08c51975f90e3afa566f4af1de977a70b6e9630909cc8c0"}, "tailscale":{"mode":"off", "resetOnExit":false}}, "skills":{"install":{"nodeManager":"npm"}}}

注意C:\Users\yusp7.openclaw\agents\main\agent\models.json,要与config\models\provider里一致,内容不能有重复provider名的:

{"providers":{"llamacpp":{"baseUrl":"http://192.168.1.182:8087/v1", "apiKey":"no need key", "api":"openai-completions", "models":[{"id":"Qwen3-8B-Q6_K", "name":"Qwen3", "api":"openai-completions", "reasoning": true, "input":["text"], "cost":{"input":0, "output":0, "cacheRead":0, "cacheWrite":0}, "contextWindow":262144, "maxTokens":32000}]}}}
在这里插入图片描述


但是,为什么返回的对话不对?

在这里插入图片描述

Read more

IDEA 中的 AI 编程插件怎么选?Copilot / 灵码 / TRAE 实际使用对比

IDEA 中的 AI 编程插件怎么选?Copilot / 灵码 / TRAE 实际使用对比

# 【不吹不黑】Java 开发者真实体验:IDEA 三大 AI 编程插件深度对比(Copilot / TRAE / 灵码) > 本文是一篇**技术交流与使用体验记录**,仅用于分享 Java 开发过程中使用 AI 插件的真实感受与效率提升方式,不涉及任何商业推广或广告行为。 *** ## 一、写在前面:为什么要写这篇文章 过去一年,大模型能力的跃迁,直接改变了开发者的工作方式。**AI 已经不再是“写 Demo 的玩具”,而是逐渐演变为 IDE 中的“第二大脑”** 。 本文的目的非常明确: *   记录一名 **Java 后端开发者** 在真实项目中使用 AI 插件的体验 *   对比不同插件在 **补全、对话、Agent 工作流** 等方面的差异 *   帮助开发者根据自身场景选择合适的工具,而不是盲目跟风 本文所有结论,

【收藏】大模型训练加速秘籍:LLaMA Factory与Megatron-LM的无缝集成方案

序言 LLaMA Factory 是一个广受欢迎的开源大模型微调平台,以其简洁的 API、丰富的训练范式支持(如 (增量)预训练、(多模态)指令监督微调、奖励模型训练、PPO 训练、DPO 训练、KTO 训练、ORPO 训练等)和活跃的中文社区, 成为国内开发者进行LLM 微调的首选工具之一。其基于 Hugging Face Transformers生态构建,支持使用 Accelerate或 DeepSpeed 作为训练加速后端,在单机多卡场景下表现优异。 然而,当面对百亿参数以上的大模型或大规模多节点分布式训练需求时,传统基于数据并行的训练方案(如 ZeRO 或 FSDP)往往面临通信瓶颈与显存效率不足的问题。 此时,若能将 LLaMA Factory强大的数据处理与训练配置能力,与 NVIDIA Megatron-LM 这类专为超大规模模型设计的高性能分布式训练框架相结合,将显著提升训练吞吐与可扩展性。

Altera FPGA 的 Avalon MM总线接口规范介绍(精简版)

Altera FPGA 的 Avalon MM总线接口规范介绍(精简版)

本文参考Altera文档:1. Introduction to the Avalon® Interface Specifications Avalon总线是一种协议较为简单的片内总线,主要用于连接片内处理器与外设,以构成片上可编程系统(SOPC)。使用Avalon接口能够轻松连接Intel FPGA中的各个组件,从而简化了系统设计。Avalon接口常用于高速数据流传输、读写寄存器和存储器、控制片外器件等。此外,也可以使用Avalone接口自定义组件,以增强设计的互操作性。 Avalon共有以下七种接口: * Avalon Clock Interface, Avalon时钟接口 -- 驱动或接收时钟信号的接口。 * Avalon Reset Interface, Avalon复位接口 -- 驱动或接收复位信号的接口。 * Avalon Memory Mapped Interface (Avalon-MM), Avalon存储器映射接口 -- 基于地址的读/写接口,是主-从连接的典型接口。 * Avalon Streaming Interface (Avalon-ST),

具身智能论文阅读:OpenVLA:An Open-Source Vision-Language-Action Model

Abstract 在大规模互联网视觉-语言数据与多样化机器人示范的组合上预训练的大型策略,有潜力改变我们教机器人新技能的方式:与其从零开始训练新行为,不如通过微调这些视觉-语言-动作(vision-language-action, VLA)模型,来获得稳健且可泛化的视觉运动控制策略。然而,VLA 在机器人领域的广泛应用仍面临挑战:1)现有的 VLA 大多是封闭的,公众无法访问;2)先前的工作未能探索高效微调 VLA 以适应新任务的方法,而这是实现广泛应用的关键环节。 针对这些挑战,我们提出了 OpenVLA,一款拥有 70 亿参数的开源 VLA,训练数据来自多样化的 97 万条真实机器人示范。OpenVLA 基于 Llama 2 语言模型,并结合视觉编码器,该编码器融合了 DINOv2 与 SigLIP 的预训练特征。得益于数据多样性的增加和新模型组件的引入,OpenVLA 在通用操控任务上表现出强劲性能:在 29 个任务和多种机器人实体上,其绝对任务成功率较封闭模型