【AI智能体】基于OpenCode 搭建Skills环境与项目实战开发详解

【AI智能体】基于OpenCode 搭建Skills环境与项目实战开发详解

目录

一、前言

二、OpenCode 介绍与环境搭建

2.1 OpenCode 介绍

2.1.1 OpenCode 是什么

2.1.2 OpenCode 主要特点

2.1.3 OpenCode 使用场景

2.2 OpenCode 本地环境搭建

2.2.1 安装ndoejs

2.2.2 使用npm安装OpenCode

2.2.3 效果测试

2.2.4 opencode 基本使用技巧

三、OpenCode 配置大模型

3.1 OpenCode 配置大模型过程

3.1.1 前置准备

3.1.2 进入模型配置窗口

四、OpenCode 配置和使用Skills

4.1 skills介绍

4.1.1 skills是什么

4.1.2 为什么需要 Skills?它解决了什么问题?

4.1.3 Skills 工作原理

4.1.4 Skills 与其他能力的协作关系

4.1.5 Skills 核心组成

4.2 使用模板Skills

4.2.1 前置问题

4.2.2 获取skills包

4.2.3 模板skills效果验证

4.3 开发自己的Skills

4.3.1 编写生成自媒体文案Skills

4.3.2 效果验证

4.3.3 常用的Skill 推荐

五、写在文末


一、前言

Agent Skills 最近非常火,它是既 MCP 后 Anthropic 推出的又一个 Agent 领域的行业标准。它的成长路线和 MCP 也非常像,25 年 10 月份发布时只有 Anthropic 自家产品支持,后来 Cursor、Codex、Opencode、Gemini CLI 等产品看到了 Skills 的优势于是纷纷开始支持。再后来社区开始涌现大量的开源 Skills 以及 Skills 开放市场,当下大家已经默认 Skills 成为了又一个扩展 Agent 能力的标准实践。

简单来说,Skills 的作用就是将那些重复性的、专业的流程进行打包封装。当你需要使用某种能力时,不再需要像过去那样每次都去查阅手册或重新输入冗长的提示词,而是像调用工具一样直接使用。

二、OpenCode 介绍与环境搭建

Read more

从零到一:Ubuntu上llama.cpp的编译艺术与性能调优实战

从零到一:Ubuntu上llama.cpp的编译艺术与性能调优实战 在人工智能技术快速发展的今天,大型语言模型(LLM)已成为开发者工具箱中不可或缺的一部分。而llama.cpp作为一款高效、轻量级的LLM推理框架,因其出色的性能和跨平台支持,越来越受到开发者的青睐。本文将带您深入探索在Ubuntu环境下编译和优化llama.cpp的全过程,从基础环境搭建到高级性能调优,为您呈现一套完整的解决方案。 1. 环境准备与基础编译 在开始编译llama.cpp之前,我们需要确保系统环境满足基本要求。Ubuntu 22.04 LTS是最推荐的系统版本,它提供了稳定的软件包支持和良好的兼容性。 首先更新系统并安装必要的开发工具: sudo apt update && sudo apt upgrade -y sudo apt install -y build-essential cmake git curl libcurl4-openssl-dev 对于希望使用CUDA加速的用户,还需要安装NVIDIA驱动和CUDA工具包: sudo apt install

【AIGC前沿】MiniMax海螺AI视频——图片/文本生成高质量视频

【AIGC前沿】MiniMax海螺AI视频——图片/文本生成高质量视频

目录 1.MiniMax海螺AI视频简介 2.使用教程 1.MiniMax海螺AI视频简介 海螺视频,作为 MiniMax 旗下海螺 AI 平台精心打造的 AI 视频生成工具,致力于助力用户产出高品质视频内容。该工具依托 abab-video-1 模型,具备强大的文生视频功能。用户仅需输入关键词或简短语句,海螺视频就能据此创作出情节丰富的完整视频。此外,海螺视频运用 DiT 架构,能够精准模拟现实世界的物理规律,尤其在生成复杂场景与高动作场景时,展现出卓越的性能。 2.使用教程 点击如下链接,进入蓝耘元生代智算云平台主页 https://cloud.lanyun.net/#/registerPage?promoterCode=11f606c51e 点击主页上方栏的“MaaS平台” 然后点击左侧栏的“视觉模型”  可以看到可以免费体验一次I2V-01图片生成视频  点击如下红框处将图片上传  例如输入如下的图片 例如想让小狗动起来,可以在如下红框处输入相应的指令,然后点击立即生成

LLaMA-Factory评估指标实战:困惑度与BLEU分数深度解析

LLaMA-Factory评估指标实战:困惑度与BLEU分数深度解析 还在为LLM微调后的模型质量评估发愁吗?🤔 作为AI开发者和研究者,我们常常面临这样的困境:训练损失下降明显,但实际生成效果却让人失望。今天,我将带你深度解析LLaMA-Factory中的两大核心评估指标——困惑度(PPL)与BLEU分数,让你从"盲调"走向"精调"! 🎯 评估指标:模型优化的"导航仪" 在LLaMA-Factory微调框架中,评估指标就像GPS导航系统,实时告诉我们模型的学习状态和优化方向。困惑度衡量模型对文本序列的预测能力,数值越低越好;而BLEU分数则评估生成文本与参考文本的相似度,分数越高质量越优。 评估指标应用场景速览 场景类型推荐指标理想范围关键影响因素预训练任务困惑度<20数据质量、模型架构文本生成BLEU-420-40解码策略、训练数据量多轮对话综合评估多维度上下文理解能力 🚀 困惑度计算:从原理到实践 困惑度是评估语言模型性能的重要指标,它反映了模型预测下一个词的不确定性程度。简单来说,困惑度越低,模型对文本的理解就越准确。 困惑度计算技术内幕 在

【AIGC】COT思维链:让AI学会拆解问题,像人一样思考

【AIGC】COT思维链:让AI学会拆解问题,像人一样思考

COT思维链 * 引言 * 理解实践 * 存疑例子 * COT解决 * 内置COT * COT的优势 * COT的未来展望: * 结语 引言 在人工智能领域,我们一直在追求让机器像人类一样思考。然而,即使是最先进的AI,也常常被诟病缺乏“常识”,难以理解复杂问题,更不用说像人类一样进行逻辑推理和解决问题了。最经常的表现就是遇到不会的地方,或者一些人一眼能看出来的地方AI在那里胡扯。 为了解决这个问题,一种名为“思维链(Chain of Thought, COT)”的技术应运而生。COT的核心思想是:将复杂问题分解成一系列简单的子问题,并逐步推理出最终答案。 这就像人类在解决问题时,会先将问题拆解成一个个小步骤,然后一步步推理,最终得出结论。 理解实践 存疑例子 为了理解COT我们先来看个例子。经典的数strawberry里面的r有几个 from langchain_openai import ChatOpenAI from langchain.chains import LLMChain from