带可二次开发的管理配置端 + 非低代码 + 原生支持标准化 Skill框架选择

「带可二次开发的管理配置端 + 非低代码 + 原生支持标准化 Skill」的开源 Agent 框架,筛选 3款完全匹配的框架(均为代码级可扩展、自带 Skill 管理后台、支持 SKILL.md/MCP 标准),附核心特性、二次开发要点和部署步骤,都是企业级/开发者友好的选型:


一、首选:LangGraph + LangServe(LangChain 官方生态,Python 栈,极致可扩展)

核心定位

LangChain 官方推出的「Agent 编排 + 服务化」框架,自带可二次开发的 Skill/Tool 管理后台(LangServe Dashboard),纯代码开发、无低代码封装,是 Python 生态的最佳选择。

关键特性

  1. Skill 管理能力
    • 原生支持 StructuredTool(对应 SKILL.md 标准),可通过代码/API 注册、禁用、版本管理;
    • 内置 MCP 协议适配,可直接加载 SKILL.md + scripts 格式的 Skill;
  2. 管理配置端
    • 自带 LangServe Dashboard(Web 管理后台),支持 Skill 列表、调用日志、参数配置;
    • 后台基于 FastAPI + React 开发,前端/后端均可完全二次开发;
  3. 二次开发友好
    • 纯 Python 代码编写 Agent 逻辑,无低代码拖拽;
    • 模块化设计(Skill 加载器、Agent 执行器、权限控制可拆分扩展);
    • 支持自定义 Skill 元数据、调度规则、沙箱运行环境。

部署 & 二次开发步骤

1. 基础部署
# 安装核心依赖 pip install langgraph langserve langchain-openai fastapi uvicorn # 启动带 Dashboard 的 LangServe 服务 langserve start --host 0.0.0.0 --port 8000 --dashboard 

访问 http://localhost:8000/docs(API 管理)、http://localhost:8000/dashboard(可视化管理后台)。

2. 二次开发 Skill 管理模块
# 示例:扩展 Skill 管理 API(可直接集成到自有后台)from fastapi import FastAPI, APIRouter, Depends from langserve import add_routes from langgraph.graph import StateGraph, END from langchain_core.tools import StructuredTool from pydantic import BaseModel import yaml from pathlib import Path # 1. 自定义 Skill 加载器(解析 SKILL.md)defload_skill_from_dir(skill_dir:str)-> StructuredTool: skill_path = Path(skill_dir)# 解析 SKILL.md 的 YAML 头withopen(skill_path /"SKILL.md","r", encoding="utf-8")as f: yaml_head = f.read().split("---")[1].strip() skill_meta = yaml.safe_load(yaml_head)# 构建执行函数(调用 scripts 脚本)defskill_executor(**kwargs):import subprocess cmd =["python",str(skill_path / skill_meta["mcp"]["script_path"])]for k, v in kwargs.items(): cmd +=[f"--{k}",str(v)] result = subprocess.run(cmd, capture_output=True, text=True)return result.stdout.strip()# 构建 StructuredTool param_fields ={p["name"]:(eval(p["type"]),...)for p in skill_meta["parameters"]} ParamModel = BaseModel(**param_fields)return StructuredTool.from_function( func=skill_executor, name=skill_meta["name"], description=skill_meta["description"], args_schema=ParamModel )# 2. 扩展 Skill 管理 API(注册/删除/列表) app = FastAPI(title="Agent Skill 管理平台") skill_router = APIRouter(prefix="/admin/skills") registered_skills ={}@skill_router.post("/register")defregister_skill(skill_dir:str):"""注册 SKILL.md 格式的 Skill""" skill = load_skill_from_dir(skill_dir) registered_skills[skill.name]= skill # 添加到 LangServe 路由 add_routes(app, skill, path=f"/skills/{skill.name}")return{"code":0,"msg":f"Skill {skill.name} 注册成功"}@skill_router.get("/list")deflist_skills():"""获取所有已注册的 Skill"""return{"code":0,"data":[{"name": k,"description": v.description}for k, v in registered_skills.items()]} app.include_router(skill_router)# 3. 启动服务(集成自定义管理 API)if __name__ =="__main__":import uvicorn uvicorn.run(app, host="0.0.0.0", port=8000)
3. 前端二次开发

LangServe Dashboard 的前端源码在 langchain/langserve/dashboard,基于 React + TypeScript 开发:

  • 克隆源码后,可修改 src/components/SkillList.tsx 扩展 Skill 配置项;
  • 可添加「导入 SKILL.md」「批量注册 Skill」等功能;
  • 编译后替换原 Dashboard 静态资源即可。

二、次选:AgentScope(阿里云开源,多 Agent 管理,Go/Python 双栈)

核心定位

阿里云开源的 Agent 开发框架,自带「Agent 管理控制台」,支持 Skill 标准化注册/配置,纯代码开发、无低代码,适合多 Agent 协作场景。

关键特性

  1. Skill 管理能力
    • 内置 Skill 抽象类,可直接映射 SKILL.md 标准(name/description/parameters);
    • 支持 Skill 版本管理、权限控制、沙箱运行;
  2. 管理配置端
    • 自带 Web 控制台(Go 开发),支持 Skill 列表、调用监控、参数配置;
    • 控制台 API 开放,可二次开发自定义配置项;
  3. 二次开发友好
    • 支持 Python/Go 双语言开发,模块化设计;
    • 提供 Skill 加载器、执行器的扩展接口;
    • 支持自定义 MCP 协议适配。

快速部署

# 安装 pip install agentscope # 启动管理控制台 agentscope dashboard start --port 9000# 注册 Skill(代码/控制台均可) python -m agentscope skill register ./calculator-skill 

访问 http://localhost:9000 即可进入管理后台,支持 Skill 配置、Agent 编排、调用日志查看。


三、备选:OpenAGI(清华开源,全栈可扩展,Skill 市场)

核心定位

清华大学开源的 Agent 框架,自带「Skill 管理平台」,纯代码开发,支持 SKILL.md/MCP 标准,适合复杂场景的二次开发。

关键特性

  1. Skill 管理能力
    • 原生支持 Skill 标准化注册(匹配 SKILL.md 元数据);
    • 支持 Skill 市场、版本迭代、依赖管理;
  2. 管理配置端
    • 自带 Web 管理后台(FastAPI + Vue),可二次开发;
    • 支持 Skill 在线编辑、参数配置、调用测试;
  3. 二次开发友好
    • 纯 Python 代码编写,无低代码封装;
    • 提供 Skill 加载器、执行器的扩展接口;
    • 支持自定义 Agent 调度规则、Skill 路由策略。

部署步骤

# 克隆源码git clone https://github.com/agiresearch/OpenAGI.git cd OpenAGI # 安装依赖 pip install -r requirements.txt # 启动服务(含管理后台) python run.py --web --port 7000

访问 http://localhost:7000 进入管理后台,可直接导入 SKILL.md 格式的 Skill,支持在线配置参数、测试调用。


四、核心选型对比(适配需求)

框架开发语言管理后台Skill 标准支持二次开发难度适用场景
LangGraph + LangServePythonReact + FastAPI(可全量二次开发)完美适配 SKILL.md/MCP低(Python 生态成熟)中小规模、Python 栈、快速扩展
AgentScopePython/GoGo + React(API 开放)适配 SKILL.md/MCP中(双语言)多 Agent 协作、企业级部署
OpenAGIPythonVue + FastAPI(源码开放)原生支持 SKILL.md中(功能丰富,需理解框架)复杂场景、Skill 市场、团队协作

总结

核心关键点回顾

  1. 首选 LangGraph + LangServe:Python 栈、生态最成熟、管理后台可完全二次开发,完美适配 SKILL.md + scripts 标准,无需低代码;
  2. 管理端扩展思路
    • 后端:基于 FastAPI 扩展 Skill 注册/配置 API,对接数据库存储 Skill 元数据;
    • 前端:基于 React/Vue 开发自定义配置页面,调用扩展 API 实现 Skill 在线配置、导入导出;
  3. Skill 适配核心:所有框架都可通过「解析 SKILL.md YAML 头 → 构建标准 Tool/Skill 对象 → 注册到框架」的方式,无缝加载标准化 Skill。

Read more

人工智能:自然语言处理在医疗健康领域的应用与实战

人工智能:自然语言处理在医疗健康领域的应用与实战

人工智能:自然语言处理在医疗健康领域的应用与实战 学习目标 💡 理解自然语言处理(NLP)在医疗健康领域的应用场景和重要性 💡 掌握医疗健康领域NLP应用的核心技术(如电子病历分析、医学文本分类、疾病预测) 💡 学会使用前沿模型(如BERT、GPT-3)进行医疗健康文本分析 💡 理解医疗健康领域的特殊挑战(如医学术语、数据隐私、数据质量) 💡 通过实战项目,开发一个电子病历分析应用 重点内容 * 医疗健康领域NLP应用的主要场景 * 核心技术(电子病历分析、医学文本分类、疾病预测) * 前沿模型(BERT、GPT-3)在医疗健康领域的使用 * 医疗健康领域的特殊挑战 * 实战项目:电子病历分析应用开发 一、医疗健康领域NLP应用的主要场景 1.1 电子病历分析 1.1.1 电子病历分析的基本概念 电子病历分析是对电子病历文本进行分析和处理的过程。在医疗健康领域,电子病历分析的主要应用场景包括: * 病历结构化:将非结构化的电子病历文本转换为结构化数据 * 病历检索:检索相关的电子病历 * 病历质量评估:

Flutter 组件 genkit 的适配 鸿蒙Harmony 深度进阶 - 驾驭模型幻觉审计、实现鸿蒙端多维 RAG 向量对齐与端云协同 AI 指挥中心方案

Flutter 组件 genkit 的适配 鸿蒙Harmony 深度进阶 - 驾驭模型幻觉审计、实现鸿蒙端多维 RAG 向量对齐与端云协同 AI 指挥中心方案

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 genkit 的适配 鸿蒙Harmony 深度进阶 - 驾驭模型幻觉审计、实现鸿蒙端多维 RAG 向量对齐与端云协同 AI 指挥中心方案 前言 在前文中,我们利用 genkit 实现了基础的 AI 模型流式调用(Streaming)与 Prompt 工程。但在真正的“专业级医疗诊断辅助”、“金融量化分析报告生成”或“大型智能客服矩阵”场景中。简单的模型调用仅仅是起点。面对大模型不可避免的“幻觉(Hallucinations)”问题。面对如何在鸿蒙(OpenHarmony)端实现本地向量库(Vector Store)与云端知识库的实时同步。面对如何在不同算力的设备(从手环到大屏)上分配不同的 AI

Llama-Factory能否用于训练意图识别分类器?

Llama-Factory能否用于训练意图识别分类器? 在智能客服、语音助手和对话系统日益普及的今天,如何让机器真正“听懂”用户想表达什么,已经成为AI落地的关键瓶颈。尤其是在面对口语化、省略句甚至歧义表达时,传统分类模型常常束手无策——比如用户说“这个不要了”,到底是想退货?取消订单?还是放弃优惠券?这类问题背后,本质上是对意图识别能力的严峻考验。 过去我们依赖BERT、TextCNN等小模型来做多分类任务,虽然工程实现简单,但在复杂语义理解上逐渐显现出天花板。而大语言模型(LLM)凭借其强大的上下文感知与知识泛化能力,正成为新一代意图识别系统的理想基座。可问题是:训练和微调一个大模型听起来就像一场资源与技术的双重豪赌,难道非得有GPU集群和深度学习专家团队才能玩转? 答案是否定的。随着像 Llama-Factory 这样的开源微调框架出现,大模型定制化已经不再是少数人的游戏。 从“难以上手”到“开箱即用”:Llama-Factory 的破局之道 Llama-Factory 并不是一个新名字,但它正在悄然改变大模型落地的方式。它不是一个简单的训练脚本集合,而是一个全流程、

Whisper-large-v3多任务并行:同一服务同时运行转录/翻译/摘要三模式

Whisper-large-v3多任务并行:同一服务同时运行转录/翻译/摘要三模式 基于 OpenAI Whisper Large v3 构建的多语言语音识别 Web 服务,支持 99 种语言自动检测,可同时运行转录、翻译和摘要三种处理模式。 1. 项目概述与核心价值 Whisper-large-v3 是 OpenAI 推出的强大语音识别模型,拥有 15 亿参数,支持 99 种语言的自动检测与转录。本项目基于该模型二次开发,构建了一个支持多任务并行的 Web 服务,可以在同一服务中同时处理语音转录、文本翻译和内容摘要三种任务。 传统语音识别服务的痛点: * 需要部署多个服务处理不同任务 * 数据在不同系统间流转效率低 * 维护成本高,资源利用率低 本方案的创新价值: * 单服务集成三大核心功能 * 减少数据传输开销,提升处理效率 * 统一接口简化开发集成 * 最大化利用 GPU 资源 通过这个方案,你可以用一段音频输入,