技术速递|使用 GitHub Copilot SDK 将智能体集成到任何应用中

作者:Mario Rodriguez

排版:Alan Wang

目前处于技术预览阶段,GitHub Copilot SDK 可作为一个可编程层集成到任何应用中,用于进行规划、调用工具、编辑文件以及运行命令。

从零开始构建 Agentic 工作流很难。

你需要在多轮交互中管理上下文、编排工具和命令、在不同模型之间进行路由、集成 MCP 服务器,并仔细考虑权限、安全边界以及失败模式。甚至在真正触及你的产品逻辑之前,你其实已经先搭建了一个小型平台。

GitHub Copilot SDK(目前处于技术预览阶段)消除了这些负担。它允许你将为 GitHub Copilot CLI 提供能力的同一套 Copilot agentic 核心,直接嵌入到任何应用中。

这让你能够以编程方式访问与 GitHub Copilot CLI 相同、经过生产环境验证的执行循环。也就是说,你无需自己去实现规划器、工具循环和运行时,而是可以将这一整套 agentic 循环直接嵌入到应用中,并在其之上构建任何使用场景。

你还可以获得 Copilot CLI 对多种 AI 模型、自定义工具定义、MCP 服务器集成、GitHub 身份验证以及实时流式输出的支持。

如何开始

我们首先支持 Node.js、Python、Go 和 .NET。你可以使用现有的 GitHub Copilot 订阅,或自带 API Key。

github/copilot-sdk 仓库包含:

  • 安装与配置说明
  • 入门示例
  • 各支持语言的 SDK 参考文档

一个很好的起步方式是先定义一个单一任务,例如更新文件、运行命令或生成结构化输出,然后让 Copilot 负责规划和执行步骤,而你的应用只需提供领域相关的工具和约束。

下面是一个简短的 TypeScript 代码示例,用于预览如何调用 SDK:

import{ CopilotClient }from"@github/copilot-sdk";const client =newCopilotClient();await client.start();const session =await client.createSession({ model:"gpt-5",});await session.send({ prompt:"Hello, world!"});

访问 github/copilot-sdk 开始构建吧。

copilot-silent-click

GitHub Copilot CLI 有哪些新特性?

Copilot CLI 允许你在不离开终端的情况下,规划项目或功能、修改文件、运行命令、使用自定义智能体、将任务委派到云端等等。

自首次发布以来,我们不断扩展 Copilot 的 agentic 工作流能力,使其能够:

  • 以符合你工作方式的形式运行,支持持久化记忆、无限会话以及智能压缩
  • 通过探索、规划和评审工作流帮助你思考,并允许你在每一步选择所使用的模型
  • 通过自定义智能体、智能体技能、完整的 MCP 支持以及异步任务委派来代表你执行操作

SDK 是如何构建在 Copilot CLI 之上的?

SDK 将 Copilot CLI 的 agentic 能力(规划、工具使用以及多轮执行循环)抽取出来,并以你最喜欢的编程语言提供。这使得在任何环境中集成 Copilot 成为可能。你可以构建使用 AI 工作流的 GUI,创建提升个人效率的工具,或在企业工作流中运行自定义的内部智能体。

我们的团队已经用它构建了诸如:

  • YouTube 章节生成器
  • 智能体的自定义 GUI
  • 通过语音转指令来运行桌面应用的工作流
  • 可以与 AI 对战的游戏
  • 各类总结与摘要工具
  • 以及更多内容

你可以将 Copilot SDK 视为一个执行平台:它让你复用 Copilot CLI 背后同一套 agentic 循环,而 GitHub 则负责处理身份验证、模型管理、MCP 服务器、自定义智能体以及聊天会话与流式输出。这意味着,你可以完全掌控在这些基础能力之上要构建什么。

今天就开始构建吧!访问 SDK 仓库即可开始。

Read more

【Agent】那个搞远程的向日葵也出 AI 了?!不用买设备,不用复杂配置,还支持多平台

【Agent】那个搞远程的向日葵也出 AI 了?!不用买设备,不用复杂配置,还支持多平台

那个搞远程的向日葵也出 AI 了?!不用买设备,不用复杂配置,还支持多平台 * 写在最前面 * 比openclaw更简单的配置过程,没有特定环境的需求 * 真正实用的地方,是它更接近现实场景 * 多平台、可查看、可接手,才是它更适合大众的原因 * 结语 🌌你好!这里是 晓雨的笔记本在所有感兴趣的领域扩展知识,感谢你的陪伴与支持~👋 欢迎添加文末好友,不定期掉落福利资讯 写在最前面 版权声明:本文为原创,遵循 CC 4.0 BY-SA 协议。转载请注明出处。 最近一段时间,“AI 操作电脑”这件事越来越火。很多人第一次看到这类演示时,都会觉得有点神奇:原来 AI 不只是会聊天、会写文案,居然真的开始会“用电脑”了。 也正因为这样,很多人会下意识觉得,所有“AI 控电脑”

深度对比 vLLM、SGLang 与 llama.cpp,打通工程落地最后一公里

深度对比 vLLM、SGLang 与 llama.cpp,打通工程落地最后一公里

深度对比 vLLM、SGLang 与 llama.cpp,打通工程落地最后一公里 推理引擎——大模型落地的最后一公里 在 LLM 的工程化落地中,模型权重仅仅是静态的参数,而推理引擎则是负责加载这些参数、构建计算图并高效执行算子的运行时环境(Runtime)。 理解推理引擎,本质上是理解如何通过极致的显存管理与算子调度,将静态的模型参数转化为动态、高并发、低延迟的流式服务。它负责解决的是:如何在有限的资源边界内,压榨出 LLM 生成任务的吞吐量极限。 为什么推理引擎如此重要? 1. 成本控制:在多数线上 LLM 产品中,推理通常是主要成本之一 2. 用户体验:首 Token 延迟(TTFT)和吞吐量直接影响产品体验 3. 规模化能力:能否在目标 SLA 下支撑高并发/高 QPS(并保持 P95/P99

Whisper-large-v3企业部署避坑指南:端口冲突、CUDA OOM、ffmpeg缺失全解析

Whisper-large-v3企业部署避坑指南:端口冲突、CUDA OOM、ffmpeg缺失全解析 1. 为什么企业级部署总在“最后一公里”翻车? 你花三天时间拉完代码、配好环境、跑通demo,信心满满准备上线——结果服务启动失败,日志里只有一行ffmpeg not found;或者好不容易跑起来了,上传一段5分钟音频,GPU显存直接飙到100%,进程被OOM Killer无情杀死;又或者同事说“我打不开网页”,你一查才发现7860端口早被另一个Python脚本占着,而你根本没意识到Gradio默认监听的是0.0.0.0:7860,不是127.0.0.1:7860。 这不是模型不行,是部署环节的“隐性成本”在反杀。Whisper-large-v3作为当前开源语音识别模型中精度与多语言支持的标杆(支持99种语言自动检测),其1.5B参数量和高保真音频处理流程,对运行环境提出了远超普通Web服务的要求。很多团队卡在“能跑”和“稳跑”之间,差的不是技术能力,

Mac本地AI绘画终极指南:用Mochi Diffusion快速生成惊艳作品

Mac本地AI绘画终极指南:用Mochi Diffusion快速生成惊艳作品 【免费下载链接】MochiDiffusionRun Stable Diffusion on Mac natively 项目地址: https://gitcode.com/gh_mirrors/mo/MochiDiffusion 还在为复杂的AI绘画工具发愁吗?想在Mac上轻松创作属于自己的数字艺术作品?Mochi Diffusion作为Mac本地稳定扩散模型的完美解决方案,让您无需任何编程基础,直接通过简单直观的界面就能生成专业级AI图像。 痛点剖析:为什么你需要本地AI绘画工具? 传统AI绘画工具往往需要云端服务支持,不仅受限于网络环境,还存在隐私泄露风险。而Mochi Diffusion彻底解决了这些问题: 数据安全第一:所有生成过程都在本地完成,您的创意和提示词永远不会离开您的设备。 无网络依赖:即使在离线环境下,依然可以流畅创作,告别加载等待。 性能优化:专为Apple生态系统设计,在Intel和Apple Silicon芯片上都能发挥最佳性能。 界面详解:Mochi Diffus