Win11+IDEA插件实现大模型AI开发(Codex-gpt-5.4)
Win11+IDEA插件实现大模型AI开发之Codex-gpt-5.4
一、需要准备Node环境


二、安装Codex
操作步骤:
2.1如果已经安装Codex但是执行报错需要先卸载,没有安装过则直接进行步骤2.3
npm uninstall -g @openai/codex 2.2删除相关的文件Codex,避免文件影响
rd /s /q


操作步骤:
npm uninstall -g @openai/codex rd /s /q
作者:卢建晖 - 微软高级云技术布道师 排版:Alan Wang 引言 在当今快速演进的 AI 技术格局中,我们已经见证了从简单聊天机器人到复杂智能体系统的转变。作为一名开发者和技术布道者,我观察到一个正在形成的趋势——重点不在于让 AI 无所不能,而在于让每一个 AI Agent 在特定领域做到极致、做到专业。 今天,我想分享一套令人兴奋的技术组合:GitHub Copilot SDK(将生产级智能体引擎嵌入任意应用的开发工具包) + Agent-to-Agent(A2A)Protocol(实现智能体标准化协作的通信规范) + 云原生部署(支撑生产系统的基础设施)。这三者结合在一起,使我们能够构建真正具备协作能力的多智能体系统。 从 AI 助手到智能体引擎:重新定义能力边界 传统的 AI 助手往往追求“全能”——试图回答你抛给它的任何问题。但在真实的生产环境中,这种方式会遇到严重挑战: * 质量不一致:一个模型同时写代码、做数据分析、
在开源大模型领域,Qwen 系列凭借强大的中文能力和友好的协议受到广泛欢迎。然而,直接使用基座模型往往无法满足特定业务场景的需求,需要通过微调来注入领域知识。微调后的模型如何高效部署?GGUF 格式是目前 llama.cpp 等推理后端广泛支持的格式,具有跨平台、内存映射等优点。本文将完整记录使用 LLaMA-Factory 微调 Qwen2.5-7B-Instruct 模型,并通过 llama.cpp 将微调后的模型转换为 GGUF 格式的全过程,并分享在转换过程中遇到的经典错误及其解决方案。 1.环境准备 我们在一台 Linux 服务器上操作,安装了 Conda 用于环境隔离。需要准备以下组件: Python 3.10 LLaMA-Factory(用于微调) llama.cpp(用于格式转换) transformers、peft、accelerate 等依赖库 1.1
博客主页: [小ᶻ☡꙳ᵃⁱᵍᶜ꙳]本文专栏: AIGC |ChatGPT 文章目录 * 💯前言 * 💯中文排版序号 * 1. 一级标题(First-Level Title) * 2. 二级标题(Second-Level Title) * 3. 三级标题(Third-Level Title) * 4. 四级标题(Fourth-Level Title) * 💯Markdown 语法 * 一级标题(First-Level Heading) * 二级标题(Second-Level Heading) * 子标题(Subheadings) * 列表(Lists) * 无序列表 * 有序列表 * 加粗和斜体(Bold and Italics) * 加粗 * 斜体 * 💯编程语法也是结构化 * YAML 语法结构的例子 * 1. 层级关系(
关键词:Agent Native|Flow Engineering|可控 AI|组织 SOP 数字化 引言:AI 的竞争焦点,已经完成一次根本性迁移 2023–2024 年,AI 的进步主要体现在模型层: * 更大的上下文窗口 * 更强的推理能力 * 更接近人类的语言表达 但站在 2026 AI 元年 的门槛上,行业正在形成一个高度一致的判断: AI 的核心竞争力,不再是“模型有多聪明”,而是“系统是否可控、可复用、可规模化”。 这意味着,AI 正在经历一次范式级跃迁: 从 LLM 的单点能力展示,进入 Agent Native 的系统时代。 一、为什么 2025 年之前的