IntelliJ IDEA 接入 AI 编程助手(Copilot、DeepSeek、GPT-4o Mini)

IntelliJ IDEA 接入 AI 编程助手(Copilot、DeepSeek、GPT-4o Mini)

IntelliJ IDEA 接入 AI 编程助手(Copilot、DeepSeek、GPT-4o Mini)

📊 引言

近年来,AI 编程助手已成为开发者的高效工具,它们可以加速代码编写、优化代码结构,并提供智能提示。本文介绍如何在 IntelliJ IDEA 中集成 DeepSeek、GPT-4o Mini、GitHub Copilot,并探索 本地 AI 编程助手 方案,帮助开发者在不同场景下提升编程效率。


👨‍💻 1. GitHub Copilot 集成

Copilot 是由 GitHub 和 OpenAI 推出的 AI 代码补全工具,它可以根据上下文智能生成代码片段。
GitHub Copilot 免费版 vs 付费版对比。

功能免费版付费版
代码补全每月 2,000 次代码补全建议无限制代码建议
Copilot Chat每月 50 条聊天消息无限制聊天消息
AI 模型选择可选择 Claude 3.5 Sonnet 或 GPT-4o额外提供 o1-preview 和 o1-mini 模型
跨文件编辑支持支持
Copilot 扩展生态系统访问支持支持
拉取请求摘要不支持支持
组织范围的策略管理不支持支持
审核日志不支持支持
增加的 GitHub 模型速率限制不支持支持
Copilot 知识库不支持支持
大语言模型微调不支持支持

1.1 安装 GitHub Copilot 插件

  1. 打开 IntelliJ IDEA,进入 File > Settings(Windows)或 Preferences(Mac)。
  2. Plugins 搜索 GitHub Copilot
  3. 点击 Install 并重启 IDEA。
在这里插入图片描述

1.2 配置 GitHub Copilot

  1. 进入 Settings > GitHub Copilot,登录 GitHub 账户。
  2. 启用 Copilot SuggestionsCopilot Chat
  3. 在代码编辑器中尝试输入 /** 或函数定义或者注释,Copilot 会自动补全。
在这里插入图片描述

需要个人 Github 账号开启 Copilot,插件下载完成后按照指引进行登录 Github 并进行功能授权验证,验证完成后即可体验 Github Copilot。

1.3 Copilot 代码辅助示例

代码自动补全(通过注释理解我们需要写的代码逻辑进行补全)。

在这里插入图片描述


可选择指定代码文件点击 Copilot Chat 进行对话代码推理分析,优化我们的代码或者帮我们完成描述的需求。

请添加图片描述


📢 IntelliJ IDEA 接入 AI 编程助手 Github Copilot 安装部署操作详细视频已更新


🤖 2. DeepSeek 集成

DeepSeek 是国产 AI 编程助手,支持类代码补全,具备更强的中文理解能力。DeepSeek 需要通过 API 方式接入或本地部署。这里介绍一款插件 CodeGPT,一款人工智能代码助手,已经支持集成市面上常见的大模型,我们通过它接入 DeepSeek。

2.1 安装 CodeGPT 插件

  1. 在 IDEA 插件市场 搜索 CodeGPT
  2. 安装插件并重启。

2.2 配置 API Key 或本地部署

如果使用本地部署,需要运行本地模型,并配置请求地址(具体步骤可参考【DeepSeek + Ollama 本地部署全流程】),下面主要演示 API Key 配置场景。

1.进入 Settings > Tools > CodeGPT > Providers,选择 Custom OpenAI

在这里插入图片描述


2.配置 Custom OpenAI,选择 OpenAI(DeepSeek接口有考虑 OpenAI 兼容,所有大致参数可不变),输入DeepSeek的 API Key(可从 DeepSeek API 官网获取)。

在这里插入图片描述


填写 DeepSeek 上创建的 API Key。

在这里插入图片描述


3.通过 Custom OpenAI 这种方式需要手动填写 DeepSeek API 地址,可以参考官方文档:https://api-docs.deepseek.com/zh-cn/

在这里插入图片描述


按照官网对应的URL进行填写:https://api.deepseek.com/chat/completions

在这里插入图片描述


注意请求的 Headers 可不用变更,需要将 Body 中的 model 修改为:deepseek-reasoner,保存即可。
deepseek-chat 模型已全面升级为 DeepSeek-V3,接口不变。 通过指定 model=‘deepseek-chat’ 即可调用 DeepSeek-V3。
deepseek-reasoner 是 DeepSeek 最新推出的推理模型 DeepSeek-R1。通过指定 model=‘deepseek-reasoner’,即可调用 DeepSeek-R1。

在这里插入图片描述


注意由于当前DeepSeek现在已经停止API接口服务充值,新用户需要等待后续恢复之后再尝试使用。(现在已经恢复充值,大家可以去体验了)
📢 IntelliJ IDEA 接入 DeepSeek R1/V3 安装部署操作详细视频已更新

🛠️ 3. GPT-4o Mini 集成

GPT-4o Mini 是 OpenAI 推出的轻量级 GPT-4o 版本,通过 CodeGPT 插件接入 IntelliJ IDEA,并且是 免费 使用的(每月有次数限制)。

3.1 安装 CodeGPT 插件

  1. 在 IDEA 插件市场 搜索 CodeGPT
  2. 安装插件并重启。

3.2 配置 GPT-4o Mini

  1. 进入 Settings > Tools > CodeGPT > Providers,选择 CodeGPT。
  2. 填写 CodeGPT 的 API Key (CodeGPT官网)

Chat 模型选择 GPT-4o Mini 。启用 Enable Code AssistantEnable code completions 选项。

在这里插入图片描述

3.3 GPT-4o Mini 智能分析代码示例

使用后觉得效果很不错。

在这里插入图片描述

🔄 4. AI 代码助手对比分析

工具特点适用场景
GitHub Copilot云端 AI 代码补全适合日常开发,智能推荐代码
DeepSeek强中文理解能力,需 API适合国内开发者,支持 API 调用
GPT-4o Mini免费使用,通过 CodeGPT 插件接入适合初学者或轻量 AI 辅助
Ollama + DeepSeek本地模型运行适合私有部署,保护代码隐私

📈 总结

本文介绍了 IntelliJ IDEA 接入 AI 编程助手 的多种方式,包括 GitHub Copilot、DeepSeek、GPT-4o Mini,以及 本地 AI 部署方案。开发者可根据 需求、安全性、网络环境 选择合适的 AI 助手。

如果你有更好的 AI 代码助手推荐,欢迎在评论区交流!


🌟 你的支持是我持续创作的动力,欢迎点赞、收藏、分享!

Read more

Whisper语音识别避坑指南:从安装到部署常见问题全解

Whisper语音识别避坑指南:从安装到部署常见问题全解 你是不是也遇到过这样的情况:满怀期待地部署Whisper语音识别服务,结果卡在FFmpeg找不到、GPU显存爆了、端口被占用……别急,这篇文章就是为你准备的。我们不讲大道理,只聊实战中踩过的坑和对应的解决方案。 本文基于 Whisper-large-v3 多语言语音识别 Web 服务镜像(由113小贝构建),结合真实部署经验,手把手带你绕开那些让人抓狂的“小问题”。无论你是第一次接触语音识别,还是已经折腾了一整天却始终无法启动服务,这篇避坑指南都能帮你快速上路。 1. 环境准备:别让基础配置拖后腿 1.1 硬件要求不是“建议”,是底线 先说清楚:Whisper large-v3 模型对硬件有硬性要求,不是“推荐”那么简单。这个模型参数量高达1.5B,加载一次就要吃掉近3GB显存,推理过程还会持续占用资源。 资源最低要求推荐配置GPURTX 3090 (24GB)RTX 4090 D (23GB+)内存16GB32GB存储10GB可用空间SSD

InstructPix2Pix效果实测:结构保留能力 vs Stable Diffusion 图生图对比

InstructPix2Pix效果实测:结构保留能力 vs Stable Diffusion 图生图对比 1. 为什么说InstructPix2Pix是真正的“魔法修图师” 你有没有过这样的经历:想把一张照片里的白天改成夜晚,或者给朋友P一副墨镜,又或者让一张普通街景变成雨天氛围——但打开PS,面对层层叠叠的图层和蒙版,最后只留下满屏困惑?传统图像编辑工具需要你懂色彩曲线、图层混合模式、甚至手绘遮罩;而Stable Diffusion这类图生图模型,又常常让人陷入“写对Prompt像解谜”的困境:多加一个词,画面就崩掉;少写一个细节,AI就自由发挥到千里之外。 InstructPix2Pix不一样。它不把你当设计师,也不把你当咒语学徒,而是直接把你当“导演”——你只需要用日常英语说出想法,它就照着执行,而且几乎不会跑偏。 这不是滤镜,不是风格迁移,更不是粗暴重绘。它像一位经验丰富的修图老手,先仔仔细细看清原图里每一条轮廓线、每一个人物姿态、每一处光影关系,再只动你点名要改的那一小块。你让它“add sunglasses”,它不会顺手把人脸拉长、把背景重画一遍;你让它“

【AIGC】ChatGPT 实用技巧:文本与数据的结构化方法全解析

【AIGC】ChatGPT 实用技巧:文本与数据的结构化方法全解析

博客主页: [小ᶻ☡꙳ᵃⁱᵍᶜ꙳]本文专栏: AIGC |ChatGPT 文章目录 * 💯前言 * 💯中文排版序号 * 1. 一级标题(First-Level Title) * 2. 二级标题(Second-Level Title) * 3. 三级标题(Third-Level Title) * 4. 四级标题(Fourth-Level Title) * 💯Markdown 语法 * 一级标题(First-Level Heading) * 二级标题(Second-Level Heading) * 子标题(Subheadings) * 列表(Lists) * 无序列表 * 有序列表 * 加粗和斜体(Bold and Italics) * 加粗 * 斜体 * 💯编程语法也是结构化 * YAML 语法结构的例子 * 1. 层级关系(

llama.cpp加载多模态gguf模型

llama.cpp预编译包还不支持cuda12.6 llama.cpp的编译,也有各种坑 llama.cpp.python的也需要编译 llama.cpp命令行加载多模态模型 llama-mtmd-cli -m Qwen2.5-VL-3B-Instruct-q8_0.gguf --mmproj Qwen2.5-VL-3B-Instruct-mmproj-f16.gguf -p "Describe this image." --image ./car-1.jpg **模型主gguf文件要和mmporj文件从一个库里下载,否则会有兼容问题,建议从ggml的官方库里下载 Multimodal GGUFs官方库 llama.cpp.python加载多模态模型 看官方文档 要使用LlamaChatHandler类,官方已经写好了不少多模态模型的加载类,比如qwen2.5vl的写法: from llama_cpp import Llama