QtCreator接入外部AI大模型

文章目录

一、概要

本篇文章主要通过让QtCreator接入外部AI插件,实现在QtCretor里调用AI模型完成代码自动补全(Code Completion)和聊天助手(Chat Assistant)的目的。下面是需要操作的工具列表。
Qt版本:Qt5.14.2(自带QtCreator4.11.1,但是这里不用它)
QtCreator版本:QtCreator17.0.0(独立安装程序)
AI插件:QodeAssist项目文章用到的插件release版本

二、安装Qt5.14.2,配置高版本QtCreator

访问: Qt5.14.2使用高版本QtCreator

三、下载AI插件

访问:QodeAssist Releases可以直接下载最新版本的插件,记的选择和自己安装的QtCreator一致的版本,这里选择QodeAssist-v0.6.0-QtC17.0.0-Windows-x64.7z

在这里插入图片描述


下载解压后,里面会有按照QtCreator插件路径创建的lib文件夹,把它放到安装QtCreator17时所选择的文件夹下,一般是C:\Qt\qtcreator-17.0.0

四、配置插件

4.1、AI大模型设置

前面几步操作完成后,打开QtCreator17.0.0=>编辑=>Preferences,找到QodeAssist,如下图配置。配置后在Provider Settings一栏中填上对应模型的API Key即可,非常简单。大家可以根据自己的需求和模型自定义。

在这里插入图片描述

4.2、自动补全配置

打开Code Completion选项,如下图:

在这里插入图片描述


在这里插入图片描述

QodeAssist的自动补全配置分为以下几个主要类别(按界面布局排布),附上个人建议供参考:

自动补全基础设置
  • Enable Auto Complete (autoCompletion): 启用或禁用自动补全功能的主开关
  • Enable Multiline Completion (multiLineCompletion): 允许生成跨多行的代码补全建议【建议】
  • Enable stream option (stream): 启用流式响应,让补全结果逐步显示【建议】
  • Enable smart process text from instruct model (smartProcessInstuctText): 智能处理指令模型的文本输出,如果不设置返回结果大概率会以注释开头。【建议】
  • AI suggestion triggers after typing (autoCompletionCharThreshold): 设置触发AI建议所需的字符数量(0-10个字符)
  • character(s) within(ms) (autoCompletionTypingInterval): 设置字符阈值必须在多长时间窗口内满足(500-5000毫秒)
  • with delay(ms) (startSuggestionTimer): 设置建议显示的延迟时间(10-10000毫秒)
  • Show progress indicator during code completion: 在代码补全过程中显示进度指示器
  • Include context from open files: 在补全时包含打开文件的上下文【不建议】
模型参数设置

基础参数:

  • Temperature: 控制生成文本的随机性(0.0-2.0,默认0.2)
  • Max Tokens: 设置生成的最大token数量(-1到900000,默认100)

高级参数:

  • Top P: 核采样参数,控制候选词汇的累积概率(0.0-1.0)
  • Top K: 限制候选词汇数量(1-1000)
  • Presence Penalty: 存在惩罚,减少重复内容(-2.0到2.0)
  • Frequency Penalty: 频率惩罚,进一步控制重复(-2.0到2.0)
上下文设置
  • Read Full File: 读取完整文件内容作为上下文【不建议】
  • Read Strings Before Cursor: 设置光标前读取的行数(0-10000行,默认50行)
  • Read Strings After Cursor: 设置光标后读取的行数(0-10000行,默认30行)
提示词设置

这项设置取决你使用的模型是否为FIM模型。

  • Use System Prompt: 启用系统提示词
  • System Prompt: 为FIM模型配置的系统提示词
  • Use special system prompt and user message for non FIM models: 为非FIM模型使用特殊的提示词模板
  • Max Changes Cache Size: 项目变更缓存的最大大小(2-1000,默认10)【不建议】
  • Additional Programming Languages: 添加自定义编程语言支持
Quick Refactor Settings(快速重构设置)

Quick Refactor Settings是专门为快速重构功能配置的设置组,包含以下选项:

  • Include context from open files in quick refactor (useOpenFilesInQuickRefactor): 在快速重构时包含打开文件的上下文信息
  • Quick Refactor System Prompt (quickRefactorSystemPrompt): 专门为快速重构功能配置的系统提示词,默认内容为专业的C++、Qt和QML代码补全助手提示
Ollama Settings(Ollama设置)

Ollama Settings是专门为Ollama提供商配置的设置组,包含以下选项:

  • Livetime (ollamaLivetime): 控制Ollama在完成请求后保持活跃的时间(以分钟为单位),设置为-1可禁用此功能,默认值为"5m"
  • Context Window (contextWindow): 设置Ollama的上下文窗口大小,范围为-1到10000,默认值为2048

4.3、聊天助手配置

打开Chat Assistant设置页面,如下图:

在这里插入图片描述

QodeAssist的聊天助手配置分为以下几个主要类别(按界面布局排布):

Chat Settings(聊天设置)
  • Chat history token limit (chatTokensThreshold): 聊天历史记录的token限制,当超过此限制时会移除最旧的消息,范围1-99999999,默认值20000
  • Sync open files with assistant by default (linkOpenFiles): 默认情况下与助手同步所有打开的文件,默认值false【不建议】
  • Enable stream option (stream): 启用流式响应选项,让回复逐步显示,默认值true
  • Enable autosave when message received (autosave): 收到消息时启用自动保存功能,默认值true
General Parameters(基础参数)
  • Temperature: 控制生成文本的随机性和创造性,范围0.0-2.0,默认值0.5
  • Max Tokens: 设置生成响应的最大token数量,范围-1到10000,默认值2000
Advanced Parameters(高级参数)
  • Top P: 核采样参数,控制候选词汇的累积概率,范围0.0-1.0,默认值0.9,需要先启用才能使用
  • Top K: 限制候选词汇数量,范围1-1000,默认值50,需要先启用才能使用
  • Presence Penalty: 存在惩罚参数,减少重复内容的生成,范围-2.0到2.0,默认值0.0
  • Frequency Penalty: 频率惩罚参数,进一步控制重复内容,范围-2.0到2.0,默认值0.0

Context Settings(上下文设置)

  • Use System Prompt: 启用系统提示词功能,默认值true
  • System Prompt: 配置聊天助手的系统提示词,默认为专业的C++、Qt和QML开发AI助手提示

Ollama Settings(Ollama设置)

  • Livetime: 控制Ollama在完成请求后保持活跃的时间(分钟),设置为-1可禁用,默认值"5m"
  • Context Window: 设置Ollama的上下文窗口大小,范围-1到10000,默认值2048
Chat Settings(聊天设置)
  • Text Font: 设置聊天界面文本的字体家族,从系统可用字体中选择,默认为系统字体
  • Text Font Size: 设置文本字体大小,默认为系统字体大小
  • Code Font: 设置代码块的字体家族,默认为等宽字体
  • Code Font Size: 设置代码字体大小,默认为系统字体大小
  • Text Format: 设置文本格式显示方式,可选择Markdown、HTML或纯文本,默认为Markdown

结尾

根据上述提示设置后即可使用,如果有开启日志选项,可以在QtCreator底部概要信息内查看;如果想使用自动补全,又没有开启自动补全设置,可以通过快捷键Ctrl Alt Q或者右键菜单开启;如果想使用聊天助手,在底部QodeAssist Chat查看,如下图。

在这里插入图片描述


结束。

Read more

前端与 Spring Boot 后端无感 Token 刷新 - 从原理到全栈实践

前端与 Spring Boot 后端无感 Token 刷新 - 从原理到全栈实践

🌷 古之立大事者,不惟有超世之才,亦必有坚忍不拔之志 🎐 个人CSND主页——Micro麦可乐的博客 🐥《Docker实操教程》专栏以最新的Centos版本为基础进行Docker实操教程,入门到实战 🌺《RabbitMQ》专栏19年编写主要介绍使用JAVA开发RabbitMQ的系列教程,从基础知识到项目实战 🌸《设计模式》专栏以实际的生活场景为案例进行讲解,让大家对设计模式有一个更清晰的理解 🌛《开源项目》本专栏主要介绍目前热门的开源项目,带大家快速了解并轻松上手使用 🍎 《前端技术》专栏以实战为主介绍日常开发中前端应用的一些功能以及技巧,均附有完整的代码示例 ✨《开发技巧》本专栏包含了各种系统的设计原理以及注意事项,并分享一些日常开发的功能小技巧 💕《Jenkins实战》专栏主要介绍Jenkins+Docker的实战教程,让你快速掌握项目CI/CD,是2024年最新的实战教程 🌞《Spring Boot》专栏主要介绍我们日常工作项目中经常应用到的功能以及技巧,代码样例完整 👍《Spring Security》专栏中我们将逐步深入Spring Security的各个

YOLO12检测结果导出功能:WebUI支持PNG下载+JSON结果保存

YOLO12检测结果导出功能:WebUI支持PNG下载+JSON结果保存 1. 引言:从“看得到”到“用得上” 你刚用YOLO12跑完一张图片,屏幕上花花绿绿的检测框确实挺酷——人、车、狗都标出来了,置信度也显示得清清楚楚。但接下来呢?你想把这张带标注的结果图保存下来发给同事看,或者想把检测到的所有目标信息(比如坐标、类别)导出来做进一步分析,是不是突然发现有点无从下手? 这就是很多目标检测工具的一个小痛点:检测过程很流畅,结果展示很直观,但到了“把结果拿出来用”这一步,往往就卡住了。要么只能截图保存,丢失了原始数据;要么得自己写代码去解析后台返回的信息,麻烦得很。 今天要聊的,就是YOLO12镜像里一个特别实用的功能升级:检测结果导出。现在,你不仅能在WebUI上实时看到检测效果,还能一键下载带标注的PNG图片,同时自动保存包含所有检测细节的JSON文件。简单说,就是从“只能看”变成了“既能看又能用”。 这个功能听起来简单,但在实际工作里能省不少事。比如做安防监控的演示,你需要把检测结果存档;比如做数据分析,

前端多版本零404部署实践:为什么会404,以及怎么彻底解决

这是一篇给“小白也能看懂”的实践文:讲清现象、根因、方案选择与我们的落地实现。 1. 现象:为什么发布新版本后会出现 404? 一个真实场景: * 10:00 用户打开了你的网页(加载的是 v1.0.4 的 HTML) * 10:10 你发布了 v1.0.5 * 用户没有刷新页面,继续点击某个功能 * 页面尝试按旧 HTML 里的地址加载某个 chunk:/assets/pages-about-about.DK5VADjQ.js * 服务器上只剩 v1.0.5 的文件,旧的被删了 → 直接 404 关键点: * HTML 决定了要加载哪些 JS/CSS(包含具体