QtCreator配置AI辅助编程插件github copilot保姆级教程

QtCreator配置AI辅助编程插件github copilot保姆级教程

文章目录

概要

在这里插入图片描述
Free版‌免费使用,每月限额 2000 次代码补全 + 50 次聊天交互‌集成于 VS Code,支持跨文件编辑、终端协助及自定义指令‌ ‌

Pro版‌‌个人用户‌:10 美元/月 或 100 美元/年‌ ‌特殊群体‌:学生/教师/热门开源维护者可免费使用 Pro 版‌


Business版‌19 美元/月/用户,按月计费‌面向组织或企业中的团队订阅‌ ‌

Enterprise版‌39 美元/月/用户,按月计费‌企业可按需为不同组织分配 Business 或 Enterprise 订阅‌

官方地址
GitHub Copilot主页
GitHub Copilot官方文档
环境要求
系统:Window11(我是Window11装的,其他系统不清楚)
Qt Creator:使用11+以上的版本,我使用的是Qt Creator 15.0.1
Qt和QtCreator是两个东西,Qt是库,QtCreator是编辑器,可以分开安装,我就是装的qt5.14.0配的4.11.0的Creator,然后重新单独安装了Qt Creator 15.0.1

在这里插入图片描述
资源地址
Qt Creator 15.0.1安装包
网盘地址
因为ZEEKLOG不设置积分,就得要求下载吗,更麻烦,所以设置了2积分,如果没积分,评论留言,我给单独发过去

配置流程

  • 安装Qt Creator 15.0.1
  • 下载安装node.js
  • 下载copilot.vim
  • 重启之后,打开【编辑】-【Preferences】,选择【Copilot】,在右侧勾选Enable Copilot、Auto request(勾选之后在编写代码的时候就可以自动进行提示了),然后分别配置Node.js和copilot.vim的language-server.js的路径;

打开Qt Creator,选择【帮助】【关于插件】,找见copilot,然后勾选上插件,点击确定,重启Qt Creator;

在这里插入图片描述
![(https://i-blog.ZEEKLOGimg.cn/direct/b5596e835aa146b18bbf1c309ff50581.png)

进入授权界面后点击【Authorize Github Copilot plugin】按键授权Qtcreator插件即可;

在这里插入图片描述

登录会让输入验证码,返回Qt Creator,找到下图所示的验证码输入即可;

在这里插入图片描述

配置完路径后【Sign in】就会按键就会亮起,我的已经登录完成了,登录完成就会显示登录的用户名,下边是没登录的样子,上边是完成之后的样子;

在这里插入图片描述
在这里插入图片描述

点击Free下边的Get started即可解决,此时返回qt应该就可以使用了。

在这里插入图片描述

返回qt可能会弹如下窗口,这个是需要我们去领取一下这个插件权限,跳转网页到GitHub Copilot主页
-

在这里插入图片描述

Read more

【AI】——SpringAI通过Ollama本地部署的Deepseek模型实现一个对话机器人(二)

【AI】——SpringAI通过Ollama本地部署的Deepseek模型实现一个对话机器人(二)

🎼个人主页:【Y小夜】 😎作者简介:一位双非学校的大三学生,编程爱好者, 专注于基础和实战分享,欢迎私信咨询! 🎆入门专栏:🎇【MySQL,Javaweb,Rust,python】 🎈热门专栏:🎊【Springboot,Redis,Springsecurity,Docker,AI】  感谢您的点赞、关注、评论、收藏、是对我最大的认可和支持!❤️ 目录 🎈Java调用Deepseek  🍕下载Deepseek模型  🍕本地测试  🍕Java调用模型 🎈构建数据库  🍕增强检索RAG  🍕向量数据库  🍕Springboot集成pgvector 🎈chatpdf 🎈function call调用自定义函数 🎈多模态能力 🎈Java调用Deepseek 本地没有安装Ollama、Docker,openwebUI,可以先学习一下这篇文章:【AI】——结合Ollama、Open WebUI和Docker本地部署可视化AI大语言模型_ollma+本地大模型+open web ui-ZEEKLOG博客

OpenClaw 新手指南:从零开始的 AI 机器人搭建完全攻略

OpenClaw 新手指南:从零开始的 AI 机器人搭建完全攻略 想随时随地通过微信、飞书、Telegram 等平台与 AI 助手对话?OpenClaw 帮你实现。 为什么选择 OpenClaw? OpenClaw 是一个开源的自托管 AI 网关,让你可以在自己服务器上运行一个 central hub,连接所有聊天平台到强大的 AI 模型(如 Claude、GPT、Pi、Kimi 等)。 核心优势: * ✅ 数据完全掌控(自托管,隐私安全) * ✅ 多平台统一管理(一个网关服务所有渠道) * ✅ 无代码扩展(通过技能系统) * ✅ 24/7 可用(开机自启动) * ✅ 日志和记忆(支持长期对话) 10个核心技巧详解 技巧 1:快速安装与配置 适用场景:

基于 FPGA 的千兆网 GigE Vision 视频传输方案实现(A7/K7 实战篇)

基于 FPGA 的千兆网 GigE Vision 视频传输方案实现(A7/K7 实战篇)

基于 FPGA 的千兆网 GigE Vision 视频传输方案实现(A7/K7 实战篇) 前言 在工业视觉和自动化领域,GigE Vision 协议因其无需采集卡、传输距离远、生态成熟等优势,已成为高性能工业相机的核心通讯标准。然而,在 FPGA 上实现一套完全符合标准的 Transmitter(发射端)方案并非易事。 本文将结合 Artix-7 和 Kintex-7 系列 FPGA 的架构特性,深度解析一套工业级 GigE Vision 方案的底层逻辑、核心功能以及在 A7/K7 平台上的落地实践,为企业项目集成和个人进阶学习提供参考建议。 一、 GigE Vision 协议栈的工业级功能拆解 一套商用级的 GigE Vision 方案(Transmitter)必须在

医疗连续体机器人模块化控制界面设计与Python库应用研究(下)

医疗连续体机器人模块化控制界面设计与Python库应用研究(下)

软件环境部署 系统软件架构以实时性与兼容性为核心设计目标,具体配置如下表所示: 类别配置详情操作系统Ubuntu 20.04 LTS,集成RT_PREEMPT实时内核补丁(调度延迟<1 ms)开发环境Python 3.8核心库组件PyQt5 5.15.4(图形界面)、OpenCV 4.5.5(图像处理)、NumPy 1.21.6(数值计算) 该环境支持模块化控制界面开发与传感器数据的实时融合处理,为连续体机器人的逆运动学求解(如FB CCD算法测试)提供稳定运行基础[16]。 手眼协调校准 为实现视觉引导的精确控制,需完成相机与机器人基坐标系的空间映射校准,具体流程如下: 1. 标识点布置:在机器人末端及各段首尾、中间位置共固定7个反光标识点,构建臂型跟踪特征集[29]; 2. 数据采集:采用NOKOV度量光学动作捕捉系统(8台相机,