cline插件 idea安装AI插件

cline插件 idea安装AI插件
下载 cline插件 到本地
https://plugins.jetbrains.com/plugin/28247-cline/versions/stable
idea安装 本地下载的 cline插件
注意 下载的版本 要和 idea匹配,2025.1(idea)和 1.1.0 (cline)匹配。

在这里插入图片描述

idea里面配置cline 插件
一些配置参数:
API Provider 、API Key、Base URL、Model ID、Use prompt caching、Enable Thinking
根据自己实际 数据填写这些参数
API Provider : LiteLLM
API Key:你自己的 API Key(这个是自己申请的唯一key)
Base URL :生产环境(自己实际的开发环境地址)
Model ID : openai/qwen3-coder-plus
Use prompt caching : 一定要勾选此选项
Enable Thinking:不少供应商和模型不支持thinking模式

Idea、vscode里面安装 AI插件 cline插件,Qwen Code 安装+配置
Cline覆盖绝大多数AI coding开发场景,Qwen Code主要适配只能使用命令行无IDE的开发环境

2、
AI编程工具Qwen Code的应用

  • Qwen Code 是一个强大的基于命令行、面向开发者的 AI 工作流工具,改编自 Gemini CLI,专门针对 Qwen3-Coder 模型进行了优化。
  • 它专门为代码理解、代码重构、自动化工作流、Git 操作等场景设计,让你的开发工作变得更高效、更智能。
  • 它既可以通过 OAuth 无感登录使用官方免费额度,也支持 OpenAI-compatible(自定义 API)模式接入。
    二、Qwen Code 安装+配置
    1、安装nodejs,版本要求:>= 20.18
    2、配置nodejs的环境变量path
    3、安装Qwen code
  • 内网环境需要指向内部镜像,首先配置npm的仓库地址
    npm config set registry http://hu/repository/npm-npmmirror/
  • 安装qwen code
    npm install @qwen-code/[email protected] -g
    (注:可在http://h:9081/中搜索"qwen-code",以确定是否有对应的版本,案例版本是0.0.8)
    4、配置npm和Qwen Code环境变量
    这一步最重要的是配置需要调用的大模型,需要申请OPENAI_API_KEY,我们提供了一个申请平台专门负责账号的管理,同时提供了部分常用的大模型,AICoding虚拟账号申请和使用
    这里我们后台连接的是openai/qwen3-coder-plus;
    1)Windows
    1. 在CMD、PowerShell或终端输入npm config get prefix,获取npm位置信息
    2. 配置npm位置信息配置到环境变量中
      1、获取管理员账号权限,直接在系统变量中设置
      2、打开window PowerShell,然后修改执行策略 Set-ExecutionPolicy -Scope CurrentUser
      接着在提示行中输入策略参数:RemoteSigned
    3. 配置Qwen Code参数
      每次启动Qwen Code之后都会要求输入对应的OPENAI_API_KEY、OPENAI_BASE_URL和OPENAI_MODEL以调用相应的大模型,可在环境变量中配置相关参数避免重复输入,三个参数分别代表申请到的api_key,大模型地址或代理地址,模型名称
      三、使用Qwen Code
      案例:代码优化
      接口名称:/userManagement/getUserGroupList
      功能:根据模糊匹配用户名,并获取对应用户的群组信息列表
      编写语言:java
      1、进入到需要项目所在根目录 cd \project\user\git\user-management,输入qwen启动服务
      [图片]
      在对话框中输入提示词:请优化src\main\java\com\user目录下UserController中的getUserGroupList方法
      首先,大模型会自己去查找service、dao等文件中涉及到的方法,以理解整个流程

Read more

前端文本测量成了卡死一切创新的最后瓶颈,pretext实现突破了

前端文本测量成了卡死一切创新的最后瓶颈,pretext实现突破了

亲爱的前端开发者(以及所有关心界面未来的人),我最近把大量精力砸进了一个听起来小众、实则能重塑整个网页布局范式的项目。过去几年,我们一直在抱怨 CSS 强大却难以捉摸,DOM 测量方便却代价高昂。尤其在 AI 时代,界面需要动态、响应式、甚至上万元素同时运行时,文本测量成了卡死一切创新的最后瓶颈——它既是基础,又是地狱。 现在,这个瓶颈被彻底攻破了。我发现了一个开源纯 TypeScript 的用户态文本测量引擎,名叫 Pretext。它不需要 CSS、不依赖 DOM 测量,就能精准计算任意文本在任意宽度下的排版结果,支持整个网页的完整布局。体积只有几 KB,却能处理浏览器所有怪癖,支持全球语言(包括韩文混排 RTL 阿拉伯文和平台表情),还能轻松跑出 120fps 的复杂交互。 看效果 TypeScript 的用户态文本测量引擎,名叫 Prete 很多人以为 CSS

前端大文件分片上传实现与断点续传方案(含完整代码讲解)

在上传大文件(如视频、安装包、模型文件)时,直接上传容易出现以下问题: * 文件过大 → 浏览器/服务器容易超时 * 上传过程中断 → 重新上传浪费时间 * 网络波动 → 上传失败率高 因此,大文件分片上传 + 断点续传 + 秒传校验 是目前最通用、最稳定的解决方案。 本文将通过一段完整可运行的示例代码,详细讲解如何在前端实现分片上传、断点续传、服务端校验等关键功能。 ✨ 实现效果 * ✔ 自动切片(默认 5MB/片,可配置) * ✔ 查询已上传分片(断点续传) * ✔ 自动跳过已上传的片段 * ✔ 每片上传成功后重新校验 * ✔ 所有片段上传完成后自动触发合并 * ✔ 错误处理完善 📌 核心代码(uploadLargeFile) 以下代码就是本文的核心逻辑,也是你提供的代码版本,经过梳理解释后会更易理解: export async function uploadLargeFile({ file, fileId, id, chunkSize = 5 * 1024

基于.Net的Web API 控制器及方法相关注解属性

文章目录 * 1. 路由与 HTTP 方法 (`Microsoft.AspNetCore.Mvc` 命名空间) * 2. 参数绑定源 (`Microsoft.AspNetCore.Mvc` 命名空间) * 3. 响应类型与格式 (`Microsoft.AspNetCore.Mvc` 命名空间) * 4. 授权与认证 (`Microsoft.AspNetCore.Authorization` 命名空间) * 5. Swagger/OpenAPI 文档增强 (`Swashbuckle.AspNetCore.Annotations` 或 `Microsoft.AspNetCore.Mvc`) 这些属性主要用于定义 API 的路由、HTTP 方法、参数绑定、响应类型、授权、Swagger 文档等,通常位于控制器类或 Action

使用rclone将远程的webDav文件共享映射成本地硬盘

#webdav #rclone 一、准备工作 1.1 准备webdav连接 支持webdav的网盘有好多,请自行准备。我做示范的是国外的一个免费网盘,地址是https://infini-cloud.net/en/index.html, 先注册一个账号,就有20GB的免费空间可用。 收到验证邮件,输入验证码或者点击验证链接,注册成功后进入My Page。 免费的20GB空间大小,如果你在主页下方输入我送你的优惠码 L3UV8,你还将多获得5GB的空间 设置允许webDav访问,记住你的密码,如果忘记了,可以Reissue. 记录下以下三个信息(密码只显示一次) WebDAV Connection URLConnection IDApps Password 尝试一下webdav登录,可以正常访问 1.2 下载Rclone和WINFSP 我本机是Win11,我以windows版本为实例,其他操作系统请自行参考查找相关资料。 下载地址: https://rclone.org/downloads/