如何在Pycharm中插入AI插件(OpenAI及DeepSeeK)

如何在Pycharm中插入AI插件(OpenAI及DeepSeeK)

1.首先在pycharm找到ai插件,安装

注:有时叫codeGPT,有时叫proxy  AI,其实都是同个插件来的;可以通过logo来确认。

2.安装成功后,会在设置-工具里出现CodeGPT

步骤:选择CodeGPT,选择custom open AI

选择open ai,输入api key,输入url

api key可以通过DeepSeek的api网址里面自己创建输入,下面会附上如何创建;

url可以通过首次调用 API | DeepSeek API Docs里的建议网址,进行输入;

3.填写后,会自动重启,或自行重启pycharm

 

注释:附DeepSeek的API创建方式

https://www.deepseek.com/

注意:密匙一定要先保存好!!再打开可就是看不到完全的了!

首次调用 API | DeepSeek API Docs

 

4.最后效果显示

需注意的是,该插件的gpt只有free版本才可以免费使用;

免费使用选中类型下角,可以选deespeek coder v2-free版本或者gpt-4o mini-free进行使用,

你就可以开启对话啦!

效果如示下,

 

 

Read more

使用LLaMA-Factory微调Qwen2.5-7B-Instruct模型

使用LLaMA-Factory微调Qwen2.5-7B-Instruct模型 一、前言 在大语言模型(LLM)快速发展的今天,如何高效地将通用预训练模型适配到特定业务场景已成为AI工程化落地的核心挑战。本文将详细介绍如何使用 LLaMA-Factory 工具对通义千问团队发布的 Qwen2.5-7B-Instruct 模型进行指令微调(SFT),并结合 Chainlit 构建前端交互界面,实现从数据准备、模型微调到服务部署的完整闭环。 通过本教程,您将掌握: - LLaMA-Factory 的核心功能与优势 - Qwen2.5 系列模型的技术特性 - 基于 LoRA 的参数高效微调实践 - 微调后模型的评估与可视化分析 - 高效部署与前端集成方案 提示:本文基于单机单卡 V100 环境完成,适用于企业级 GPU 资源有限但需快速验证模型能力的场景。 二、技术背景与工具选型 2.1 Qwen2.5-7B-Instruct

零基础玩转Z-Image-Turbo:孙珍妮AI绘画一键生成

零基础玩转Z-Image-Turbo:孙珍妮AI绘画一键生成 1. 这不是普通AI画图,是“孙珍妮专属风格”的一键生成 你有没有试过输入一段文字,几秒钟后就得到一张神态自然、风格统一、细节丰富的孙珍妮风格人像?不是泛泛的“美女”“写真”,而是眉眼间有辨识度、光影里有氛围感、构图中带设计感的专属图像——这次不用调参、不用装环境、不用查模型路径,点开就能用。 这就是【Z-Image-Turbo】依然似故人_孙珍妮镜像的核心价值:它把一个专业级的LoRA微调模型,封装成真正“零门槛”的AI绘画入口。你不需要知道Xinference是什么,也不用搞懂Gradio怎么配置,更不必下载权重、写配置文件、改提示词模板。它已经为你预置好所有环节——从模型服务启动,到Web界面加载,再到生成结果预览,全程可视化、无命令行障碍。 很多新手第一次接触AI绘画时,卡在第一步:环境装不上、端口打不开、提示词不会写、出图模糊或跑偏……而这个镜像,就是专为绕过这些“技术路障”设计的。

从 Python 地狱到 ComfyUI 成功启动:一次完整的 Windows AIGC 环境排错实录

从 Python 地狱到 ComfyUI 成功启动:一次完整的 Windows AIGC 环境排错实录

前言 在 Windows 平台部署 ComfyUI 时,很多用户都会遇到类似问题: Python 已安装、CUDA 驱动正常、显卡也能识别,但 ComfyUI 仍然无法正常启动,或在启动器与命令行之间反复报错。 这些问题往往并非某一步操作失误,而是 Python 版本不一致、CUDA 与 PyTorch 构建不匹配,以及启动器未正确使用虚拟环境 等因素叠加造成的结果。 本文将围绕 ComfyUI + 绘世启动器 的典型使用场景,系统梳理以下三个高频问题: * Python 多版本共存导致的环境错位 * CUDA / PyTorch 无法正确识别 GPU * 启动器与命令行运行环境不一致 并给出 可复现、可验证、适合新手操作的解决方案,帮助你在 Windows 环境下,先把 ComfyUI 的基础运行环境彻底跑稳。 本文聚焦基础python环境配置问题,插件与扩展相关内容将放在后续文章中单独说明。