【最全图文教程】如何在各大应用中配置量界 AI |Chatbox / Cherry Studio / WPS / Lobe / 沉浸式翻译 / VSCode Cline

【最全图文教程】如何在各大应用中配置量界 AI |Chatbox / Cherry Studio / WPS / Lobe / 沉浸式翻译 / VSCode Cline

🚀【最全图文教程】如何在各大应用中配置量界 AI |Chatbox / Cherry Studio / WPS / Lobe / 沉浸式翻译 / VSCode Cline

本文详细介绍了在 Chatbox、Cherry Studio、WPS OfficeAI、Lobe Chat、沉浸式翻译插件及 VSCode Cline 插件中配置量界智算 AI(Gemini 模型)的步骤。各应用均需填写来自量界的 API 密钥和指定 API 主机 / 地址(多为https://liangjiewis.com/),模型 ID 可从量界定价页面获取,按步骤操作并选择对应模型即可使用。
在这里插入图片描述

以下内容将手把手教你在多个热门应用中配置 量界智算 AI(Gemini 模型)。每一步均搭配截图,照着做即可立刻使用。


chatbox 使用教程

1、打开 chatbox 官方网址:
https://web.chatboxai.app/

2、切换中文界面

3、进入 设置 → 模型提供方 → Gemini
填写以下内容:

  • API 密钥:从量界智算 AI 复制生成的令牌
  • API 主机https://liangjiewis.com

4、返回首页新建对话,并选择对应模型

如需新增模型,可在 模型提供方 → Gemini → 新建模型

模型 ID 可在量界定价页面获取:


Cherry Studio 使用教程

1、进入官网下载安装对应版本
https://www.cherry-ai.com/download

2、点击左下角 设置 → 模型服务 → Gemini

填写:

  • API 密钥:量界令牌管理生成
  • API 地址https://liangjiewis.com/
  • 点击 识别/手动添加模型

模型 ID 获取方式相同:

3、新建话题,选择模型即可开始使用


WPS OfficeAI 使用教程

1、到官网下载安装
https://office-ai.cn/static/introductions/officeai/download.html

⚠ 安装前请先退出 WPS

2、打开 WPS → 菜单栏 OfficeAI → 设置

3、按下图填写配置:

  • 服务商:选择“自定义
  • API_KEY:量界令牌
  • 模型名:可刷新或手动添加
  • API 地址:https://liangjiewis.com/

模型 ID 参考量界定价页面:

4、右侧选择模型开始对话,若能正常回复则表示配置完成


Lobe Chat 使用教程

1、进入官网登录账号
https://lobechat.com/

2、点击左上角头像 → 应用设置

3、AI 服务商 → Google

填写:

  • API Key:量界令牌
  • API 代理地址https://liangjiewis.com/

如需新增模型,参考:

4、新建会话并选择对应模型即可使用


沉浸式翻译插件配置量界 AI

1、安装沉浸式翻译插件

2、进入设置

3、进入 翻译服务 → 添加自定义翻译服务 → 自定义 AI

填写:

  • 名称:量界AI
  • API 地址:https://liangjiewis.com/v1/chat/completions
  • API Key:量界令牌
  • 模型:按需添加(量界定价页面可复制)

完成后点击“测试服务”

4、返回选择自定义服务即可使用


VSCode Cline 插件使用教程

1、安装并打开 Cline 插件,选择“使用你的 API Key”

2、按下图填写:

  • API 供应商:Google Gemini
  • API Key:量界令牌
  • 自定义 URL:勾选并填写 https://liangjiewis.com/

3、模型名称同样可在量界官网查看

🎉这份教程超实用!涵盖 Chatbox、Cherry Studio、WPS OfficeAI 等 6 款热门应用 / 插件,手把手教你配置量界智算 AI(Gemini 模型)~ 核心步骤超统一:获取量界 API 密钥🔑+ 填写指定 API 地址🌐,模型 ID 从量界定价页提取,跟着截图操作,新建对话选对应模型就能立马用!🚀 不管是办公、翻译还是编程,都能轻松解锁 AI 助力,小白也能秒上手~

Read more

主流AI绘图工具PK:ComfyUI、Stable Diffusion与Z-Image-Turbo全面评测

主流AI绘图工具PK:ComfyUI、Stable Diffusion与Z-Image-Turbo全面评测 随着生成式AI技术的迅猛发展,AI图像生成已从实验室走向大众创作。在众多开源和商业化工具中,ComfyUI、Stable Diffusion WebUI(SD WebUI) 与近期由阿里通义团队推出的 Z-Image-Turbo WebUI 成为开发者和创作者关注的焦点。三者定位不同、架构各异,在易用性、性能表现和扩展能力上各有千秋。 本文将从核心架构、使用体验、生成质量、部署成本、适用场景五大维度,对这三款主流AI绘图工具进行深度对比评测,并结合真实运行截图与参数调优建议,帮助你做出更精准的技术选型决策。 技术背景与选型动因 AI图像生成模型自Stable Diffusion发布以来,经历了从“能画”到“快画”再到“可控画”的演进。用户需求也从简单的文生图,逐步扩展至高质量输出、低延迟响应、可复现控制、流程自动化等工程化要求。 在此背景下: - Stable Diffusion WebUI 凭借成熟生态成为入门首选;

一文讲透|AI论文写作软件 千笔ai写作 VS 文途AI,自考写作用它最省心!

一文讲透|AI论文写作软件 千笔ai写作 VS 文途AI,自考写作用它最省心!

随着人工智能技术的迅猛发展,AI辅助写作工具已经逐渐成为高校学生完成毕业论文的重要助手。越来越多的学生开始借助这些工具来提升写作效率、优化内容结构,甚至降低查重率。然而,在面对市场上种类繁多的AI写作软件时,许多学生却陷入了“选择困难”的困境——既担心工具的专业性不足,又担忧其效率无法满足实际需求。在这样的背景下,千笔AI凭借其强大的学术写作能力与高效的生成速度,迅速赢得了众多学生的关注和认可。它不仅能够精准适配毕业论文的格式与内容要求,还能帮助用户快速生成高质量的初稿,极大缓解了写作压力。对于正在为毕业论文苦恼的学生来说,千笔AI正是一款值得信赖的智能写作助手。 一、强烈推荐:千笔AI —— 一站式学术支持“专家”,降低AI的性价比之选(推荐指数:★★★★★) 千笔AI针对学生论文写作的痛点,精心打造了八大核心功能,让论文写作变得前所未有的高效和规范。 1. 免费AI辅助选题:精准定位,快速确定研究方向 千笔AI的免费AI辅助选题功能,基于深度学习算法分析近5年顶刊论文和会议文献,构建学科知识图谱,帮助你快速确定一个既有价值又具创新性的选题方向。 2. 免费2000字大纲:结

ControlNet-sd21终极配置手册:5分钟从零到精通的AI绘画控制艺术

ControlNet-sd21终极配置手册:5分钟从零到精通的AI绘画控制艺术 【免费下载链接】controlnet-sd21 项目地址: https://ai.gitcode.com/hf_mirrors/ai-gitcode/controlnet-sd21 想要让AI绘画完全按照你的想法来生成图像吗?ControlNet-sd21作为Stable Diffusion 2.1的专属控制网络,能够将你的创意输入转化为精准的图像输出。本指南将带你快速掌握这套强大工具的配置精髓,彻底告别"AI不听话"的烦恼。 认识你的创作工具箱:12种控制模式全解析 在开始创作前,先来认识一下你的"画笔"。ControlNet-sd21提供了12种不同的控制模式,每种都像是艺术创作中的不同技法: 线条控制三剑客: * Canny边缘检测:适合处理清晰的轮廓线条,如同素描中的轮廓勾勒 * Lineart线稿生成:能够捕捉细腻的线条特征,实现从草图到成品的转化 * HED边缘细节:在保持线条特征的同时增加艺术表现力 空间感知双雄: * Depth深度估计:构建真实的三维空间关系 *

如何解决Llama 3.3 70B模型在TGI框架下的异常输出:终极实战修复指南

如何解决Llama 3.3 70B模型在TGI框架下的异常输出:终极实战修复指南 【免费下载链接】text-generation-inferencetext-generation-inference - 一个用于部署和提供大型语言模型(LLMs)服务的工具包,支持多种流行的开源 LLMs,适合需要高性能文本生成服务的开发者。 项目地址: https://gitcode.com/GitHub_Trending/te/text-generation-inference Text Generation Inference(TGI)是一个用于部署和提供大型语言模型(LLMs)服务的工具包,支持多种流行的开源LLMs,适合需要高性能文本生成服务的开发者。本指南将详细介绍如何解决Llama 3.3 70B模型在TGI框架下可能遇到的异常输出问题,提供完整的故障排查和修复方案。 🔍 理解TGI架构与异常输出根源 Text Generation Inference采用优化的系统架构来提供高性能文本生成服务。要理解Llama 3.3 70B模型的异常输出问题,首先需要了解TGI的基本工作原理