LLM+RAG:AI生成测试用例智能体平台「详细介绍」

LLM+RAG:AI生成测试用例智能体平台「详细介绍」

LLM+RAG:AI生成测试用例智能体平台

1. 系统概述

AI生成测试用例智能体平台是一款基于人工智能技术的测试用例自动生成工具,利用RAG(检索增强生成)技术,能够结合项目相关知识文档和历史用例,智能生成高质量的测试用例。本平台适用于测试团队快速创建测试用例,提高测试效率和质量。

在这里插入图片描述

主要功能

  • 自动从需求文本生成结构化测试用例
  • 支持多种文档格式的知识库导入和检索
  • 结合历史用例和知识文档增强测试用例生成质量
  • 支持多种AI大语言模型接入(本地、线上)
  • 提供多种用例导出格式(Excel、JSON、Markdown)

2. 安装与配置

系统要求

  • Python 3.8+
  • 操作系统:Windows 10/11、macOS、Linux

安装步骤

  1. 安装Ollama(默认本地模型,可选)
    Ollama官网下载并安装最新版本

启动应用

streamlit run rag_test_agent.py 

下载模型(使用Ollama时)

ollama pull qwen2.5:7b 

安装依赖包

pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple 

创建并激活虚拟环境

# Windows python -m venv venv .\venv\Scripts\activate # Linux/macOS python -m venv venv source venv/bin/activate 

克隆或下载项目代码

https://xxx.git (项目源码可我联系获取) cd rag_testcase_plafform 

3. 界面介绍

应用启动后会在浏览器中打开,界面分为三个主要标签页:

3.1 生成测试用例 (📝)

左侧区域用于输入需求描述和配置生成参数,右侧显示知识库状态。

在这里插入图片描述

3.2 知识库管理 (📚)

用于上传和管理知识文档,查看已有知识库内容。

在这里插入图片描述

3.3 模型设置 (⚙️)

配置AI模型类型、参数和API连接信息。

在这里插入图片描述
在这里插入图片描述

4. 生成测试用例

4.1 输入需求描述

有两种方式输入需求描述:

上传需求文档(支持PDF、Word、TXT、Markdown、JSON格式)

在这里插入图片描述

在文本框中直接输入或粘贴

在这里插入图片描述

4.2 配置生成参数

  • AI创造性(Temperature):控制生成结果的随机性(0.1-1.0)
    • 较低值(如0.3):生成更保守、一致的结果

使用知识库和历史用例增强:勾选此选项结合已有知识库和历史用例生成更贴合场景的测试用例

在这里插入图片描述

较高值(如0.8):生成更多样化、创新的结果

在这里插入图片描述

生成最大用例数量:设置需要生成的测试用例数量(5-200个)

在这里插入图片描述

4.3 生成测试用例

  1. 系统首先会从知识库中搜索相关信息(如启用了增强功能)
  2. 调用AI模型生成测试用例

点击导出按钮,可直接导出Excel测试用例

在这里插入图片描述


在这里插入图片描述

生成完成后显示结果,并自动保存到历史记录中

在这里插入图片描述

确认输入和参数后,点击"🚀 生成测试用例"按钮

在这里插入图片描述

4.4 查看生成结果

结果以四种形式展示:

  • 表格视图:以表格形式显示测试用例
  • JSON数据:原始JSON格式数据
  • 统计信息:如优先级分布等统计图表

导出文件:提供JSON和Markdown两种导出选项

在这里插入图片描述

5. 知识库管理

5.1 上传知识文档

  1. 切换到"📚 知识库管理"标签页
  2. 上传文档(支持PDF、Word、TXT、Markdown、JSON格式)
  3. 点击"处理文档"按钮
  4. 系统会自动分析文档内容并提取知识段落

处理完成后显示提取的段落数量

在这里插入图片描述

5.2 查看知识库内容

  • 选择特定文档或查看所有文档
  • 系统显示知识段落内容,包括所属文档和页码信息

默认显示前20条记录,若数量较多会提示总数

在这里插入图片描述

6. 模型设置

6.1 选择模型提供商

  • Ollama:本地部署模型,默认选项
  • OpenAI:使用OpenAI API服务

Custom:自定义API服务

在这里插入图片描述

6.2 配置模型参数

根据选择的提供商配置相应参数:

Ollama
  • 模型名称:选择可用的本地模型(qwen2.5:7b、llama3、mixtral等)

API Base URL:默认为http://127.0.0.1:11434,本地Ollama服务地址

在这里插入图片描述
OpenAI
  • 模型名称:选择OpenAI提供的模型(gpt-4、gpt-3.5-turbo等)
  • API Key:输入OpenAI API密钥

API Base URL:默认为https://api.openai.com

在这里插入图片描述
Custom
  • 自定义模型名称:输入自定义模型名称
  • API Key:输入API密钥(如需要)

API Base URL:输入自定义API服务地址

在这里插入图片描述

7. 导出功能

7.1 导出为JSON

  1. 生成测试用例后,切换到"导出文件"标签

点击"导出为JSON"按钮下载JSON格式文件

在这里插入图片描述

7.2 导出为Markdown

  1. 生成测试用例后,切换到"导出文件"标签
  2. 点击"导出为Markdown"按钮下载Markdown格式文件

可在"Markdown预览"中查看导出效果

在这里插入图片描述

Markdown格式包含:

  • 需求描述
  • 测试用例列表(带编号和链接)

每个测试用例的详细信息(优先级、前置条件、测试步骤和预期结果)

在这里插入图片描述

导出md文件后,在xmind中导入,进行用例评审

在这里插入图片描述

8. 常见问题解答

8.1 生成的测试用例质量不高

  • 确保提供详细、明确的需求描述
  • 上传与需求相关的知识文档到知识库
  • 调整AI创造性参数,尝试不同的值
  • 勾选"使用知识库和历史用例增强"选项

8.2 模型连接失败

  • Ollama模型:确认Ollama服务已启动且能访问(默认地址:http://127.0.0.1:11434)
  • OpenAI模型:验证API密钥是否正确
  • 检查网络连接是否正常

8.3 文档上传失败

  • 确认文档格式是否支持(PDF、Word、TXT、Markdown、JSON)
  • 检查文档是否损坏或加密
  • 尝试将文档分割为更小的文件

9. 最佳实践

9.1 提高测试用例生成质量

  • 提供详细需求:包含功能细节、业务规则和边界条件
  • 充实知识库:上传项目文档、产品规格说明、原型设计等
  • 迭代优化:基于生成结果调整需求描述,多次迭代

9.2 知识库管理建议

  • 定期更新知识库文档,确保内容最新
  • 上传针对特定功能的专业文档,提高相关性
  • 对于大型文档,考虑分割后上传,提高处理效率

9.3 效率提升技巧

  • 先用较低的用例数量生成,查看质量后再增加数量
  • 利用导出功能与测试管理工具集成
  • 在团队间共享和复用知识库,避免重复工作

通过本文档,相信你应能够快速上手LLM+RAG的生成测试用例智能体平台,高效地生成和管理测试用例。如有更多问题或建议,请及时联系我。

Read more

搭建AI资讯早报:AiOnly全球大模型服务+N8N自动化工作流实战

搭建AI资讯早报:AiOnly全球大模型服务+N8N自动化工作流实战

一、AiOnly平台介绍 AiOnly是一个专业的一站式大模型API聚合平台,集成了GPT、Claude、Gemini、DeepSeek、Qwen等数十个全球顶尖AI模型。平台通过统一的RESTful API接口,为用户提供涵盖文本生成、图像创作、视频制作、语音处理等全方位的AI能力服务。 核心优势 * 全球节点覆盖:多个海外节点确保毫秒级响应速度 * 安全认证:通过ISO27001安全认证,保障数据安全 * 成本优化:动态计费模式相比自建节点可节省70%以上成本 * 快速上手:1分钟开通API,5分钟完成调用 * 专业服务:提供7×24小时技术支持 AiOnly致力于帮助开发者和企业轻松集成复杂的AI能力到各种应用场景中,是理想的AI服务合作伙伴。 二、注册和使用AiOnly 2.1 账户注册流程 第一步:访问注册页面 欢迎来到 官网 进行注册! 第二步:完成注册 使用手机号获取验证码,完成注册登录流程 第三步:领取新人福利 成功登录控制台后,系统将自动发放15元新人代金券 2.

芋道项目部署:前端写死后端地址 vs Nginx 反向代理

两种方式的区别、风险与完整配置(小白也能照做) 很多同学第一次部署芋道(Ruoyi-Vue-Pro / 芋道源码)这种前后端分离项目,常见两种访问方式: 1. 前端直接请求后端域名(把 API 地址写死成 https://api.xxx.com) 2. 前端只请求自身域名,Nginx 反向代理转发到后端(前端写 /api,Nginx 转发到 127.0.0.1:48081) 这两种都能跑起来,但生产环境推荐的做法很明确: ✅ Nginx 反向代理(同域转发)更稳、更安全、更省心。 下面用 芋道项目为例,带你从 0 配置到可用,并解释常见坑(比如你遇到的:为什么页面里会看到 localhost)。 1. 两种方式是什么?(先把概念讲明白)

Awesome Android Agent Skills:为你的 AI 编程助手装上 “Android 技能包”

Awesome Android Agent Skills:为你的 AI 编程助手装上 “Android 技能包”

近两年来,AI 编程助手(无论是 GitHub Copilot 还是 Claude)已经从一个“玩具”变成了许多工程师日常开发中不可或缺的伙伴。它们擅长生成模板代码、实现算法,甚至能在几秒钟内搭建一个全新的 Compose 屏幕。 然而,当你试图将它们应用于一个成熟、复杂的大型 Android 项目时,一个普遍的痛点便浮出水面:AI 似乎总是“我行我素”。 你可能也经历过这些场景: * 架构不一致:你希望它遵循团队推崇的“Clean Architecture”,将 UI、领域和数据层严格分离,但它却随手写出了一个将网络请求直接塞进 ViewModel 的实现。 * 状态管理混乱:项目约定使用 StateFlow 传递 UI 状态、SharedFlow 处理一次性事件,但 AI 偏爱使用已被废弃的 LiveData 或是不当使用 Channel。

什么是Qoder?如何下载?如何体验?Qoder和其他 AI IDE 什么区别?

什么是Qoder?如何下载?如何体验?Qoder和其他 AI IDE 什么区别?

什么是Qoder?如何下载?如何体验?Qoder和其他 AI IDE 什么区别? 腾讯有 CodeBuddy、字节有 Trae、百度推了 文心快码、阿里这边本来就有 Lingma IDE,而今天又出现一条新动向:据爆料,阿里推出了 Qoder(谐音 Coder)。Qoder,专为真实软件开发打造的Agentic 编程平台! 文章目录 * 什么是Qoder?如何下载?如何体验?Qoder和其他 AI IDE 什么区别? * 一、Qoder 是什么(功能简介) * 二、支持的系统 * 三、如何下载与体验(超快上手) * 四、定价与当前可用性 * 五、Qoder 和其他 AI IDE 有啥不一样?