AI测试 开源项目:WHartTest v2.0.0 发布 - AI 驱动的智能测试用例生成平台

AI测试 开源项目:WHartTest v2.0.0 发布 - AI 驱动的智能测试用例生成平台

WHartTest v2.0.0 发布:AI 驱动的测试自动化平台

如果你还没听过 WHartTest,可以先用一句话理解它:

WHartTest 是一个开源的 AI 驱动测试自动化平台,帮助团队把“需求理解 -> 用例生成 -> 测试执行 -> 结果回传”串成一个完整流程。

它基于 Django REST Framework + Vue 构建,融合 LangChain/LangGraph、知识库检索、MCP 工具调用等能力,目标是让测试团队更快、更稳地落地 AI。

在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述

为什么做 WHartTest?

很多团队在用 AI 做测试时会遇到几个共同问题:

  1. 只能“对话”,难进真实测试流程
  2. 工具调用不够可控,缺少审批与边界
  3. Token 成本和质量数据不可观测
  4. 自动化能力零散,难形成闭环

WHartTest 的定位就是:不是单点 AI 功能,而是面向测试团队的工程化平台能力。


WHartTest 可以做什么?

  1. 基于需求文档和知识库生成结构化测试用例
  2. 支持 AI 需求评审、风险提示与测试建议
  3. 集成 MCP 工具调用,支持自动化执行与回传
  4. 支持项目隔离、权限控制、提示词管理
  5. 支持测试执行过程管理、截图与结果追踪

v2.0.0 重点升级

这次 v2.0.0 的核心不是“加几个按钮”,而是把稳定性、可控性、可观测性全面升级。

1. 架构升级:Agent 能力更稳定

  • LangChain 升级到 v1.x 体系(含 LangGraph v1.x)
  • 重构 Agent Loop,统一创建方式
  • 引入 Middleware 机制,支持上下文压缩与 HITL 流程

2. 可控升级:AI 工具调用可治理

  • 新增工具“始终拒绝”策略(自动拒绝高风险工具调用)
  • 图表编辑器支持 HITL 工具审批卡片与中断恢复
  • 集成并优化 agent-browser 稳定性

3. 可观测升级:Token 与成本更透明

  • Token 用量追踪与统计看板增强
  • 优化计费精度,按真实 usage_metadata 统计
  • 修复重复累加与时区偏差问题

4. 体验与韧性升级

  • 修复重试导致的消息前后端不同步
  • 修复 HTML 消息显示与换行问题
  • 优化流式响应在审批等待场景的状态判断
  • 增加版本检查与 Draw.io 超时降级机制

这对团队意味着什么?

  1. 更稳:长链路 Agent 场景更可靠
  2. 更可控:关键工具调用可审批、可限制
  3. 更可管:Token 成本和执行过程可追踪
  4. 更易落地:从“AI 能用”走向“团队可持续使用”

快速体验(Docker)

如果项目对您有用请点个 star~ 支持一下,谢谢

git clone https://github.com/MGdaasLab/WHartTest.git cd WHartTest cp .env.example .env docker-compose up -d

Read more

OpenClaw 安装 + 接入飞书机器人完整教程

OpenClaw 安装 + 接入飞书机器人完整教程 OpenClaw 曾用名:ClawdBot → MoltBot → OpenClaw(同一软件,勿混淆) 适用系统:Windows 10/11 最后更新:2026年3月 一、什么是 OpenClaw? OpenClaw 是一款 2026 年爆火的开源个人 AI 助手,GitHub 星标已超过 10 万颗。 与普通 AI 聊天机器人的核心区别: * 真正的执行能力:不只回答问题,能实际操作你的电脑 * 24/7 全天候待命:睡觉时也能主动完成任务 * 完全开源免费:数据完全掌控在自己手中 * 支持国内平台:飞书、钉钉等均已支持接入 二、安装前准备:安装 Node.js 建议提前手动安装

组建龙虾团队——OpenClaw多机器人构建

组建龙虾团队——OpenClaw多机器人构建

成功搭建了OpenClaw,也成功建立的自己的每日服务,这时候发现,似乎不太敢在当前的机器人中让他做别的事情,生怕会话太多会让他出现遗忘。(尽管我们配置了QMD记忆增强,但毋庸置疑任何技术都是有上限的)。 换做同样的情况,比如在DeepSeek或者豆包之类的对话窗口,我们会习惯性地新建一个对话。那么我们是否可以新建一个机器人,或者多个机器人,让他们各司其职,各尽所能,形成一个相互配合的团队呢~开干吧,没什么不可能的!! 🦞新建一个机器人 来到飞书开发者后台,新创建一个应用,在这里我们以短视频剪辑脚本应用为例。 创建之后,由于我们的openclaw绑定的是之前的飞书渠道,并没有链接到这个应用的APP ID,所以暂时不做其他操作,只需要记录一下他的APP ID和APP Secret。 🦞配置OpenClaw 如果还是按照claw的命令行安装,每一步都有些让人担心害怕,毕竟我们先前已经配置过一次了,接下来的操作,需要小心是否会把以前的配置给覆盖掉。 为了避免这样的不确定性,我们直接去操作他的配置文件 在WSL2终端中进入openclaw目录 cd .openclaw

PPO-VLA:强化学习如何让机器人“看得更懂、抓得更准”?

PPO-VLA:强化学习如何让机器人“看得更懂、抓得更准”?

一项来自清华大学的实证研究表明,相比传统的监督微调,使用PPO算法进行强化学习微调,能使VLA模型在语义理解和执行鲁棒性方面的分布外泛化能力提升高达42.6%。 论文:What Can RL Bring to VLA Generalization? An Empirical Study 链接:https://arxiv.org/abs/2505.19789 代码:https://rlvla.github.io 想象一下,你让一个家用机器人“把桌上的苹果放进碗里”。在实验室里,它可能完成得很好。但一旦进入你家,面对从未见过的餐桌纹理、一个形状奇特的“碗”、或者在你下达指令时苹果被意外碰歪了位置,它还能顺利完成吗? 这正是当前VLA模型面临的泛化挑战。这类模型通过整合视觉感知、语言理解和机器人控制,已成为具身人工智能领域的明星。然而,其主流训练方法——监督微调,本质上是在模仿专家演示数据。当环境稍有变化,微小的误差便会累积,导致机器人“

Microi吾码:开源低代码,微服务开发的利器

Microi吾码:开源低代码,微服务开发的利器

前言 在微服务架构的应用中,服务的灵活性和可扩展性至关重要。Microi吾码作为一个高效的微服务框架,凭借其轻量级、可插拔的特性,已经成为开发者构建分布式应用的首选工具。除了基础的微服务开发功能外,Microi吾码还提供了丰富的扩展功能,其中表单引擎是一个重要亮点。本篇博客将详细介绍Microi吾码的特点,以及如何使用其表单引擎和其他实用功能。 一. Microi吾码简介 Microi吾码是一个基于Spring Boot构建的微服务框架,致力于为开发者提供简单、灵活的解决方案,帮助他们高效构建分布式应用。它整合了常用的微服务功能,如服务注册与发现、负载均衡、熔断器、API网关、配置中心等,使得开发者无需从零开始构建基础设施,从而专注于业务逻辑。 1.1 核心特点 Microi吾码的核心特点: * 轻量级:基于Spring Boot,极大地简化了项目配置和开发流程。 * 高度可扩展:提供丰富的插件支持,可以根据需要定制功能。 * 开箱即用:内置常见的微服务功能,减少了开发者的重复工作。 * 开发友好:支持热部署和自动化构建,提升开发效率。 1.2 功能介绍