【AI赋能】MCP+Skill能力下的前端JS逆向自动化落地(附工具)

【AI赋能】MCP+Skill能力下的前端JS逆向自动化落地(附工具)

项目地址

https://github.com/Fausto-404/js-reverse-automation--skill

js-reverse-automation--skill

结合chrome-devtools-mcp的能力并加上Skill的规范,实现JSRPC+Flask+autoDecoder方案的前端JS逆向自动化分析,提升JS逆向的效率

适用场景

  • 需要快速落地前端签名/加密参数逆向
  • 需要将js逆向逻辑封装为可复用的代码
  • 需要与 Burp 配合进行抓包、改包

流程设计思路

针对js逆向中常用的远程调用法进行js逆向(如JSRPC+Mitmproxy、JSRPC+Flask等)中,初始配置阶段中面对的定位加密函数、编写注册代码、编写python代码等繁琐操作,通过引入AI的MCP和Skill技术进行赋能,让AI自动完成函数发现与注册代码生成,最终实现从“半自动”到“高自动”的跨越,人员全程只需下方指令,并最终配置一下burp即可完成JS逆向的全流程。

核心能力

  • 基于 MCP 连接真实浏览器,触发并跟踪js加密/签名链路
  • 自动定位 sign / enc / token 等关键参数生成入口
  • 自动生成 JSRPC 注入与注册代码
  • 自动生成 Python Flask 代理代码
  • 输出 Burp autoDecoder 对接说明,支持端到端联调
  • 支持AntiDebug_Breaker的11项反调试能力

项目结构

js-reverse-automation--skill/ ├── README.md # 项目说明、使用方式、更新说明和结构说明。 ├── SKILL.md # Skill 主控文件。只负责定义任务如何被触发、必须输入什么、流程怎么分阶段、输出和验收怎么要求。 ├── agents/ │ └── openai.yaml # Skill 的 agent 入口配置。负责定义默认提示词、默认输入格式和执行约束。 ├── artifacts/ # 运行期目录,用来承接流程中间产物和最终校验报告。预期会出现的文件如下: │ ├── artifacts/phase0_input.json # 规范化后的输入 │ ├── artifacts/phase1_trace.json # 浏览器链路复现结果 │ ├── artifacts/phase2_entrypoints.json # 参数入口识别结果 │ ├── artifacts/phase3_dependencies.json # 依赖、上下文和调用方式提取结果 │ └── artifacts/validation_report.json # 最终校验报告 ├── references/ │ ├── references/workflow-recon.md # 阶段流程说明书。 │ ├── references/output-contract.md # 输入输出契约说明书。 │ ├── references/failure-recovery.md # 失败恢复和诊断格式说明书。 │ ├── references/validation-checklist.md # 验收标准说明书。 │ └── references/antidebug/ │ ├── references/antidebug/debugger-loop.md # 处理无限 debugger、eval、Function 类问题。 │ ├── references/antidebug/console-detect.md # 处理控制台检测、日志篡改、清屏等问题。 │ ├── references/antidebug/timer-check.md # 处理时间差、性能计时、Promise 时序检测。 │ ├── references/antidebug/env-detect.md # 处理窗口大小、webdriver、UA、DevTools 检测等环境识别问题。 │ ├── references/antidebug/proxy-guard.md # 处理跳转、关闭页面、history、代理拦截等链路阻断问题。 │ └── references/antidebug/dynamic-alias.md # 处理动态别名、wrapper、resolver 型入口和不稳定路径。 └── scripts/ ├── scripts/check_inputs.py # 输入校验器。 ├── scripts/emit_analysis_result.py # 统一分析产物生成器。 ├── scripts/emit_jsrpc_stub.py # JSRPC 代码生成器。 ├── scripts/emit_flask_proxy.py # Flask 代理生成器。 ├── scripts/emit_burp_doc.py # Burp autoDecoder 文档生成器。 └── scripts/validate_artifacts.py # 全链路校验器。

使用示意

这边演示使用的是codex5.3(其他平台同理)

1、下载skills放置在codex的skills目录中,mac端的路径为/Users/用户名/.codex/skills/

2、将chrome-devtools-mcp服务写进 Codex 的配置

codex mcp add chrome-devtools -- npx -y chrome-devtools-mcp@latest

3、修改 Codex 的配置文件MAC的在~/.codex/config.toml,添加如下字段

[mcp_servers.chrome-devtools] command = "npx" args = ["-y", "chrome-devtools-mcp@latest"]

4、检测是否生效

5、启动mcp服务,当看到打开浏览器后MCP服务就配置好了。

/Applications/Google\ Chrome.app/Contents/MacOS/Google\ Chrome \ --remote-debugging-port=9222 \ --remote-debugging-address=0.0.0.0

6、在codex客户端中使用该skills

7、输入所需要的信息

1、目标网址(完整 URL): 2、需要分析的加密参数名(如 sign / enc / token): 3、可复现请求示例(优先给 fetch/抓包原始请求): 4、环境限制(浏览器版本、是否需要代理/插件、是否允许注入):

8、等待程序运行完成即可

效果检验

1、启动JSRPC

2、在浏览器开发者工具的Console中,执行JSRpc项目中的 JsEnv_Dev.js文件内容。

3、在控制台注入AI生成的jsrpc_inject_hr_ncu_password.js。

4、测试jsrpc调用函数是否正常,可以看到是没问题的。

http://127.0.0.1:12080/go?group=fausto&action=generate_password_md5&param=111111

5、运行flask_proxy_hr_ncu.py

6、测试Flask是否可以正常加密,可以看到也是没问题的。

curl -X POST http://127.0.0.1:8888/encode \ -H "Content-Type: application/x-www-form-urlencoded" \ --data-urlencode "dataBody=username=111111&password=111111&code=1234&role=000002"

7、最后根据Burp autoDecoder 配置说明配置burp的autoDecoder插件,也成功加密了参数,整体成功运行完成

引用工具

首发地址

【AI赋能】MCP+Skill能力下的前端JS逆向自动化落地

作者:Fausto

https://xz.aliyun.com/news/91527

文章转载自 先知社区

Read more

DeepSeek-OCR-WebUI详解:边界框可视化与多模态识别一键实现

DeepSeek-OCR-WebUI详解:边界框可视化与多模态识别一键实现 1. 引言:让OCR更直观、更智能 你有没有遇到过这样的情况:一张发票上的金额总是对不上,或者合同里的关键信息藏得太深,翻来覆去找不到?传统OCR工具虽然能提取文字,但结果往往是“一堆字”,缺乏结构和定位,使用起来费时又费力。 今天要介绍的 DeepSeek-OCR-WebUI,正是为了解决这个问题而生。它基于DeepSeek开源的大模型OCR引擎,封装了一个功能强大且界面友好的Web应用,不仅支持多种识别模式,还能自动标注文本位置、生成图像描述,甚至解析图表公式——真正实现了从“看得见文字”到“理解内容”的跨越。 更重要的是,它提供了边界框可视化功能,在“查找”模式下可以精准标出你关心的文字区域,比如“总金额”、“姓名”、“身份证号”等字段的位置一目了然。配合GPU加速和Docker一键部署,即使是非技术人员也能快速上手。 本文将带你全面了解DeepSeek-OCR-WebUI的核心能力、部署流程与实际应用场景,重点展示其在多模态识别和视觉化交互方面的独特优势。 2. 核心功能解析:7种模式,

【工作流】LogicFlow:一款高颜值、高易用性的前端流程编排神器!

【工作流】LogicFlow:一款高颜值、高易用性的前端流程编排神器!

文章目录 * 引言:什么是 LogicFlow? * 一、 为什么选择 LogicFlow?它的核心优势是什么? * 二、 核心概念快速理解 * 三、 实战:5分钟创建一个你的第一个流程图 * 步骤 1:初始化项目并安装 * 步骤 2:创建 HTML 容器 * 步骤 3:编写 JavaScript 逻辑 * 步骤 4:查看结果! * 四、 进阶:自定义一个业务节点 * 五、 数据:流程图的输入与输出 * 六、 生态系统与未来 * 总结 引言:什么是 LogicFlow? 想象一下,你需要在你管理的后台系统中,加入一个功能:让用户能够像搭积木一样,通过拖拽来定义一个复杂的业务流程(比如审批流、数据流转等)。 官网地址:https:

Android WebRTC VAD实现:AI辅助开发中的实时语音检测优化

快速体验 在开始今天关于 Android WebRTC VAD实现:AI辅助开发中的实时语音检测优化 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 Android WebRTC VAD实现:AI辅助开发中的实时语音检测优化 在实时语音通讯应用中,语音活动检测(VAD)就像是一个智能开关,决定什么时候该传输语音数据,什么时候保持静默。

Flutter 导航路由:构建流畅的应用导航体验

Flutter 导航路由:构建流畅的应用导航体验 代码如诗,导航如画。让我们用 Flutter 路由的强大能力,构建出既流畅又直观的应用导航系统。 什么是 Flutter 导航? Flutter 导航是指在不同页面(或称为路由)之间进行切换的机制。良好的导航系统是应用用户体验的重要组成部分,它决定了用户如何在应用中浏览和找到所需内容。 基础导航 1. 使用 Navigator import 'package:flutter/material.dart'; // 跳转到新页面 Navigator.push( context, MaterialPageRoute(builder: (context) => SecondPage()), ); // 返回上一页 Navigator.pop(context); // 替换当前页面 Navigator.pushReplacement( context, MaterialPageRoute(builder: (context) =>