长亭 Xray Web 漏洞扫描器

长亭 Xray Web 漏洞扫描器

长亭 Xray Web 漏洞扫描器

适用对象:安全研究人员、渗透测试工程师、开发人员、网络安全爱好者
前置知识:了解基本的 HTTP 协议、Web 安全概念(如 SQL 注入、XSS)
法律声明:本教程仅用于授权的安全测试、本地靶场练习或自有系统自查。未经授权扫描他人系统是违法行为。

文章目录

Xray 简介与核心优势

Xray 是由国内顶尖安全团队 长亭科技 开源的一款高性能 Web 漏洞扫描器。
它从企业级产品“洞鉴”中提取核心能力,免费提供给社区使用。

🔑 核心特点
双模驱动: 支持 主动扫描(爬虫+检测)和 被动扫描(代理流量分析)。
超低误报: 采用语义分析技术,特别是在 XSS 和 SQL 注入检测上,误报率远低于传统工具。
无危害验证: 内置 Payload 均为无害化验证(Proof of Concept),只证明漏洞存在,不利用漏洞破坏数据。
高度可扩展: 支持用户编写 YAML 格式的自定义 POC,快速响应 0day 漏洞。
跨平台免安装: 基于 Go 语言开发,提供 Windows/Linux/macOS 二进制文件,解压即用。

🎯 检测范围
覆盖 OWASP Top 10 及常见 CMS 漏洞:
SQL 注入、XSS(跨站脚本)、命令/代码注入
SSRF(服务端请求伪造)、XXE(XML 外部实体注入)
目录枚举、路径穿越、文件包含
弱口令、未授权访问、组件版本漏洞

环境准备与安装

2.1 下载
访问官方 GitHub 仓库下载最新版本:
👉 https://github.com/chaitin/xray/releases

Windows: 下载 xray_windows_amd64.zip
Linux: 下载 xray_linux_amd64.zip
macOS: 下载 xray_macos_amd64.zip (M1/M2 芯片请选 arm64)

2.2 安装步骤
Xray 无需安装,解压即可运行。

Windows
1.解压压缩包。
2.双击xray_windows_amd64.exe或在 CMD/PowerShell 中运行。
3.(可选) 生成 HTTPS 证书以支持扫描加密流量:

 .xray_windows_amd64.exe genca 

按提示将生成的 ca.crt 导入到浏览器和操作系统的“受信任的根证书颁发机构”。

Linux / macOS
1.解压并赋予执行权限:

unzip xray_linux_amd64.zip chmod +x xray 

2.(可选) 生成 HTTPS 证书:

./xray genca 

ca.crt 导入系统信任库(如 Ubuntu: sudo cp ca.crt /usr/local/share/ca-certificates/ 然后 sudo update-ca-certificates)。

核心工作模式详解

Xray 主要有三种使用场景,对应不同的命令模式:

模式描述适用场景优点
被动扫描 (webscan --listen)作为 HTTP 代理,监听端口,分析经过的流量。配合浏览器手动测试、Burp Suite 联动、爬虫工具。最常用。不漏掉复杂逻辑漏洞,误报极低,不影响业务。
主动扫描 (webscan --url)内置简易爬虫,自动爬取目标并检测。快速摸底、资产普查、简单站点检测。速度快,一键操作,无需人工干预。
爬虫独立模式 (radium)仅运行爬虫,将链接输出给其他工具。需要定制化处理爬虫结果的场景。灵活,可对接自定义检测引擎。

实战演示:命令大全

⚠️ 注意:以下演示请在本地靶场(如 DVWA, Pikacha, Vulhub)或已授权的环境中进行。

场景一:被动扫描(推荐入门)
目标:
拦截浏览器流量,实时检测漏洞。
步骤:
1.启动 Xray 监听本地 7777 端口,并指定输出报告文件名。
2.配置浏览器代理为 127.0.0.1:7777。
3.正常浏览网站,Xray 会自动分析。

💻 命令演示

# Windows .xray_windows_amd64.exe webscan --listen127.0.0.1:7777 --html-output report_passive.html # Linux / macOS ./xray webscan --listen127.0.0.1:7777 --html-output report_passive.html 
  • –listen: 指定监听地址和端口。
  • –html-output: 扫描结束后生成可视化的 HTML 报告。
  • 操作:启动后,打开浏览器访问 http://your-target.com,随意点击页面、提交表单。扫描完成后,在文件夹中找到 report_passive.html查看结果。

场景二:主动扫描(快速摸底)

目标: 对指定 URL 进行全自动爬虫和漏洞检测。
适用: 已知入口点,希望快速发现表面漏洞。

💻 命令演示

# 基础扫描:扫描单个 URL ./xray webscan --url http://testphp.vulnweb.com/ --html-output report_active.html # 进阶扫描:指定插件模块(只扫 SQL 注入和 XSS,加快速度) ./xray webscan --url http://testphp.vulnweb.com/ --plugins sqldet,xss --html-output report_fast.html # 深度扫描:增加爬虫深度(默认较浅,可调大) ./xray webscan --url http://testphp.vulnweb.com/ --max-depth 5 --html-output report_deep.html 
  • –url: 指定目标起始网址。
  • –plugins: 指定只运行某些检测插件(逗号分隔),如 sqldet (SQL注入), xss, cmd-injection 等。不填则默认全开。
  • –max-depth: 控制爬虫爬取的深度,防止无限爬取。

场景三:与 Burp Suite 联动(专家模式)
目标:
利用 Burp 强大的抓包改包能力,结合 Xray 的自动化检测能力。
原理: 浏览器 -> Burp (Proxy) -> Xray (Proxy) -> 目标服务器。

💻 命令演示
1.启动 Xray(监听 7777):

./xray webscan --listen127.0.0.1:7777 --html-output report_burp.html 

2.配置 Burp Suite:
打开 Burp -> Proxy -> Options (或 Proxy Settings)。
找到 Upstream Proxy Servers (上游代理)。
添加规则:匹配所有主机 (.*),指向 127.0.0.1:7777

在这里插入图片描述

3.配置浏览器:
浏览器代理指向 Burp (通常是 127.0.0.1:8080)。
4.开始测试:

  • 在 Burp 中修改数据包并发送(Repeater/Intruder),或者让 Burp 自动爬虫。
  • 流量会经过 Xray 检测,结果实时记录在 report_burp.html 中。

场景四:指定配置文件与高级参数
Xray 的强大在于其 config.yaml 配置文件,可以精细控制扫描行为。

💻 命令演示

# 使用自定义配置文件 ./xray webscan --url http://target.com --config my_config.yaml --html-output result.html # 只输出 JSON 格式结果(便于对接 CI/CD 或自动化平台) ./xray webscan --url http://target.com --json-output result.json # 限制扫描速率,防止把目标扫挂 (QPS 限制) ./xray webscan --url http://target.com --rate-limit 10 --html-output safe_report.html 

高级技巧:自定义 POC 与联动

5.1 编写自定义 POC
当爆发新漏洞(如 Log4j2, Fastjson 新变种)时,官方规则可能未及时更新,你可以自己写。
Xray 使用 YAML 格式编写 POC。

示例:检测一个简单的回显型命令注入
创建文件 my_poc.yaml

name: poc-yaml-custom-cmd-injection rules:method: GET path: /ping?ip=127.0.0.1;whoami expression: response.body.bcontains(b"root") || response.body.bcontains(b"user") detail:author: your_name description: 自定义命令注入检测 

运行命令加载自定义 POC:

./xray webscan --url http://target.com --plugins my_poc.yaml --html-output custom_report.html # 或者将 poc 放入 plugins 目录,默认会自动加载

5.2 搭配 Radium (长亭开源爬虫)
如果 Xray 自带的爬虫不够强,可以先用 Radium 爬取所有链接,再喂给 Xray。

# 使用 Radium 爬取链接并保存 ./radium --url http://target.com --output links.txt # 使用 Xray 批量扫描这些链接 (需配合脚本或 xray 的 stdin 模式)cat links.txt |xargs-I{} ./xray webscan --url{} --html-output batch_{}.html 

报告解读与误报处理

扫描完成后,打开生成的 .html 报告:

1.概览: 查看漏洞总数、风险等级分布(高/中/低/提示)。
2.详情: 点击具体漏洞,查看:

  • 漏洞类型: 如 SQL Injection (Blind)。
  • 请求包 (Request): Xray 发送的探测Payload。
  • 响应包 (Response): 服务器的返回,重点看高亮部分,这是判断漏洞是否成立的依据。

3.误报处理:

  • 如果确认是误报,可在配置文件的blacklist中添加特征,或在自定义 POC 中优化表达式。
  • 常见误报原因:WAF 拦截返回特定页面、动态内容随机变化。

常见问题 FAQ

Q1: 扫描 HTTPS 网站报错或没反应?
A:
必须生成并信任 Xray 的 CA 证书。运行 ./xray genca,然后将生成的 ca.crt 导入操作系统和浏览器的“受信任的根证书颁发机构”。

Q2: 扫描速度太慢怎么办?
A:

  1. 使用 --plugins 参数只开启需要的检测模块。
  2. 如果是内网,检查网络延迟。
  3. 调整 --rate-limit参数(适当调大,但别把目标扫崩)。

Q3: 为什么有些明显的漏洞扫不出来?
A:

  1. 漏洞位于深层逻辑,需要特定参数或登录状态(建议使用被动扫描,人工登录后让流量经过 Xray)。
  2. 目标有 WAF 拦截了探测Payload。
  3. 这是一个逻辑漏洞,而非通用技术漏洞(通用扫描器很难检测逻辑漏洞)。

Q4: 可以在生产环境直接使用吗?
A: 谨慎!虽然 Xray 的 Payload 是无害的,但高并发扫描仍可能导致服务不稳定。务必先在测试环境验证,并在生产环境限制扫描速率(–rate-limit),最好避开业务高峰期。

箫哥寄语:工具只是辅助,核心在于人的思维。

Read more

2026 届毕业生必看:各大学位论文 AIGC 检测率要求汇总,超过这个数真的危险了!

2026 届毕业生必看:各大学位论文 AIGC 检测率要求汇总,超过这个数真的危险了!

一、 前言 随着 2026 届毕业季的临近,很多小伙伴在写论文时都离不开 AI 的辅助。但今年最让大家头疼的不再仅仅是查重率,而是新出的AIGC 疑似度。 很多学校已经明确:如果 AIGC 检测超过阈值,直接取消答辩资格! 今天我就帮大家梳理一下目前主流的检测要求,以及如何正确应对。 二、 各大高校 AIGC 检测率“红线”汇总 虽然各校标准不一,但根据目前各大高校反馈的最新政策,基本可以划分为三个梯度: 风险等级AIGC 疑似度范围学校处理建议安全区< 20%基本无风险,属于合理参考范围。预警区20% - 40%导师需进行人工核查,可能要求提供写作痕迹证据。高危区> 40%极大可能被判定为“代写”或“学术不端”,面临延毕风险。 注意: 部分顶尖院校(如 C9

Kimi vs 豆包学术助手:AI写作降AI谁更适合中国学生?

Kimi vs 豆包学术助手:AI写作降AI谁更适合中国学生?

Kimi vs 豆包学术助手:AI写作降AI谁更适合中国学生? TL;DR Kimi和豆包都是国产AI的代表,用来辅助论文写作或降AI各有优势:Kimi擅长长文本处理和学术场景,豆包日常对话更自然。但用它们降AI效果有限,本质上还是AI生成AI。真正靠谱的降AI方案是用专业工具,推荐嘎嘎降AI(达标率99.26%)或比话降AI(不达标全额退款)。 国产AI双雄:学生党的新选择 这两年国产AI发展特别快,Kimi和豆包是最被学生群体熟知的两个名字。Kimi是月之暗面开发的,主打长文本处理能力,据说一次能处理20万字;豆包是字节跳动出品的,更像一个全能型AI助手,什么都能聊。作为即将毕业的学生,我一直在思考:这两个工具用来写论文和降AI,到底哪个更靠谱? 于是我做了一次实测对比。测试用的是一篇10000字的课程论文,知网AIGC检测原始AI率是65%。我分别用Kimi和豆包尝试降AI,同时也用嘎嘎降AI和比话降AI作为对照,看看国产通用AI和专业降AI工具之间的差距到底有多大。 Kimi降AI实测 Kimi最大的优势是长文本处理能力。一般的AI处理几千字就要分段,Kim

【Model】【llm38】Llama API - 示例

【Model】【llm38】Llama API - 示例

案例目标 Llama API是一个托管的Llama 2 API服务,支持函数调用功能。本案例展示了如何通过LlamaIndex集成Llama API,实现基本的文本补全、对话交互、函数调用和结构化数据提取功能。Llama API为开发者提供了一个便捷的方式来使用Llama 2模型,无需本地部署,可以直接通过API调用模型服务,大大简化了使用流程。同时,该API支持函数调用功能,使得模型能够与外部工具和服务进行交互,扩展了应用场景。 环境配置 1. 安装依赖 安装必要的依赖包: %pip install llama-index-program-openai %pip install llama-index-llms-llama-api !pip install llama-index 2. 获取API密钥 要运行此示例,您需要从Llama API官网获取API密钥。 3. 导入库并设置API密钥 导入必要的库并设置API密钥: from llama_index.llms.llama_api import LlamaAPI

GitHub Copilot性能优化实战:如何提升15%的AI代码建议响应速度

GitHub Copilot性能优化实战:如何提升15%的AI代码建议响应速度 【免费下载链接】copilot-codespaces-vscodeDevelop with AI-powered code suggestions using GitHub Copilot and VS Code 项目地址: https://gitcode.com/GitHub_Trending/co/copilot-codespaces-vscode GitHub Copilot作为AI编程助手,在处理复杂代码建议时偶尔会遇到响应延迟问题。通过系统性的性能优化策略,我们成功将AI代码建议的响应速度提升了15%,让开发者享受更流畅的编程体验。 问题根源:为什么Copilot会变慢? 在日常开发中,很多开发者反映Copilot在以下场景中响应速度明显下降: * 大型项目:代码库文件数量超过1000个时 * 复杂语法:使用TypeScript泛型、React Hooks等高级特性 * 多文件上下文:需要分析多个相关文件才能给出准确建议 性能瓶颈主要出现在代码解析和上下文分析阶段,特别是在处理