PentAGI-(AI自动化渗透)Docker环境部署

PentAGI-(AI自动化渗透)Docker环境部署

一、 深度解构:什么是 PentAGI?

PentAGI 是由 VXControl 团队开发的一款革命性开源安全项目。它代表了 AI 与网络安全 深度融合的最高水准,旨在打造一个能够自主执行任务的“数字黑客助手”。

1. 为什么它如此强大?

不同于传统的扫描器(如 Nessus 或 OpenVAS),PentAGI 的核心是一个基于 LLM(大语言模型) 的决策引擎。它不仅能发现漏洞,更重要的是它能“理解”漏洞。

  • • 自主推理:它能像人类渗透测试专家一样,根据上一步的扫描结果(如端口开放情况)动态推导下一步的攻击路径。
  • • 工具编排:它能自主驱动并联动数百个安全工具(如 Nmap、Sqlmap、Nuclei、Metasploit 等),实现真正的自动化闭环。
  • • 长效记忆:集成 pgvector 向量数据库,让 AI 能够记住目标系统的历史架构,从而在复杂的内网环境中不迷路。

2. 核心功能与应用场景

  • • 自动化红队演练:在企业内网中自动模拟黑客攻击,寻找加固点。
  • • 智能代码/指纹分析:利用 AI 快速识别非标准的 Web 组件和潜在的零日(0-day)配置风险。
  • • 漏洞复现报告:自动尝试利用发现的漏洞(如 SQL 注入),并生成包含修复建议的详细报告。

二、 ⚠️ 法律与职业道德警示

【强制性提示】

PentAGI 具备极强的攻击性。必须在获得正式书面授权的情况下方可使用。

  • • 严禁非法攻击:任何未经授权的测试行为均属违法,需承担法律责任。
  • • 合规研究:本工具仅限用于合规的渗透测试、安全研究及防御性演练工作。

三、 部署前的核心依赖:API Key

特别注意: PentAGI 的“大脑”依赖于外部 API。在使用之前,你必须准备好以下至少一种 API 密钥:

  • • Google Gemini API(推荐,支持超长上下文)
  • • OpenAI API (GPT-4 级别)
  • • Anthropic API (Claude 系列)

没有 API Key,系统将无法进行逻辑推理和任务决策。


四、 快速部署步骤 (Ubuntu 22.04)

1. 环境初始化

我们将项目部署在 admin 用户目录下:

# 切换至项目目录 mkdir -p /home/admin/pentagi && cd /home/admin/pentagi # 安装 unzip 等必要工具 sudo apt update && sudo apt install -y unzip curl

2. 解决网络难题:配置 Docker 镜像加速

PentAGI 依赖的镜像(如 scraper)超过 1GB,国内下载极易失败,必须配置加速器。

sudo nano /etc/docker/daemon.json

在文件中填入:

{ "registry-mirrors": [ "https://docker.m.daocloud.io", "https://docker.1panel.live", "https://hub.rat.dev", "https://docker.anyhub.us.kg", "https://docker.chenby.cn" ] }

保存后执行:

sudo systemctl daemon-reload && sudo systemctl restart docker

3. 获取配置文件与权限优化

下载核心定义文件,并修改端口监听以便在宿主机通过 192.168.x.x 访问。

# 下载定义文件 curl -o .env https://raw.githubusercontent.com/vxcontrol/pentagi/master/.env.example curl -O https://raw.githubusercontent.com/vxcontrol/pentagi/master/docker-compose.yml

修改监听权限:

执行 nano docker-compose.yml,定位到 pentagi 服务的 ports 节点:

  • • 删除${PENTAGI_LISTEN_IP:-127.0.0.1}:${PENTAGI_LISTEN_PORT:-8443}:8443
  • • 替换为"0.0.0.0:8443:8443" (注意双引号)
pentagi: image: ${PENTAGI_IMAGE:-vxcontrol/pentagi:latest} restart: unless-stopped container_name: pentagi hostname: pentagi expose: - 8443/tcp ports: - "0.0.0.0:8443:8443" # 修改后的行 depends_on: pgvector: condition: service_started

4. 填入核心驱动:配置 API Key

nano .env

找到相关 API 变量(如 GEMINI_API_KEY),填入你获取的密钥并保存。


五、 启动与访问

1. 一键启动集群

docker compose up -d

2. 远程登录

在 Windows 宿主机浏览器中输入虚拟机的实际 IP:
https://192.168.x.x:8443

(注意:由于使用自签名证书,请在浏览器弹出“警告”时点击“高级” -> “继续前往”。)

默认登录信息

项目默认值
用户名 (Email)[email protected]
密码 (Password)admin
访问地址https://192.168.x.x:8443

Read more

VS Code + WSL 下 GitHub 访问不稳定 & Copilot/Codex 一直 Thinking 的完整解决方案(国内平台安全版)

VS Code + WSL 下 GitHub 访问不稳定 & Copilot/Codex 一直 Thinking 的完整解决方案(国内平台安全版) 本文记录一次开发环境排查过程: 从 VS Code + WSL 环境下 GitHub 克隆失败,到 Copilot/Codex 长时间停在 “Thinking…” 的完整解决步骤。 特别说明: 文中提到的 “网络辅助工具”“连接加速端口”“外网连通性优化” 都指代常见的 网络优化方式,用于解决访问境外开发资源时的稳定性问题(GitHub、Copilot 等)。 📌 一、问题概述 使用 VS Code + WSL 进行开发时可能遇到以下问题: ❌ 1. Git clone 失败 fatal:

揭秘 AIGC 背后的技术:GPT、BERT 与 Transformer 模型的工作原理

揭秘 AIGC 背后的技术:GPT、BERT 与 Transformer 模型的工作原理

一、引言 AIGC 的崛起与重要性 人工智能生成内容(AIGC)已经不再是未来的技术,它正以惊人的速度渗透到各行各业,重新定义了内容创作、媒体生产、甚至人类认知的边界。从深度学习到大规模自然语言处理,AIGC 的崛起代表着一种新型的智能化革命,其核心技术依赖于 Transformer 架构、GPT 和 BERT 等模型。这些技术不仅推动了自然语言处理(NLP)的进步,还在自动化写作、代码生成、艺术创作等多个领域取得了突破性进展。 AIGC 之所以成为技术热潮,背后是其颠覆性的效率提升和创新应用。比如,通过 GPT,我们可以在几秒钟内生成一篇文章,而传统写作过程可能需要几小时,甚至几天。这种技术的普及,不仅大大降低了内容创作的门槛,还为个体创作者、企业甚至国家带来了前所未有的生产力提升。 本文目的与结构概述 本文将深入探讨 AIGC 背后的核心技术——Transformer、GPT 和 BERT,带你一步步了解它们的架构原理、训练机制及实际应用。

llama.cpp加载多模态gguf模型

llama.cpp预编译包还不支持cuda12.6 llama.cpp的编译,也有各种坑 llama.cpp.python的也需要编译 llama.cpp命令行加载多模态模型 llama-mtmd-cli -m Qwen2.5-VL-3B-Instruct-q8_0.gguf --mmproj Qwen2.5-VL-3B-Instruct-mmproj-f16.gguf -p "Describe this image." --image ./car-1.jpg **模型主gguf文件要和mmporj文件从一个库里下载,否则会有兼容问题,建议从ggml的官方库里下载 Multimodal GGUFs官方库 llama.cpp.python加载多模态模型 看官方文档 要使用LlamaChatHandler类,官方已经写好了不少多模态模型的加载类,比如qwen2.5vl的写法: from llama_cpp import Llama

LLaMA-Factory微调多模态大模型Qwen3-VL

LLaMA-Factory微调多模态大模型Qwen3-VL

LLaMA-Factory微调多模态大模型Qwen3-VL 目录 LLaMA-Factory微调多模态大模型Qwen3-VL 1. 显卡驱动 2. 模型微调 3. 模型导出 4. 模型部署:vLLM服务 5. 测试效果 1. 显卡驱动 * 显卡型号:NVIDIA GeForce RTX 3090 24G * 显卡驱动:NVIDIA-SMI 535.171.04             * CUDA: 12.2 ,Driver Version: 535.171.04   微调Qwen3-VL-2B模型,至少需要12G显存 2. 模型微调 项目采用大型语言模型工厂(LLaMA-Factory)对大模型微调,目前可支持Qwen3 / Qwen2.5-VL / Gemma 3 / GLM-4.1V / InternLM