PentAGI-(AI自动化渗透)Docker环境部署

PentAGI-(AI自动化渗透)Docker环境部署

一、 深度解构:什么是 PentAGI?

PentAGI 是由 VXControl 团队开发的一款革命性开源安全项目。它代表了 AI 与网络安全 深度融合的最高水准,旨在打造一个能够自主执行任务的“数字黑客助手”。

1. 为什么它如此强大?

不同于传统的扫描器(如 Nessus 或 OpenVAS),PentAGI 的核心是一个基于 LLM(大语言模型) 的决策引擎。它不仅能发现漏洞,更重要的是它能“理解”漏洞。

  • • 自主推理:它能像人类渗透测试专家一样,根据上一步的扫描结果(如端口开放情况)动态推导下一步的攻击路径。
  • • 工具编排:它能自主驱动并联动数百个安全工具(如 Nmap、Sqlmap、Nuclei、Metasploit 等),实现真正的自动化闭环。
  • • 长效记忆:集成 pgvector 向量数据库,让 AI 能够记住目标系统的历史架构,从而在复杂的内网环境中不迷路。

2. 核心功能与应用场景

  • • 自动化红队演练:在企业内网中自动模拟黑客攻击,寻找加固点。
  • • 智能代码/指纹分析:利用 AI 快速识别非标准的 Web 组件和潜在的零日(0-day)配置风险。
  • • 漏洞复现报告:自动尝试利用发现的漏洞(如 SQL 注入),并生成包含修复建议的详细报告。

二、 ⚠️ 法律与职业道德警示

【强制性提示】

PentAGI 具备极强的攻击性。必须在获得正式书面授权的情况下方可使用。

  • • 严禁非法攻击:任何未经授权的测试行为均属违法,需承担法律责任。
  • • 合规研究:本工具仅限用于合规的渗透测试、安全研究及防御性演练工作。

三、 部署前的核心依赖:API Key

特别注意: PentAGI 的“大脑”依赖于外部 API。在使用之前,你必须准备好以下至少一种 API 密钥:

  • • Google Gemini API(推荐,支持超长上下文)
  • • OpenAI API (GPT-4 级别)
  • • Anthropic API (Claude 系列)

没有 API Key,系统将无法进行逻辑推理和任务决策。


四、 快速部署步骤 (Ubuntu 22.04)

1. 环境初始化

我们将项目部署在 admin 用户目录下:

# 切换至项目目录 mkdir -p /home/admin/pentagi && cd /home/admin/pentagi # 安装 unzip 等必要工具 sudo apt update && sudo apt install -y unzip curl

2. 解决网络难题:配置 Docker 镜像加速

PentAGI 依赖的镜像(如 scraper)超过 1GB,国内下载极易失败,必须配置加速器。

sudo nano /etc/docker/daemon.json

在文件中填入:

{ "registry-mirrors": [ "https://docker.m.daocloud.io", "https://docker.1panel.live", "https://hub.rat.dev", "https://docker.anyhub.us.kg", "https://docker.chenby.cn" ] }

保存后执行:

sudo systemctl daemon-reload && sudo systemctl restart docker

3. 获取配置文件与权限优化

下载核心定义文件,并修改端口监听以便在宿主机通过 192.168.x.x 访问。

# 下载定义文件 curl -o .env https://raw.githubusercontent.com/vxcontrol/pentagi/master/.env.example curl -O https://raw.githubusercontent.com/vxcontrol/pentagi/master/docker-compose.yml

修改监听权限:

执行 nano docker-compose.yml,定位到 pentagi 服务的 ports 节点:

  • • 删除${PENTAGI_LISTEN_IP:-127.0.0.1}:${PENTAGI_LISTEN_PORT:-8443}:8443
  • • 替换为"0.0.0.0:8443:8443" (注意双引号)
pentagi: image: ${PENTAGI_IMAGE:-vxcontrol/pentagi:latest} restart: unless-stopped container_name: pentagi hostname: pentagi expose: - 8443/tcp ports: - "0.0.0.0:8443:8443" # 修改后的行 depends_on: pgvector: condition: service_started

4. 填入核心驱动:配置 API Key

nano .env

找到相关 API 变量(如 GEMINI_API_KEY),填入你获取的密钥并保存。


五、 启动与访问

1. 一键启动集群

docker compose up -d

2. 远程登录

在 Windows 宿主机浏览器中输入虚拟机的实际 IP:
https://192.168.x.x:8443

(注意:由于使用自签名证书,请在浏览器弹出“警告”时点击“高级” -> “继续前往”。)

默认登录信息

项目默认值
用户名 (Email)[email protected]
密码 (Password)admin
访问地址https://192.168.x.x:8443

Read more

OpenClaw龙虾图鉴:16只AI Agent选型指南

OpenClaw龙虾图鉴:16只AI Agent选型指南

这里写目录标题 * 🦞 OpenClaw龙虾图鉴:16只AI Agent选型指南 * 🎯 快速选型指南 * 🥇 第一梯队:官方正统 * 1️⃣ OpenClaw - 原生官网框架 * 2️⃣ 🌙 KimiClaw - 云端大存储+Kimi K2.5 * 3️⃣ ⚡ MaxClaw - 成本杀手,10秒部署 * 🥈 第二梯队:极客专精 * 4️⃣ 🔥 NullClaw - 678KB极致疯子 * 5️⃣ 🦀 OpenFang - Rust生产级Agent OS * 6️⃣ 🐍 Nanobot - Python死忠粉 * 7️⃣ 🤖 NanoClaw - 多Agent协作狂魔 * 🥉 第三梯队:场景特化 * 🌱 第四梯队:新兴潜力股 * 1️⃣5️⃣ 🌱 EasyClaw -

Flutter 组件 google_generative_language_api 适配鸿蒙 HarmonyOS 实战:生成式 AI 集成,构建大语言模型调度与全场景智能推理治理架构

Flutter 组件 google_generative_language_api 适配鸿蒙 HarmonyOS 实战:生成式 AI 集成,构建大语言模型调度与全场景智能推理治理架构

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 google_generative_language_api 适配鸿蒙 HarmonyOS 实战:生成式 AI 集成,构建大语言模型调度与全场景智能推理治理架构 前言 在鸿蒙(OpenHarmony)生态迈向全场景 AI 赋能、涉及高效的语义理解、自动化内容生成及严苛的端云协同智能隐私保护背景下,如何实现一套既能深度对接 Google 生成式语言模型(如 Gemini、PaLM)、又能保障异步请求高响应性且具备多模态输入处理能力的“AI 调度中枢”,已成为决定应用智能化水平与用户体验代差的关键。在鸿蒙设备这类强调分布式协同与端侧算力按需分配的环境下,如果应用依然采用低效的 REST 手写拼接,由于由于 payload 结构复杂性,极易由于由于“协议解析异常”导致鸿蒙应用在大模型推理环节发生由于由于由于由于通讯阻塞。 我们需要一种能够统一模型调用语义、支持流式(Streaming)响应且符合鸿蒙异步异步并发范式的

GLM-4.7 & MiniMax M2.1 限免上线!工程级 Agent 模型正式接入 AI Ping

GLM-4.7 & MiniMax M2.1 限免上线!工程级 Agent 模型正式接入 AI Ping

前言:从"能生成"到"能长期跑"的工程级大模型 大模型产业落地阶段,工程交付稳定性与长时 Agent 运行效率成为核心衡量标准,GLM-4.7 与 MiniMax M2.1 作为国产模型两条差异化成熟路线的代表,跳出单轮生成质量局限,聚焦真实场景长期稳定运行能力。AI Ping 平台整合多供应商资源,实现两款旗舰模型免费开放与统一调度,通过标准化测试、可视化看板与智能路由,为用户搭建从选型到落地的便捷桥梁。 呼朋唤友薅羊毛,Token白给不限量! 🎁AI Ping(aiping.cn)邀友福利来袭!邀请好友完成注册,双方各得 20 元平台算力点,所有模型及供应商全场通用,邀友无上限、福利赚不停,赶紧分享解锁双重福利~https://aiping.cn/#?channel_partner_

openJiuwen集成蓝耘AI模型深度解析:从架构设计到企业级Agent实战部署

openJiuwen集成蓝耘AI模型深度解析:从架构设计到企业级Agent实战部署

前言 在人工智能技术从单纯的感知智能向认知智能演进的浪潮中,大语言模型(LLM)的成熟催生了AI Agent(人工智能体)这一全新的应用形态。AI Agent不再局限于传统的单指令执行,而是演进为具备自主感知、推理规划、决策执行能力的智能实体。在这一技术变革背景下,openJiuwen作为一个致力于提供灵活、强大且易用能力的开源Agent平台应运而生。本文将深度剖析openJiuwen的技术架构、核心优势,并基于真实的服务器部署环境,详细拆解从底层环境搭建到上层复杂智能体构建的全过程。 一、 Agentic AI时代的基础设施:openJiuwen概览 openJiuwen的定位不仅是一个开发工具,而是面向生产级应用的Agent全生命周期管理平台。它旨在解决当前大模型应用落地过程中面临的开发门槛高、协同调度难、运行稳定性差等痛点。通过提供标准化的开发框架与高可靠的运行引擎,openJiuwen支持开发者快速构建能够处理各类简单或复杂任务的AI Agent,并实现多Agent间的协同交互。 作为核心代码资产的入口,开发者能在这里查看项目的 Readme 文档、分支管理和最新提交