【华三】华三模拟器HCL防火墙、AC和交换机的Web登入

【华三】华三模拟器HCL防火墙、AC和交换机的Web登入

本篇文章是用模拟器模拟web登入,真机亦是同种道理同网段,能通信,流量没有被拦截,都能用游览器进行web登入

环境搭建

实验环境

系统版本:HCL v5.10.3

设备:

交换机 S5820V2-54QS-GE

无线AC

防火墙 F1060

本地主机 host

拓扑搭建

模拟器HCL的WEB登入步骤

  • 设备先要连接Host的VBox网卡
  • 然后再进去设备的CLI界面,将接口IP地址修改为VBox同网段
  • 启动http功能

实现本地电脑使用Web登入防火墙、无线AC和交换机,具体可以往下看

查看本地Vbox的网段

配置防火墙、无线AC和交换机

目的就是让防火墙和无线AC能够成功与本地互ping

防火墙

登入防火墙CLI界面

CLI登入防火墙时,需要用户名和密码

  • 用户名 admin
  • 密码 admin

CLI的基础配置

因为防火墙自身已经有admin用户,并且也开启了http功能,所以我们只需要让防火墙

  • 能够ping通本地主机
  • 加入管理区域

这两步就可以,当然为了谨慎的话,也可以自己添加

# 配置连接主机接口的IP地址为同网段 [FW]int g1/0/0 [FW-GigabitEthernet1/0/0]ip address 192.168.56.10 24 [FW-GigabitEthernet1/0/0]quit # 将该接口加入到管理区域中 [FW]security-zone name Management  [FW-security-zone-Management]import interface g1/0/0 [FW-security-zone-Management]quit # 启动http登入 [FW]ip http enable  [FW]ip https enable  # 给admin用户添加http服务 [FW]local-user admin [FW-luser-manage-admin]service-type http 

ping成功了

登入Web界面

在游览器的导航栏中,输入我们给防火墙配置的IP地址,192.168.56.10(看大家配置的IP地址),然后回车即可

有提醒,这个是正常现象,就是因为缺少有效的安全证书,所以游览器就会提醒,点击高级选项,然后再接受风险即可

然后默认登入的用户名密码:

  • 用户名 amdin
  • 密码 admin

这个密码是默认的,所以登入进去需要修改密码,按照提示来改即可

这个时候就成功登入防火墙,就可以进行配置了

无线AC

配置同网段通信

[AC]int g1/0/0 # 记得修改接口为三层接口,因为AC默认都是二层接口 [AC-GigabitEthernet1/0/0]port link-mode route  # 与自己本地Vbox网卡同网段即可 [AC-GigabitEthernet1/0/0]ip address 192.168.56.20 24 [AC-GigabitEthernet1/0/0]quit # 记得开启http功能 [AC]ip http enable  [AC]ip https enable  

创建新用户

因为无线AC本身没有存在用户,所以我们需要先创建新用户

  • 用户名 admin
  • 密码 admin@123

当然在创建新用户的同时,因为设备身上自带的一些安全加固(默认密码策略),所以在配置用户的时候,为了让密码符合我们要求,所以我会在用户本地视图下去修改,本地有效,当然全局修改密码策略也没有问题

# 创建一个本地用户admin [AC]local-user admin New local user added. # 在admin用户中,开启http服务,用于web登入 [AC-luser-manage-admin]service-type http # 用户角色为network-admin [AC-luser-manage-admin]authorization-attribute user-role network-admin # 修改本地用户的密码策略(关闭密码与用户名不能重复选项、修改密码长度为8) [AC-luser-manage-admin]undo password-control complexity user-name check  [AC-luser-manage-admin]password-control length 8 # 设置登入密码 [AC-luser-manage-admin]password simple admin@123 [AC-luser-manage-admin]quit 

开始登入

在游览器的导航栏中,输入我们给AC配置的IP地址,192.168.56.20(看大家配置的IP地址),然后回车即可

这个是正常现象,就是因为缺少有效的安全证书,所以游览器就会提醒,点击高级选项,然后再接受风险即可(没毛病的老铁)

此时再输入用户名密码即可登入

这时候就成功登入到AC的web界面

也可以在CLI看到日志消息

注意一下吧

这个AC的web登入很奇怪,有时候就是登入不上去,用户名密码都没错

  • 要么就重开一个网页,再次登入
  • 或者修改用户名的密码

这个可能是我自己的问题,就只是点个提醒,如果也遇到这种情况也能有发自解决它

交换机web登入

给大家一些福利,这个HCL除了路由器不能用web登入外,交换机也可以用web登入。

我是用S5820V2-54QS-GE型号交换机来做web登入

但是,HCL的web界面的交换机并不能进行什么操作,有点简陋了,就像下面,配置方面的话,就导入配置、查看配置、保存当前配置这些选项

CLI配置

[H3C]int g1/0/1 [H3C-GigabitEthernet1/0/1]ip address 192.168.56.30 24 [H3C-GigabitEthernet1/0/1]quit [H3C]local-user admin New local user added. [H3C-luser-manage-admin]service-type http [H3C-luser-manage-admin]authorization-attribute user-role network-admin  [H3C-luser-manage-admin]password simple admin@123 [H3C-luser-manage-admin]quit 

登入Web界面

当我们在自己电脑输入交换机的IP地址后,可能会出现下面的问题,这个时候只需要将导航栏的https,修改为http即可,就是将s删掉

此时就成功登入Web界面,输入自己创建的用户名和密码就可以了

可以看到交换机的Web内部页面就说明成功了

配置保存

Read more

AI 爬虫高手养成:Openclaw+Scrapling 手动部署 + 采集策略(以Walmart 电商平台为例)

AI 爬虫高手养成:Openclaw+Scrapling 手动部署 + 采集策略(以Walmart 电商平台为例)

安装与使用 让ai自动安装的方法可以用以下官方提示词: Curl https://lobehub.com/skills/openclaw-skills-scrapling-mcp/skill.md, then follow the instructions to set up LobeHub Skills Marketplace and install the skill. Once installed, read the SKILL.md file in the installed directory and follow its instructions to complete the task. 自动安装虽然方便,但是没必要耗token,而且需要python环境安装库或模块,那么如果ai只按md文件严格执行就会安装或使用全局python来安装库或模块,一旦安装过多python相关的项目或skills就容易库或模块的版本依赖冲突(ai也许最终能解决但得不偿失),所以决定自己手动管理

本地化部署方案:GraphRAG+LangChain+Ollama 驱动 LLaMa 3.1 集成 Neo4j 实战

本地化部署方案:GraphRAG+LangChain+Ollama 驱动 LLaMa 3.1 集成 Neo4j 实战

本文将带您从零开始,用不到50行核心代码实现基于本地大模型 LLaMa 3.1 的 GraphRAG 应用开发。我们将整合 LangChain 工作流、Ollama 模型管理工具与 Neo4j 图数据库,构建一套支持实体关系挖掘与混合检索的增强生成系统,全程无需依赖云端 API,兼顾数据安全与开发效率。 一、先搞懂核心概念:什么是 GraphRAG? 传统 RAG(检索增强生成)依赖向量数据库的语义相似度匹配,容易丢失实体间的关联信息。而 GraphRAG(图检索增强生成) 则通过"节点-关系"的图结构建模数据,将分散的文本块转化为结构化知识网络,让 LLM 能基于实体关联进行推理,输出更具逻辑性的答案。 其核心价值在于: * 结构化上下文:将"蒂姆·库克""苹果公司&

Z-Image-GGUF开源模型价值:通义实验室技术下沉,普惠AI绘画生产力

Z-Image-GGUF开源模型价值:通义实验室技术下沉,普惠AI绘画生产力 1. 从“云端神坛”到“桌面工具”:一次技术普惠的实践 如果你对AI绘画感兴趣,大概率听说过Stable Diffusion、Midjourney这些名字。它们很强大,但门槛也摆在那里:要么需要付费订阅,要么需要一台性能强劲、显存充足的电脑,让很多创意工作者和爱好者望而却步。 今天要聊的Z-Image-GGUF,就是来打破这个局面的。它不是什么遥不可及的实验室产物,而是阿里巴巴通义实验室将前沿的Z-Image文生图模型,通过GGUF量化技术“压缩”后,打包成的一个开箱即用的工具。简单来说,它让曾经需要高端显卡才能流畅运行的AI绘画能力,现在用一张主流的消费级显卡(比如RTX 4060 Ti以上)就能体验。 这背后的核心价值,我称之为 “技术下沉” 。大厂不再把最先进的技术仅仅封装在云端API后面按次收费,而是通过开源和量化,把它变成开发者、设计师甚至普通用户都能在本地部署和把玩的“生产力工具”。这不仅仅是降低了使用成本,更重要的是赋予了用户完全的控制权和数据隐私,让创意过程真正回归到个人手中。 接

Ollama性能优化实战:如何用llama C++在Mac M2上提升qwen:7b推理速度

Ollama性能优化实战:如何用llama C++在Mac M2上提升qwen:7b推理速度 当你在Mac M2上运行qwen:7b这样的开源大语言模型时,是否曾为推理速度不够理想而困扰?作为一款基于llama C++的高效推理框架,Ollama在Apple Silicon平台上展现出了惊人的性能潜力。本文将深入剖析如何充分利用M2芯片的硬件特性,通过一系列优化手段将模型推理速度提升到新的高度。 1. 理解Ollama与llama C++的底层架构 Ollama之所以能在Mac平台上表现出色,很大程度上得益于其底层llama C++的精巧设计。这套纯C/C++实现的推理引擎针对现代处理器架构做了深度优化: * 无依赖的轻量级设计:完全摆脱了Python生态的包袱,避免了解释器开销 * 硬件指令级优化:针对不同CPU架构实现了特定指令集加速 * 多精度量化支持:从1.5位到8位的整数量化方案大幅减少内存占用 在M2芯片上,llama C++主要通过三个关键技术实现加速: 1. ARM NEON指令集:用于加速矩阵乘法和向量运算 2. Accelerate框架:苹果