1200PLC与爱普生机器人modbus_TCP通讯

1200PLC与爱普生机器人modbus_TCP通讯

1.前言

首先申明一下我的硬件信息

机器人:C4-A601S

控制器:RC700

PLC:西门子S7-1200(CPU:1217C/DC/DC/DC)

2.控制器IP地址查看及修改

在配置控制器相关信息时需要先用网线连接PC与机器人控制器连接,爱普生机器人出厂设定网址为192.168.0.1(我这里是之前修改过了)

若默认没有显示以太网连接,点击右侧的增加,选择“通过以太网连接到控制器”后点击确定

如果控制器网址被修改过了,不知道是多少,可以用一根PC线,一头接在控制器的“开发用PC连接专用USB端口”另一头接在电脑USB口

这时候再在通讯处选择USB连接就可以通上了

现在就可以在“系统配置”处看到控制器的IP地址以及相关信息了,如果有需要也可以直接在这修改IP地址。

3.机器人控制器配置

网线连接好后开始配置通讯相关信息

1.控制设备

控制设备修改为远程I/O

2.现场总线

现场总线类型修改为“Modbus TCP”

端口号记住PLC配置时要用到,也可以视情况进行修改

3.修改线圈地址

在远程控制➡输入/输出处,对应信号的线圈进行修改,修改为512~2559的任意一个值

修改信号线圈是因为爱普生机器人的MODBUS地址分布,保持性寄存器对应的线圈是从512开始的

如果还是使用原线圈,就无法通过Modbus通讯进行这些信号控制

不用全部信号都修改,根据实际情况修改即可,若是只需要机器人运行,停止(不需要暂停、继续、复位),那么就只需要修改Start、Stop的对应线圈即可。

4.控制器重启

参数都修改好后点击“应用”并关闭“设备控制器”,控制器会进行重启

重启好后再点开“设备控制器”看看参数是否都修改成功

4.PLC配置

1.MB_CLIENT

因为是由PLC作为主站,所以选用MB_CLIENT指令

2.TCON_IP_V4

建立一个TCON_IP_V4数据用于设置连接所需要的地址参数

3.读写数据

还需要新建word用于存储数据或是写入数据(指针指向的地址),根据实际情况增加或减少word个数

5.通讯测试

PLC与机器人都配置好后就可以进行通讯测试了

随便写一个程序写入,方便观察机器人运行状态

打开爱普生的“I/O监视器”,将监视的信号类型修改为现场总线从站输入/输出,方便实时观察信号线圈的通断情况

打开“运行控制台”并激活远程I/O

修改word值后写入,由于之前将start的线圈修改为512,stop线圈修改为513

所以写入1时,机器人512线圈得电,机器人启动

写入2时,机器人513线圈得电,机器人停止

能在I/O监视器看到写入的信号状态,就通讯成功了

6.注意事项

不要用错通讯指令了,爱普生默认不支持作为 Modbus TCP 主站,仅支持作为Modbus TCP 从站(Server)与外部设备(如 PLC、上位机)通讯。

若业务需要机器人主动读取外部设备数据(主站功能),可通过以下方式实现:

  • 方案 1:使用 TCP Socket 编程:通过 RC + 的SetNet/OpenNet/Input/Print等指令,自定义 TCP 通讯逻辑,让机器人主动建立连接并读取外部设备数据(需外部设备支持 TCP Server 模式);
  • 方案 2:借助中间设备:通过 PLC 作为中转(PLC 同时作为 Modbus TCP 主站 + TCP Client),机器人与 PLC 通过 TCP 通讯获取数据。

Read more

目标检测数据集——无人机视觉VisDrone数据集

目标检测数据集——无人机视觉VisDrone数据集

随着无人机技术的飞速发展,无人机在航拍、监控、农业、物流等领域的应用日益广泛。与此同时,无人机视角下的视觉任务,如目标检测、目标跟踪和场景理解,也成为了计算机视觉研究的热点。然而,相比传统的地面视角数据集,无人机视角下的图像具有高度变化、小目标密集、复杂背景等独特挑战,这对现有算法提出了更高的要求。 为了应对这些挑战并推动无人机视觉技术的发展,天津大学机器学习与数据挖掘实验室推出了 VisDrone数据集。作为一个大规模、标注精细的无人机视觉数据集,VisDrone 不仅涵盖了丰富的场景和多样化的目标类别,还为研究人员提供了一个极具挑战性的测试平台。无论是小目标检测的精度提升,还是密集场景下的鲁棒性优化,VisDrone 都成为了学术界和工业界不可或缺的资源。该数据集采集自中国14个不同城市,覆盖复杂城市场景、交通枢纽、密集人群等多种环境。 VisDrone官方Github下载渠道可点击访问: https://github.com/VisDrone/VisDrone-Dataset?tab=readme-ov-file 下载的数据集为VisDrone2019-DET-train

融合满足多种条件:基于无人机的多模态目标检测的高多样性基准和基线

大家读完觉得有帮助记得关注和点赞!!! 摘要 (Abstract) 基于无人机(UAV)的可见光(RGB)与红外(IR)图像融合目标检测,借助深度学习技术的进步和高质量数据集的推动,实现了全天候的鲁棒检测。然而,现有数据集难以充分捕捉真实世界的复杂性,因其成像条件受限。为此,我们提出了一个高多样性数据集 ATR-UMOD,覆盖多样场景,飞行高度从 80m 到 300m,相机角度从 0° 到 75°,并包含全天候、全年份的时间变化,涵盖丰富的天气和光照条件。此外,每对 RGB-IR 图像标注了 6 个条件属性,提供有价值的高层上下文信息。 为应对如此多样条件带来的挑战,我们提出了一种新颖的 提示引导的条件感知动态融合(PCDF) 方法,利用标注的条件线索自适应地重新分配多模态贡献。通过将成像条件编码为文本提示,PCDF 通过任务特定的软门控变换,有效建模了条件与多模态贡献之间的关系。一个提示引导的条件解耦模块进一步确保了在无标注条件下的实际可用性。在 ATR-UMOD

【无人机路径规划】无人机三维路径规划中蚁群算法、A* 与 RRT* 算法对比(Matlab代码实现)

💥💥💞💞欢迎来到本博客❤️❤️💥💥 💥💥💞💞欢迎来到本博客❤️❤️💥💥 🏆博主优势:🌞🌞🌞博客内容尽量做到思维缜密,逻辑清晰,为了方便读者。 ⛳️座右铭:行百里者,半于九十。 📋📋📋本文目录如下:🎁🎁🎁 💥1 概述 随着无人机技术的快速发展,其在军事侦察、物流配送、环境监测等众多领域的应用日益广泛。在实际应用场景中,无人机需要在复杂的三维空间内规划出一条安全、高效的飞行路径,以避开障碍物并满足任务需求。蚁群算法、A* 算法和 RRT* 算法是目前无人机三维路径规划中常用的算法,它们各自具有独特的原理和特点,对其进行详细对比有助于根据具体应用场景选择最合适的算法。 蚁群算法 蚁群算法是一种模拟蚂蚁觅食行为的启发式优化算法。蚂蚁在寻找食物的过程中,会在走过的路径上释放信息素,信息素浓度越高的路径对其他蚂蚁的吸引力越大。在无人机路径规划中,将三维空间划分为多个节点,每只“虚拟蚂蚁”从起点开始,根据信息素浓度和启发式信息选择下一个节点,不断迭代更新信息素浓度,最终找到一条从起点到终点的最优路径。 A* 算法 A*

【实战教程】MATLAB GUI实现多算法雷达CFAR检测:从原理到可视化分析

1. 什么是雷达CFAR检测? 雷达恒虚警检测(CFAR)是雷达信号处理中的一项核心技术,简单来说就是在复杂多变的噪声环境中,始终保持稳定的目标检测能力。想象一下你在一个嘈杂的派对上试图听清朋友的谈话,CFAR就像是你的大脑自动调节"听力阈值"的过程——当环境噪音变大时,你会不自觉地提高注意力阈值;当环境安静时,又能降低阈值捕捉细微声音。 在雷达系统中,CFAR技术通过动态调整检测门限来实现这个功能。传统固定门限检测在噪声变化时要么漏检目标(门限过高),要么产生大量误报(门限过低)。而CFAR算法能够根据周围环境的噪声水平,实时计算出最合适的检测门限值。 MATLAB GUI实现的最大优势在于可视化交互。通过图形界面,我们可以直观地看到: * 原始噪声信号的波形特征 * 不同CFAR算法计算出的动态门限曲线 * 目标检测结果的标记位置 * 算法在不同信噪比下的表现差异 2. CFAR核心算法原理解析 2.1 均值类CFAR算法 均值类算法是CFAR家族中最基础的成员,其核心思想可以用"邻里比较"来理解。就像通过比较周围房屋的价格来评估某处房产价值一样,这些算法通