机器人之仿真软件的使用(ABB RobotStudio)

机器人之仿真软件的使用(ABB RobotStudio)

坐标系:

基地坐标

大地坐标系



工具坐标系(TCP)

工件坐标系(用户[UserFrame]\工件[ObjectFrame])

关节坐标系(jointtarget)



六轴机器人

1、平移:Ctrl+鼠标左键2、旋转:Ctrl+Shift+左键3、机械装置手动关节:设置每轴的数据



           可以通过手动关节/手动线性调整单个轴的运动/旋转等操作,除此之外就是拉手动关节运动面板,控制机械手每轴的运动。

姿态:轴配置。

MoveL Target 10,v1000,z100,MyTool\wobj:=wobj0:

MoveL Target 10,v1000,fine,MyTool\wobj:=wobj0;

MoveL:直线运动

Target 10:目标点

v1000:速度

z100:转弯半径,适当的转弯半径可以提高效率,但是有精确要求必须使用fine
MyTool:工具坐标系

WObj:=wobj0:工件坐标系4、回到机械原点5、线性运动:X、Y、Z

所有轴在配合TCP点运动6、安装\拆除工具7、TCP:Tool Center Point 工具中心点      tool0:六轴中心位置

所有对机器人的控制其实就是对TCP点的控制8、保存数据:示教目标点



T_ROB1:就是刚才保存的点位信息,5位置 就是刚才的点位



工具坐标系标定:        四点示教法:如果工具的数据的TCP位置很难获得的时候,可利用此法对自动算出其TCPN相对于法兰端面中心TCP0之坐标位置。注意,此法仅适用于六轴机器人上。        选取点步骤:                ①选取原点                ②调整机器人姿态,分别设置姿态1、姿态2、姿态3、姿态4                ③示教工具坐标系



       

                原点



   

              姿态1                         姿态2                           姿态3                        姿态4

创建工件坐标点:





注意:要开启捕获,才能显示小白点,观察自己的点位



工件坐标系
【1】工作坐标&目标点-创建工件坐标

【2】坐标系名称wobj Left
【3】选点:原点、X、XY平面上一点
MoveL ToPoint Speed Zone Tool

[]:可选参数
|:或
MoveL:运动类型(直线)(不能变)

ToPoint:目标描述,目标点 数据类型:robtarget

Speed:速度 数据类型:speeddata

Zone:转弯半径数据类型:zonedata

Tool:工具坐标系 数据类型:tooldata

\WObj:工件坐标系 数据类型:wobjdata

[\TLoad ]Total load数据类型:loaddata9、重定位运动(旋转)10、数据类型

robtarget :保存的是线性运动(直角坐标)下的坐标值

CONST robtarget p15 :=[

[600, 500,225.3],                           ---- trans            X、Y、Z 

[1, 0, 0, 0],                                     ---- rot                方位

[1, 1. 0,0],                                      ---- robconf        姿态

[ 11,12.3, 9E9, 9E9, 9E9, 9E9]     ---- extax            外轴

];

结构:[trans,rot,robconf,extax]

trans:pos                                          pos1 := [600,500,225.3];    X Y Z

rot:orien                                             torient1 := [1,0,0, 0];    四元数

robconf: confdata                               conf15 := [1,-1.0,0]      一组姿态值(轴位置)

extax:extjoint


jointtarget:轴关节角度数据[robjoint,extjoint]
MoveJ:远距离,有利于机器人平滑运动,不容易碰到奇异点

MoveL:近距离,强制机器人直线

示例1

1、导入模型库-设备-Curve Thing

2、导入工具

3、添加示教点,将示教点添加到路径种,同步到RAPID中

首先先创建工件的坐标系

其次,在工件坐标系的基础上,设置示教点位,并添加到路径

最后,可以在在代码中,可以对同类工件,不同位置,设定一个点位,更换工件坐标系,进行机械手运动

路径中最后一个点的zero:fine。

如果要走环形,要选中过度点和目标点,鼠标右键,选择修改指令中的转换为MoveC

示例2

机器人怎么知道物料来了???

传送带到位有一个输出信号:doinpos ----> 机器人内部有一个diinpos信号,用于接受doinpos信号 -----> 机器人会发出抓取doGrip信号 ----> 夹爪/洗盘中有一个diGrip 信号,用于接收doGrip信号,然后去抓取物料 ----> 夹爪/洗盘抓到物料之后发出doGrip ok信号 ---->机器人中的diGrip ok,用于接收doGrip ok信号,如果收到,说明已经抓取到物料----> 机器人把物料放到指定的位置,如果想松下来,就把doGrip信号复位

IO板子设置:

IO信号设置:

Read more

Stable Diffusion【实战技巧】:利用Reference Only实现多场景人脸一致

1. 为什么我们需要人脸一致性技术 在AI绘画创作中,最让人头疼的问题之一就是无法保持角色形象的一致性。想象一下,你正在为小说创作插图,或者为游戏设计角色,每次生成的图片中人物长相都不一样,这简直是一场灾难。我刚开始用Stable Diffusion时就经常遇到这个问题,生成十张图能有十张不同的脸,根本没法用在连续性的创作中。 传统方法中,固定Seed值是最简单的尝试。我实测过这个方法,确实能让生成的人物看起来相似,但问题在于它会把整个画面都固定住 - 包括姿势、背景、服装所有细节。这就好比拍照时用了同样的底片,只是稍微调了下颜色,完全达不到"同一个人在不同场景"的需求。 LORA模型是另一个常见选择,但实际操作中我发现几个痛点:首先,训练一个高质量的LORA需要大量素材和调参经验,对新手很不友好;其次,现成的LORA模型效果参差不齐,很多模型即使把权重调到1,生成的脸还是会有明显差异。更不用说当你想混合多个LORA特征时,结果往往惨不忍睹。 2. Reference Only功能的核心优势 ControlNet的Reference Only功能简直是解决这个痛点的神器。它

探索RISC-V处理器FPGA实现:高性能开源核心的硬件部署实践

探索RISC-V处理器FPGA实现:高性能开源核心的硬件部署实践 【免费下载链接】XiangShanOpen-source high-performance RISC-V processor 项目地址: https://gitcode.com/GitHub_Trending/xia/XiangShan 在嵌入式系统开发中,如何快速验证RISC-V架构的设计创新?如何在FPGA平台上实现高性能处理器原型?这些问题一直困扰着硬件工程师。本文将以香山(XiangShan)开源处理器为研究对象,通过实验方式探索基于FPGA的RISC-V部署与验证全流程,为开源处理器的硬件实现提供实践参考。 环境适配指南:从源码到FPGA原型的准备工作 开发环境配置 香山处理器采用Chisel语言(硬件构造语言)编写,需要先配置Scala开发环境。以下是基础环境准备步骤: # 克隆项目代码(适用场景:首次获取香山源码) git clone https://gitcode.com/GitHub_Trending/xia/XiangShan # 进入项目目录 cd XiangShan # 安装项目依赖

VR大空间项目内容规划与设计的市场经验总结(2023-2026)

VR大空间项目内容规划与设计的市场经验总结(2023-2026) 引言:从元年到爆发,VR大空间的三年演进 2023年,随着《消失的法老》在上海太古汇的惊艳亮相,中国VR大空间行业迎来了自己的“元年”。这部由HTC联合法国Emissive工作室、哈佛大学吉萨考古团队打造的沉浸式体验,以45分钟超长时长、800平方米自由移动空间、毫米级金字塔还原三大核心优势,在11个月运营期内吸引约11万人次参与,总票房突破3000万元。这一现象级作品不仅重新定义了VR体验的行业标准,更直接推动了上海文旅局将VR大空间纳入“智慧旅游创新示范工程”。 三年后的今天,VR大空间已从零星试点发展为遍地开花的成熟业态。据VR陀螺不完全统计,仅2025年上半年就有超100个VR大空间项目落地,叫得上名字的20家运营商门店总数突破1000家。国际数据公司(IDC)预测,2025年全球VR大空间解决方案市场规模将突破120亿美元,年复合增长率高达58%,其中中国市场规模占全球比重预计超40%。 然而,繁荣之下暗流涌动。行业在快速扩张的同时,也面临着内容同质化、复购率低、盈利模式单一等深层挑战。本文将从产品总

什么是 PX4?无人机开发的第一步

什么是 PX4?无人机开发的第一步

本文是《从零开始学 PX4:无人机开发全流程实战》系列第一篇,带你迈出无人机飞控开发的第一步。适合零基础、有嵌入式/C++背景的开发者。 ✈️ 一、PX4 是什么? PX4 是一套开源的飞控系统(Flight Control System),适用于多种类型的无人机与机器人。它不仅仅是一个固件,而是一个完整的无人系统开发生态,包括飞控软件、仿真平台、通信协议、地面站和开发工具链。 📌 PX4 的组成: * ✅ PX4-Autopilot:飞控固件主仓库(C++ 开发) * ✅ QGroundControl:图形化地面站,便于调参与监控 * ✅ MAVLink:轻量级通信协议 * ✅ Gazebo / jMAVSim:仿真模拟器 * ✅ MAVSDK / MAVROS:无人机接口(支持 Python / C++ / ROS) 顶层软件架构 下面的架构图对 PX4 的各个积木模块以及各模块之间的联系进行了一个详细的概述。