机器人之仿真软件的使用(ABB RobotStudio)

机器人之仿真软件的使用(ABB RobotStudio)

坐标系:

基地坐标

大地坐标系



工具坐标系(TCP)

工件坐标系(用户[UserFrame]\工件[ObjectFrame])

关节坐标系(jointtarget)



六轴机器人

1、平移:Ctrl+鼠标左键2、旋转:Ctrl+Shift+左键3、机械装置手动关节:设置每轴的数据



           可以通过手动关节/手动线性调整单个轴的运动/旋转等操作,除此之外就是拉手动关节运动面板,控制机械手每轴的运动。

姿态:轴配置。

MoveL Target 10,v1000,z100,MyTool\wobj:=wobj0:

MoveL Target 10,v1000,fine,MyTool\wobj:=wobj0;

MoveL:直线运动

Target 10:目标点

v1000:速度

z100:转弯半径,适当的转弯半径可以提高效率,但是有精确要求必须使用fine
MyTool:工具坐标系

WObj:=wobj0:工件坐标系4、回到机械原点5、线性运动:X、Y、Z

所有轴在配合TCP点运动6、安装\拆除工具7、TCP:Tool Center Point 工具中心点      tool0:六轴中心位置

所有对机器人的控制其实就是对TCP点的控制8、保存数据:示教目标点



T_ROB1:就是刚才保存的点位信息,5位置 就是刚才的点位



工具坐标系标定:        四点示教法:如果工具的数据的TCP位置很难获得的时候,可利用此法对自动算出其TCPN相对于法兰端面中心TCP0之坐标位置。注意,此法仅适用于六轴机器人上。        选取点步骤:                ①选取原点                ②调整机器人姿态,分别设置姿态1、姿态2、姿态3、姿态4                ③示教工具坐标系



       

                原点



   

              姿态1                         姿态2                           姿态3                        姿态4

创建工件坐标点:





注意:要开启捕获,才能显示小白点,观察自己的点位



工件坐标系
【1】工作坐标&目标点-创建工件坐标

【2】坐标系名称wobj Left
【3】选点:原点、X、XY平面上一点
MoveL ToPoint Speed Zone Tool

[]:可选参数
|:或
MoveL:运动类型(直线)(不能变)

ToPoint:目标描述,目标点 数据类型:robtarget

Speed:速度 数据类型:speeddata

Zone:转弯半径数据类型:zonedata

Tool:工具坐标系 数据类型:tooldata

\WObj:工件坐标系 数据类型:wobjdata

[\TLoad ]Total load数据类型:loaddata9、重定位运动(旋转)10、数据类型

robtarget :保存的是线性运动(直角坐标)下的坐标值

CONST robtarget p15 :=[

[600, 500,225.3],                           ---- trans            X、Y、Z 

[1, 0, 0, 0],                                     ---- rot                方位

[1, 1. 0,0],                                      ---- robconf        姿态

[ 11,12.3, 9E9, 9E9, 9E9, 9E9]     ---- extax            外轴

];

结构:[trans,rot,robconf,extax]

trans:pos                                          pos1 := [600,500,225.3];    X Y Z

rot:orien                                             torient1 := [1,0,0, 0];    四元数

robconf: confdata                               conf15 := [1,-1.0,0]      一组姿态值(轴位置)

extax:extjoint


jointtarget:轴关节角度数据[robjoint,extjoint]
MoveJ:远距离,有利于机器人平滑运动,不容易碰到奇异点

MoveL:近距离,强制机器人直线

示例1

1、导入模型库-设备-Curve Thing

2、导入工具

3、添加示教点,将示教点添加到路径种,同步到RAPID中

首先先创建工件的坐标系

其次,在工件坐标系的基础上,设置示教点位,并添加到路径

最后,可以在在代码中,可以对同类工件,不同位置,设定一个点位,更换工件坐标系,进行机械手运动

路径中最后一个点的zero:fine。

如果要走环形,要选中过度点和目标点,鼠标右键,选择修改指令中的转换为MoveC

示例2

机器人怎么知道物料来了???

传送带到位有一个输出信号:doinpos ----> 机器人内部有一个diinpos信号,用于接受doinpos信号 -----> 机器人会发出抓取doGrip信号 ----> 夹爪/洗盘中有一个diGrip 信号,用于接收doGrip信号,然后去抓取物料 ----> 夹爪/洗盘抓到物料之后发出doGrip ok信号 ---->机器人中的diGrip ok,用于接收doGrip ok信号,如果收到,说明已经抓取到物料----> 机器人把物料放到指定的位置,如果想松下来,就把doGrip信号复位

IO板子设置:

IO信号设置:

Read more

Java Web Web教师个人成果管理系统系统源码-SpringBoot2+Vue3+MyBatis-Plus+MySQL8.0【含文档】

Java Web Web教师个人成果管理系统系统源码-SpringBoot2+Vue3+MyBatis-Plus+MySQL8.0【含文档】

摘要 随着教育信息化的快速发展,教师个人成果管理逐渐成为高校和教育机构的重要需求。传统的成果管理方式依赖纸质档案或简单的电子表格,存在效率低下、数据易丢失、查询不便等问题。教师在教学、科研、竞赛等方面的成果数量庞大,亟需一套系统化的管理工具,以实现成果的分类存储、快速检索和统计分析。该系统能够帮助教师高效管理个人成果,同时为学校或机构提供数据支持,便于绩效考核和资源分配。关键词:教师成果管理、信息化、绩效考核、数据统计、SpringBoot。 本系统采用前后端分离架构,后端基于SpringBoot2框架,结合MyBatis-Plus实现高效数据操作,前端使用Vue3构建响应式用户界面,数据库采用MySQL8.0存储数据。系统功能包括教师成果的增删改查、分类管理、多条件筛选、数据导出及可视化统计。通过权限控制,确保数据安全性;支持文件上传功能,便于教师上传相关证明材料。系统设计注重用户体验,提供简洁直观的操作界面,同时具备高扩展性,便于后续功能迭代。关键词:SpringBoot2、Vue3、MyBatis-Plus、MySQL8.0、权限控制。 数据表 教师基本信息数据表 教师

YOLO12 WebUI:图片上传即出检测结果

YOLO12 WebUI:图片上传即出检测结果 1. 引言:让目标检测像拍照一样简单 你有没有遇到过这样的情况?看到一张照片,想知道里面都有什么物体,每个物体在哪里,但又不想费劲去一个个标注。现在,有了YOLO12 WebUI,这一切变得像拍照一样简单。 想象一下:你拍了一张街景照片,上传到网页,瞬间就能看到所有车辆、行人、交通标志都被自动识别并标注出来。这就是YOLO12 WebUI带来的体验——无需任何技术背景,无需安装复杂软件,打开网页,上传图片,立即获得专业级的目标检测结果。 YOLO12是2025年初发布的最新目标检测模型,由纽约州立大学布法罗分校与中国科学院大学团队联合开发。它在保持YOLO系列传统速度优势的同时,通过引入注意力机制,大幅提升了检测精度。现在,这个强大的模型被封装成了简单易用的Web界面,让每个人都能轻松使用最先进的目标检测技术。 2. YOLO12 WebUI 的核心功能 2.1 零门槛操作体验 YOLO12 WebUI最大的特点就是简单。你不需要知道什么是深度学习,不需要理解目标检测的原理,甚至不需要注册登录。打开网页,选择图片,

从对话到协作:深度解析 WebMCP —— 开启浏览器端的 AI 智能体新时代

从对话到协作:深度解析 WebMCP —— 开启浏览器端的 AI 智能体新时代

在 2024 年底,Anthropic 推出了 MCP (Model Context Protocol),试图为 AI 模型与外部数据源之间构建一条“通用数据总线”。然而,对于广大的前端开发者和 Web 生态来说,传统的 MCP 更多是在后端或桌面端发力。 2025 年初,由 Google 和 Microsoft 工程师联合发起的 WebMCP 提案正式进入 W3C Web 机器学习社区组(WebML CG)的视野。它标志着 AI 智能体(Agent)正式获得了与 Web 页面进行“结构化对话”的官方绿卡。 本文将为你深度拆解 WebMCP 的前世今生、核心机制以及它将如何重塑前端开发者的技能图谱。 一、 为什么我们需要

【技术深水区】抖音 WEB 端逆向:从零到一拿下 a_bogus 参数

【技术深水区】抖音 WEB 端逆向:从零到一拿下 a_bogus 参数

前言 a_bogus 相比于之前的 x-bogus,这家伙隐藏得更深,而且裹挟着 JSVMP 混淆,让很多想要抓取数据的同学头疼不已。 注意:本文仅用于技术学习与交流,请勿用于非法爬取商业数据,所有后果自负。 一、什么是 a_bogus? 在抖音的 WEB 端请求中,a_bogus 是一个必不可少的请求签名参数。 它的作用类似于一张“动态身份证”,服务端会根据请求的 URL、参数、环境指纹等计算出签名,只有签名正确,服务器才返回真实数据。如果你直接复制浏览器里的请求链接,或者单纯注释掉 a_bogus,返回的数据要么是空的,要么直接是 403。 二、逆向分析环境准备 正式开始之前,你需要具备以下基础(如果你已经是大佬,请跳过): * 熟悉浏览器的开发者工具(Network 面板、Sources 面板)