汇川机器人软件RobotLab常规操作

汇川机器人软件RobotLab常规操作

一.权限管理注意事项

1.1 软件登录权限管理

连接上软件后,修改轴参数、点位数据需要权限。点击人物图标,登录对应的权限,管理员权限登录密码6个0。

1.2机器人控制权限管理

点击“锁”,打开机器人控制权配置页面。

选择“InoRoboLabt”,机器人受编程软件控制,使用软件可手动移动点位、示教位置信息。

选择“远程IO单元”,机器人受外部设备控制如PLC、上位机,机器人进入自动模式,收到交互信号就按照程序执行。

选择“远程以太网客户端”,机器人受远程客户短控制,用于查找问题、远程调试。

二、 使用过渡点注意事项

程序中点到点直线运动会有机构干涉或有安全风险时,使用过渡点在运动规避风险。

使用过渡点时,注意指令的工具坐标系,选择正确的Wobj工具好,否则运动出错有撞机风险。

如下图所示为例,wobj0为A工位,wobj1为B工位,注意在“轴控制面板”中选择对应工具坐标号

三、使用全局点位移动注意事项

双击左侧“P.pts”,打开全局点位列表。

程序使用全局点位移动一般有两种形式

1)程序调用编号走位,如Movj P[0]

2)程序调用自定义标签名,如Movj P_Home

在程序内使用指令进行点位移动、示教过程中,注意检查运动方式、标签和描述内容。

四、点位示教注意事项

打开“轴控制面板”,选择正确的直角坐标系和工具号(例如拧紧工位工位一选择0号,工位二选择1号),速度不可设置过高。

注意不能切换工具号和用户号时,检查机器人是否在示教模式并且主任务处于运行中,或再现模式时下也不支持切换。

选择寸动模式,点击X、Y、Z、R将机器人移动到目标位置

在程序中点击右键,选择“查看点数据”,在打开的程序位置点中,右键选中空白行,点击“取当前点”,则机器人当前位置信息就存入系统中。

注意要编辑合适的标签名,提示当前点位的功能,方便程序阅读。

五、全局变量监控注意事项

程序中包含大量的全局变量(定义的Global变量)

在全局监控表中单个添加时名字输入错误时会导致添加失败,可在程序内添加监控。

可在程序内选中变量,鼠标点击右键,选择“添加到全局变量监控”。

注意变量值显示为“未识别”时,检查当前程序块运行是否包含此变量,否则无法从控制器查询到数值,监控列表中变量值必须在值被有效刷新的时候才能查看到。

六、程序备份注意事项

点击“配置文件备份”,选择保存路径,输入文件名后确认,待系统提示“备份配置文件完成”则表示备份完成。

注意不能将多台机器人的配置文件相互导入,会导致机器人的出厂设置参数改变,后果不可预料。导入后降低程序运行速度和轴移动速度,验证配置是否正确。

Read more

彻底解决llama.cpp项目CUDA编译难题:从环境配置到性能优化全指南

彻底解决llama.cpp项目CUDA编译难题:从环境配置到性能优化全指南 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 你是否在编译llama.cpp时遭遇过CUDA相关的"nvcc not found"错误?是否尝试启用GPU加速却始终无法识别显卡?本文将系统梳理llama.cpp项目中CUDA编译的常见问题,提供从环境配置到高级优化的完整解决方案,让你的NVIDIA显卡充分释放AI计算潜能。 CUDA编译基础与环境检查 llama.cpp通过CUDA后端实现NVIDIA GPU加速,其核心配置位于CMakeLists.txt构建系统中。官方推荐的基础编译命令看似简单: cmake -B build -DGGML_CUDA=ON

By Ne0inhk
llamafactory微调qwen3-vl详细流程

llamafactory微调qwen3-vl详细流程

llamafactory微调qwen3-vl详细流程 目标:本文讲详细介绍多模态大模型使用llama-factory进行多模态模型微调(sft)的全部流程,以及微调后合并和工业落地部署方案。具体包括: 1. 环境安装部署 2. 数据集准备 3. 启动微调 4. 模型合并 5. 模型部署和请求方式(vllm部署) 示例模型: qwen2.5-vl-instruct qwen3-vl-instruct 环境安装 llama-factory环境准备 方式1 git直接下载 git clone --depth https://github.com/hiyouga/LLaMA-Factory.git 方式2 下载项目压缩包再解压 python环境安装 1. python虚拟环境创建 * conda create --name llama_env python=3.12 (默认已安装好anaconda或者minianaconda) * conda

By Ne0inhk
Copilot vs Claude Code终极对决哪个会更好用呢?

Copilot vs Claude Code终极对决哪个会更好用呢?

📊 核心差异:一句话概括 * GitHub Copilot:你的智能代码补全器 * Claude Code:你的全栈AI开发伙伴 🎯 一、产品定位对比 GitHub Copilot:专注代码补全 <TEXT> 定位:AI结对编程助手 核心理念:让你写代码更快 核心功能:基于上下文的代码建议和补全 收费模式:个人$10/月,企业$19/用户/月 Claude Code:全栈开发加速器 <TEXT> 定位:AI驱动的开发平台 核心理念:提升整个开发流程效率 核心功能:代码生成+架构设计+调试+部署 收费模式:按token计费,灵活弹性 ⚡ 二、核心技术对比

By Ne0inhk
VSCode Github Copilot使用OpenAI兼容的自定义模型方法

VSCode Github Copilot使用OpenAI兼容的自定义模型方法

背景 VSCode 1.105.0发布了,但是用户最期待的Copilot功能却没更新!!! (Github Copilot Chat 中使用OpenAI兼容的自定义模型。) 🔥官方也关闭了Issue,并且做了回复,并表示未来也不会更新这个功能: “实际上,这个功能在可预见的未来只面向内部人员开放,作为一种“高级”实验功能。是否实现特定模型提供者的功能,我们交由扩展作者自行决定。仅限内部人员使用可以让我们快速推进,并提供一种可能并非始终百分之百完善,但能够持续改进并快速修复 bug 的体验。如果这个功能对你很重要,我建议切换到内部版本 insider。” 🤗 官方解决方案:安装VSCode扩展支持 你们完全不用担心只需要在 VS Code 中安装扩展:OAI Compatible Provider for Copilot 通过任何兼容 OpenAI 的提供商驱动的 GitHub Copilot Chat,使用前沿开源大模型,如 Kimi K2、DeepSeek

By Ne0inhk