使用西门子博途TIA及仿真软件S7-PLCSIM Advanced通过Kepware OPCUA通讯与Fanuc ROBOGUIDE软件连接进行虚拟仿真调试机器人

使用西门子博途TIA及仿真软件S7-PLCSIM Advanced通过Kepware OPCUA通讯与Fanuc ROBOGUIDE软件连接进行虚拟仿真调试机器人

前言

使用ROBOGUIDE软件调试机器人时,与PLC通讯那端的调试使我很头痛,包含激活机器人启动回HOME等功能很难单独使用ROBOGUIDE实现(我想应该归咎于我比较菜),此时又需要建立新的PLC控制FANUC机器人的库就做了尝试用OPC搭建仿真环境的测试。测试成功用起来还不错。

配置TIA程序

·创建PLC,例1515。开启OPC服务器。

OPC配置如下:

在TIA中为添加Fanuc机器人组态

以上为在TIA中OPC作为服务器的配置。

配置S7-PLCSIM Advanced V3.0

 ·建立仿真PLC注意开Online Access。

  输入PLC名称和IP地址,启动后将TIA中的PLC程序和配置下载到PLCSIM中。

配置kepware

·由于S7-1500作为OPC服务器,因此需要将kepware设置为客户端

·先配置OPCUA项目属性

新建客户端配置属性

项目中属性要开允许匿名访问。客户端要输入opc服务器地址就是TIA配置的地址。

·建立S7-1500通讯的变量

查看变量通讯状态。Quality为良好为通讯正常,Unknow为连接失败。

配置Fanuc调试软件ROBOGUIDE

·添加外部设备

选择OPC Server,配置通讯属性

给Fanuc机器人配置UI/UO、DI/DO、GI/GO用于Fanuc的IO逻辑

例:

以上可根据需求修改。

·配置外部IO

  右键选择外部设备I/O连接

注意输出和输入选择的设备类型。

理论可直接配置一个WORD进行整体传输,未做测试。

·配置完成开始连接外部设备

连接完成后可以在外部设备I/O连接界面中的值监控当前变量输入和输出端的状态以确保通讯正确

Read more

Stable-Diffusion-v1-5-archive惊艳效果展示:35mm胶片风、赛博朋克、水墨国风案例

Stable-Diffusion-v1-5-archive惊艳效果展示:35mm胶片风、赛博朋克、水墨国风案例 很多人觉得Stable Diffusion 1.5已经是“老古董”了,跟不上现在各种新模型的花样。但说实话,经典之所以是经典,就是因为它足够稳定、可控,而且风格塑造能力极强。今天我就用 stable-diffusion-v1-5-archive 这个归档版本,给大家展示几个让我眼前一亮的生成效果,看看这个“老将”在特定风格下,能玩出什么新花样。 我们重点看三个风格:充满故事感的35mm胶片风、未来感爆棚的赛博朋克、以及意境深远的水墨国风。我会把生成这些图的提示词、参数设置都贴出来,你可以直接拿去用,看看能不能复现出同样惊艳的效果。 1. 核心能力与准备工作 在开始展示之前,我们先快速了解一下这个镜像能做什么,以及怎么快速上手。 1.1 它能做什么? Stable Diffusion v1.5 Archive 是一个开箱即用的经典文生图模型。它的核心就是:你输入一段文字描述,它给你生成一张对应的图片。别看它版本老,

#AI对话与AI绘画的底层原理:从概率预测到创意生成的完整解析

本文深入剖析AI对话(如ChatGPT、Claude)和AI绘画(如Stable Diffusion、Midjourney)的核心原理,揭示它们的共同本质——基于概率的生成模型,同时解析两者在技术实现上的关键差异。读完本文,你将真正理解AI是如何"思考"和"创作"的。 一、先问一个核心问题 1.1 AI真的在"理解"和"创作"吗? 当你和AI对话时,你可能会想: "AI真的理解我说的话吗?" "AI是怎么知道下一个词该说什么的?" "AI画画的时候,真的在'想象'画面吗?"

Ollama下载模型太慢?试试国内HuggingFace镜像+LLama-Factory组合

Ollama下载模型太慢?试试国内HuggingFace镜像+LLama-Factory组合 在本地跑一个大模型,第一步不是写代码、调参数,而是——等它下载完。 这听起来有点荒诞,却是许多中国开发者的真实日常。当你兴致勃勃地打开终端,输入 ollama run llama3:8b,满心期待地准备开启微调之旅时,现实却给你泼了一盆冷水:进度条纹丝不动,网络连接频繁中断,几个小时过去连基础权重都没拉下来。 问题出在哪?根源就在于——Ollama 默认从 HuggingFace 官方仓库拉取模型,而这个服务器远在海外。对于国内用户来说,这无异于“越洋取经”,不仅速度慢如龟爬,还常因网络波动导致失败重试,白白浪费时间和算力资源。 但其实,我们完全不必硬扛这条路。真正聪明的做法是:绕开公网瓶颈,借助国内镜像高速获取模型 + 使用 LLama-Factory 实现低门槛、高效率的本地微调。这套组合拳不仅能让你把“等待下载”的时间省下来喝杯咖啡,还能让7B甚至13B级别的模型在一张消费级显卡上顺利训练起来。 镜像加速:别再用裸连 HuggingFace

造相-Z-Image本地AI绘画:RTX 4090打造个人写实图像工作室

造相-Z-Image本地AI绘画:RTX 4090打造个人写实图像工作室 1. 这不是又一个SDXL套壳——Z-Image为什么值得你腾出显存? 你是不是也试过:花半小时下载模型、改十次配置、调八遍参数,最后生成一张灰蒙蒙的图,还带着诡异的肢体扭曲?或者更糟——刚点“生成”,显存就爆了,控制台刷出一长串红色报错,连错误在哪都找不到。 造相-Z-Image不是这样。 它不包装旧模型,不堆砌插件,不做“兼容所有卡”的妥协。它从第一天起,就只为你桌面上那块沉甸甸的RTX 4090而生。 这不是一句宣传语。当你把项目克隆下来、执行python app.py,它不会去网上拉模型权重,不会弹出一堆依赖报错,也不会要求你手动编译CUDA扩展。它直接从你指定的本地路径加载通义千问官方发布的Z-Image模型文件,30秒内完成BF16精度加载,UI界面自动弹出——你看到的第一个提示,是「 模型加载成功 (Local Path)」。 没有云服务、没有API密钥、没有后台上传。你的提示词不会离开显卡,你的草图不会传到服务器,你调试时删掉的17张失败稿,永远只存在你自己的SSD里。