宇树 G1 机器人开发入门:有线 & 无线连接完整指南

宇树 G1 机器人开发入门:有线 & 无线连接完整指南
适用读者:机器人二次开发者、科研人员
开发环境:Ubuntu 20.04(推荐)
机器人型号:Unitree G1 EDU+

前言

宇树 G1 是一款面向科研与商业应用的高性能人形机器人,支持丰富的二次开发接口。在正式进行算法调试与功能开发之前,首要任务是建立稳定的开发连接。本文将详细介绍两种主流连接方式:有线(网线直连)无线(WiFi + SSH),并附上完整的配置流程,帮助开发者快速上手。


一、有线连接(推荐新手优先使用)

有线连接通过网线直接将开发电脑与 G1 机器人相连,具有延迟低、稳定性高、不依赖外部网络的优势,是新手入门和底层调试的首选方式。

1.1 前置条件

所需物品说明
开发电脑推荐安装 Ubuntu 20.04,或在 Windows 上使用虚拟机
宇树 G1 机器人确保已开机且处于正常状态
网线(Cat5e 及以上)用于直连机器人与开发电脑
⚠️ 注意:目前 unitree_sdk2 暂不支持 macOS 和 Windows 原生环境,请务必在 Linux 环境下进行开发。

1.2 SDK 安装

在进行连接配置之前,需要先完成 SDK 的安装。以 unitree_sdk2 为例,安装步骤如下:

可参考:SDK安装方法


1.3 网络配置

用网线连接机器人和开发电脑后,需要手动配置 IP 地址,使两者处于同一网段

在这里插入图片描述

G1 机器人默认 IP 地址:

节点IP 地址
机载主控电脑192.168.123.161
二次开发板192.168.123.164

配置步骤(Ubuntu 图形界面):

  1. 打开 SettingsNetwork
  2. 找到有线连接对应的网卡,点击设置图标
  3. 切换到 IPv4 选项卡,将模式改为 Manual(手动)
  4. 点击 Apply 保存配置

填写以下信息:

IP Address : 192.168.123.99 # 推荐,或选择同网段其他未占用地址 Subnet Mask: 255.255.255.0 Gateway : (可留空) 

1.4 连接验证

打开终端,执行 ping 命令验证连通性:

ping192.168.123.161 

若看到如下输出,则表示连接成功:

在这里插入图片描述

若出现 Request timeout 或无响应,请检查:

  • 网线是否插紧
  • IP 地址是否配置在同一网段(192.168.123.X
  • 子网掩码是否为 255.255.255.0

至此,有线连接完成,可以开始开发工作。


二、无线连接(SSH 远程访问)

无线连接通过 WiFi 将机器人与开发电脑接入同一局域网,再通过 SSH 远程登录进行操作,适合需要机器人自由移动多人协作开发的场景。

2.1 前置条件

所需物品说明
开发电脑需安装 SSH 客户端软件,推荐 MobaXterm
宇树 G1 机器人
显示屏 + 键盘 + 鼠标用于机器人首次配网(仅首次需要)
无线网络或手机热点机器人与电脑需连接同一 WiFi
💡 推荐 SSH 工具MobaXterm,支持文件传输、多标签终端、X11 转发等功能,体验远优于原生 SSH 命令行。

2.2 Step 1:机器人配网

首次配置时,需借助外设将机器人连接到 WiFi:

  1. 将显示器、键盘、鼠标接入 G1 机器人的对应接口
  2. 开机后进入系统桌面(机器人内置 Ubuntu 系统)
  3. 点击右上角网络图标,选择目标 WiFi 并输入密码完成连接
在这里插入图片描述


在这里插入图片描述

2.3 Step 2:查看机器人局域网 IP

连接 WiFi 后,在机器人桌面终端中执行:

ifconfig# 或ip addr 

找到无线网卡(通常为 wlan0)对应的 IP 地址,例如 192.168.1.105,记录备用。


2.4 Step 3:开发电脑通过 SSH 连接

确保开发电脑已连接到相同 WiFi 后,打开 MobaXterm:

  1. 点击 OK,首次连接会提示确认主机指纹,选择 Accept

输入登录凭据:

Username : unitree Password : 123 

填写以下信息:

Remote host : <机器人局域网 IP,如 192.168.1.105> Port : 22 
在这里插入图片描述

点击左上角 SessionSSH

在这里插入图片描述

成功登录后,即可看到机器人系统的命令行界面,开始远程开发操作。

在这里插入图片描述

2.5 使用命令行 SSH(Linux / macOS)

若不使用图形客户端,也可直接在终端中连接:

ssh [email protected] # 提示输入密码时输入:123
⚠️ 安全提示:默认密码 123 安全性极低,生产环境中请及时修改密码并配置 SSH 密钥认证,避免未授权访问。

至此,无线连接完成,可以进行远程开发。


三、两种连接方式对比

对比维度有线连接无线连接(SSH)
稳定性⭐⭐⭐⭐⭐ 极佳⭐⭐⭐ 受信号影响
延迟⭐⭐⭐⭐⭐ 极低⭐⭐⭐ 相对较高
机器人活动范围❌ 受网线限制✅ 自由移动
配置难度⭐⭐ 较简单⭐⭐⭐ 需首次配网
适用场景底层调试、SDK 开发动态测试、远程协作

四、常见问题排查

Q1:ping 不通,怎么排查?

  1. 检查网线是否物理连接正常(指示灯是否亮起)
  2. 确认开发电脑 IP 在 192.168.123.X 网段,且未与机器人 IP 冲突
  3. 尝试关闭防火墙:sudo ufw disable
  4. 重新拔插网线并重新配置 IP

Q2:SSH 连接超时怎么办?

  1. 确认机器人与电脑连接的是同一个 WiFi
  2. 确认机器人局域网 IP 是否已发生变化(DHCP 环境下 IP 可能变化)
  3. 尝试在路由器管理页面为机器人绑定固定 IP(MAC 地址绑定)

Q3:查看通信网卡名称

运行 SDK 例程时需要指定网卡名称,通过以下命令查看:

ifconfig# 找到 IP 为 192.168.123.X 网段的网卡名,如 enp3s0、enxf8e43b808e06 等

五、总结

完成连接配置后,即可开始正式开发工作。推荐的后续步骤:

  • 📖 阅读 宇树科技官方文档中心
  • 🛠️ 编译并运行 SDK 自带例程(如 g1_ankle_swing_example
  • 🤖 探索 ROS 2 通信集成方案
  • 🔒 配置 SSH 密钥登录,提升远程访问安全性

备注:本文基于 Unitree G1 机器人实际操作整理,适用于 unitree_sdk2 开发环境。如有疑问,欢迎在评论区交流。

Read more

Qwen-Image-Edit-2511让AI绘画更有逻辑,空间关系更准

Qwen-Image-Edit-2511让AI绘画更有逻辑,空间关系更准 你有没有试过这样编辑一张图:想把照片里沙发左边的绿植换成一盏落地灯,结果AI不仅把灯放歪了,还让灯罩朝向窗外、影子却打在天花板上?或者给产品图换背景时,明明提示“纯白无影”,生成的阴影却像被风吹斜了三十度? 更让人挠头的是——你反复强调“人物站在门框正中央”,可AI总把人往右偏两厘米;你说“茶几在沙发前方一米处”,它却生成出茶几腿悬空半截的诡异构图。 这不是你提示词写得不够细,而是大多数图像编辑模型根本没真正理解‘左/右/前/后/上/下’这些空间关系。它们靠统计关联猜位置,而不是用几何逻辑推理布局。 直到我试了 Qwen-Image-Edit-2511 ——这个刚发布的增强版图像编辑镜像,第一次让我觉得:AI开始“看懂”画面里的三维世界了。 它不是又一个参数堆出来的“更大更快”,而是一次对空间语义的重新校准。下面这趟实测,我会带你亲眼看看:什么叫“让AI绘画真正讲逻辑”。 1. 它到底强在哪?不是修图,是重建空间认知 Qwen-Image-Edit-2511 是 Qwen-Image-Edit-2

Stable Diffusion XL 1.0镜像免配置方案:灵感画廊开箱即用部署指南

Stable Diffusion XL 1.0镜像免配置方案:灵感画廊开箱即用部署指南 1. 什么是灵感画廊:艺术创作的静谧空间 灵感画廊(Atelier of Light and Shadow)是一款基于Stable Diffusion XL 1.0打造的沉浸式艺术创作工具。它彻底摒弃了传统AI绘画工具的复杂界面和技术门槛,为你提供了一个纯粹、静谧的创作环境。 想象一下:不需要学习复杂的参数调节,不需要理解晦涩的技术术语,只需要打开浏览器,输入你的创意想法,就能生成高质量的艺术作品。这就是灵感画廊的核心价值——让艺术创作回归本质,让技术成为隐形的助手。 这个镜像已经预先配置好了所有必要的环境依赖和模型文件,你只需要简单的几步操作,就能拥有一个专业级的AI艺术创作工作室。 2. 快速部署:10分钟搭建你的私人画廊 2.1 环境准备与一键启动 首先确保你的系统满足以下基本要求: * NVIDIA显卡(建议8GB以上显存) * 已安装Docker环境 * 稳定的网络连接 部署过程非常简单,只需要执行以下命令: # 拉取灵感画廊镜像 docker

3步搞定Whisper-WebUI在Mac上的安装难题

3步搞定Whisper-WebUI在Mac上的安装难题 【免费下载链接】Whisper-WebUI 项目地址: https://gitcode.com/gh_mirrors/wh/Whisper-WebUI 还在为Whisper-WebUI在MacOS上的安装头疼吗?🤔 别担心,这篇文章将带你轻松解决这个困扰无数Mac用户的常见问题。作为一款优秀的语音转文字工具,Whisper-WebUI在Mac上的安装其实比你想象的简单得多! 🎯 实战场景:当语音识别遇上MacOS 想象一下这样的场景:你刚拿到全新的MacBook,想要体验Whisper-WebUI的强大语音识别功能,却在安装过程中遭遇各种"拦路虎"。这就像买到了心仪的新车,却发现没有合适的驾照一样令人沮丧。 很多Mac用户第一次接触Whisper-WebUI时都会遇到类似的困境:系统明明检测到了硬件,却总是提示使用CPU而非GPU;好不容易开始下载模型,Python进程却突然崩溃;终端里还不断跳出各种资源泄漏警告。这些问题看似复杂,其实都有简单的解决方案。 🚧 核心挑战:为什么MacOS如此"挑剔"? 硬件

5分钟部署GLM-ASR-Nano-2512:超越Whisper V3的语音识别神器

5分钟部署GLM-ASR-Nano-2512:超越Whisper V3的语音识别神器 你是否还在为语音转文字的准确率发愁?会议录音听不清、方言识别不准、低音量场景效果差、上传格式受限……这些问题,GLM-ASR-Nano-2512 一次性解决。它不是又一个 Whisper 衍生模型,而是一个专为中文真实场景打磨的 15 亿参数语音识别新标杆——在多个公开基准测试中,它的中文识别准确率已稳定超越 OpenAI Whisper V3,同时模型体积更小、启动更快、对硬件要求更低。 更重要的是,它开箱即用:不需要写一行训练代码,不用配复杂环境,5 分钟内就能在你的电脑上跑起来,拖入一段录音,几秒后就得到精准文字稿。本文将带你从零开始,手把手完成本地部署,并实测它在普通话、粤语、嘈杂环境、微弱人声等典型场景下的真实表现。 1. 为什么你需要 GLM-ASR-Nano-2512? 在语音识别领域,“能用”和“好用”之间隔着一堵墙。很多模型在干净实验室音频上表现亮眼,但一到真实世界就露馅:会议室空调声盖过发言、