宇树 G1 机器人开发入门:有线 & 无线连接完整指南

宇树 G1 机器人开发入门:有线 & 无线连接完整指南
适用读者:机器人二次开发者、科研人员
开发环境:Ubuntu 20.04(推荐)
机器人型号:Unitree G1 EDU+

前言

宇树 G1 是一款面向科研与商业应用的高性能人形机器人,支持丰富的二次开发接口。在正式进行算法调试与功能开发之前,首要任务是建立稳定的开发连接。本文将详细介绍两种主流连接方式:有线(网线直连)无线(WiFi + SSH),并附上完整的配置流程,帮助开发者快速上手。


一、有线连接(推荐新手优先使用)

有线连接通过网线直接将开发电脑与 G1 机器人相连,具有延迟低、稳定性高、不依赖外部网络的优势,是新手入门和底层调试的首选方式。

1.1 前置条件

所需物品说明
开发电脑推荐安装 Ubuntu 20.04,或在 Windows 上使用虚拟机
宇树 G1 机器人确保已开机且处于正常状态
网线(Cat5e 及以上)用于直连机器人与开发电脑
⚠️ 注意:目前 unitree_sdk2 暂不支持 macOS 和 Windows 原生环境,请务必在 Linux 环境下进行开发。

1.2 SDK 安装

在进行连接配置之前,需要先完成 SDK 的安装。以 unitree_sdk2 为例,安装步骤如下:

可参考:SDK安装方法


1.3 网络配置

用网线连接机器人和开发电脑后,需要手动配置 IP 地址,使两者处于同一网段

在这里插入图片描述

G1 机器人默认 IP 地址:

节点IP 地址
机载主控电脑192.168.123.161
二次开发板192.168.123.164

配置步骤(Ubuntu 图形界面):

  1. 打开 SettingsNetwork
  2. 找到有线连接对应的网卡,点击设置图标
  3. 切换到 IPv4 选项卡,将模式改为 Manual(手动)
  4. 点击 Apply 保存配置

填写以下信息:

IP Address : 192.168.123.99 # 推荐,或选择同网段其他未占用地址 Subnet Mask: 255.255.255.0 Gateway : (可留空) 

1.4 连接验证

打开终端,执行 ping 命令验证连通性:

ping192.168.123.161 

若看到如下输出,则表示连接成功:

在这里插入图片描述

若出现 Request timeout 或无响应,请检查:

  • 网线是否插紧
  • IP 地址是否配置在同一网段(192.168.123.X
  • 子网掩码是否为 255.255.255.0

至此,有线连接完成,可以开始开发工作。


二、无线连接(SSH 远程访问)

无线连接通过 WiFi 将机器人与开发电脑接入同一局域网,再通过 SSH 远程登录进行操作,适合需要机器人自由移动多人协作开发的场景。

2.1 前置条件

所需物品说明
开发电脑需安装 SSH 客户端软件,推荐 MobaXterm
宇树 G1 机器人
显示屏 + 键盘 + 鼠标用于机器人首次配网(仅首次需要)
无线网络或手机热点机器人与电脑需连接同一 WiFi
💡 推荐 SSH 工具MobaXterm,支持文件传输、多标签终端、X11 转发等功能,体验远优于原生 SSH 命令行。

2.2 Step 1:机器人配网

首次配置时,需借助外设将机器人连接到 WiFi:

  1. 将显示器、键盘、鼠标接入 G1 机器人的对应接口
  2. 开机后进入系统桌面(机器人内置 Ubuntu 系统)
  3. 点击右上角网络图标,选择目标 WiFi 并输入密码完成连接
在这里插入图片描述


在这里插入图片描述

2.3 Step 2:查看机器人局域网 IP

连接 WiFi 后,在机器人桌面终端中执行:

ifconfig# 或ip addr 

找到无线网卡(通常为 wlan0)对应的 IP 地址,例如 192.168.1.105,记录备用。


2.4 Step 3:开发电脑通过 SSH 连接

确保开发电脑已连接到相同 WiFi 后,打开 MobaXterm:

  1. 点击 OK,首次连接会提示确认主机指纹,选择 Accept

输入登录凭据:

Username : unitree Password : 123 

填写以下信息:

Remote host : <机器人局域网 IP,如 192.168.1.105> Port : 22 
在这里插入图片描述

点击左上角 SessionSSH

在这里插入图片描述

成功登录后,即可看到机器人系统的命令行界面,开始远程开发操作。

在这里插入图片描述

2.5 使用命令行 SSH(Linux / macOS)

若不使用图形客户端,也可直接在终端中连接:

ssh [email protected] # 提示输入密码时输入:123
⚠️ 安全提示:默认密码 123 安全性极低,生产环境中请及时修改密码并配置 SSH 密钥认证,避免未授权访问。

至此,无线连接完成,可以进行远程开发。


三、两种连接方式对比

对比维度有线连接无线连接(SSH)
稳定性⭐⭐⭐⭐⭐ 极佳⭐⭐⭐ 受信号影响
延迟⭐⭐⭐⭐⭐ 极低⭐⭐⭐ 相对较高
机器人活动范围❌ 受网线限制✅ 自由移动
配置难度⭐⭐ 较简单⭐⭐⭐ 需首次配网
适用场景底层调试、SDK 开发动态测试、远程协作

四、常见问题排查

Q1:ping 不通,怎么排查?

  1. 检查网线是否物理连接正常(指示灯是否亮起)
  2. 确认开发电脑 IP 在 192.168.123.X 网段,且未与机器人 IP 冲突
  3. 尝试关闭防火墙:sudo ufw disable
  4. 重新拔插网线并重新配置 IP

Q2:SSH 连接超时怎么办?

  1. 确认机器人与电脑连接的是同一个 WiFi
  2. 确认机器人局域网 IP 是否已发生变化(DHCP 环境下 IP 可能变化)
  3. 尝试在路由器管理页面为机器人绑定固定 IP(MAC 地址绑定)

Q3:查看通信网卡名称

运行 SDK 例程时需要指定网卡名称,通过以下命令查看:

ifconfig# 找到 IP 为 192.168.123.X 网段的网卡名,如 enp3s0、enxf8e43b808e06 等

五、总结

完成连接配置后,即可开始正式开发工作。推荐的后续步骤:

  • 📖 阅读 宇树科技官方文档中心
  • 🛠️ 编译并运行 SDK 自带例程(如 g1_ankle_swing_example
  • 🤖 探索 ROS 2 通信集成方案
  • 🔒 配置 SSH 密钥登录,提升远程访问安全性

备注:本文基于 Unitree G1 机器人实际操作整理,适用于 unitree_sdk2 开发环境。如有疑问,欢迎在评论区交流。

Read more

基于aiortc实现WebRTC与Django的实时通信:从搭建到优化

快速体验 在开始今天关于 基于aiortc实现WebRTC与Django的实时通信:从搭建到优化 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 基于aiortc实现WebRTC与Django的实时通信:从搭建到优化 背景与痛点 传统Django应用在处理实时通信时,通常依赖轮询或长轮询技术,这种方式存在明显的延迟和资源浪费问题。想象一下,每次用户发送消息或更新状态,客户端都需要不断向服务器发起请求,不仅效率低下,还增加了服务器负担。 WebRTC技术则完

Qwen3-VL-WEBUI培训系统:操作视频智能评分部署案例

Qwen3-VL-WEBUI培训系统:操作视频智能评分部署案例 1. 引言:为何需要操作视频智能评分? 在企业培训、技能认证和远程教育场景中,传统的人工评分方式存在效率低、主观性强、成本高等问题。尤其在涉及复杂操作流程(如设备维修、软件使用、医疗操作)的评估中,人工难以对动作顺序、步骤完整性、操作规范性进行精准量化。 随着多模态大模型的发展,视觉-语言模型(VLM) 已具备理解图像、视频与自然语言指令之间深层语义关系的能力。阿里云最新发布的 Qwen3-VL-WEBUI 系统,基于开源模型 Qwen3-VL-4B-Instruct,为构建自动化、智能化的操作视频评分系统提供了强大支撑。 本文将结合实际部署案例,介绍如何利用 Qwen3-VL-WEBUI 实现“操作视频智能评分”系统的快速落地,并分析其技术优势与工程实践要点。 2. Qwen3-VL-WEBUI 核心能力解析 2.1 模型背景与架构升级 Qwen3-VL 是 Qwen 系列中迄今最强大的视觉-语言模型,专为复杂多模态任务设计。其核心版本 Qwen3-VL-4B-Instruct

Qwen3-VL-WEBUI实战:新闻图片自动标注系统

Qwen3-VL-WEBUI实战:新闻图片自动标注系统 1. 引言 1.1 业务场景描述 在现代新闻媒体生产流程中,图片是信息传递的重要载体。每篇新闻报道往往伴随多张现场照片、图表或截图,而对这些图像进行准确、高效的内容标注(如生成标题、识别主体、提取关键词)是一项耗时且依赖人工的任务。 传统方式下,编辑人员需手动查看每张图片并撰写描述性文字,不仅效率低下,还容易因主观判断导致标注不一致。随着AI技术的发展,尤其是多模态大模型的成熟,构建一个自动化新闻图片标注系统已成为可能。 1.2 痛点分析 当前主流的图像标注方案存在以下问题: * 通用OCR工具仅能提取文本,无法理解图像语义; * 传统CV模型(如ResNet+分类头)泛化能力弱,难以应对复杂场景; * 闭源API服务成本高、响应慢、数据隐私风险大; * 部署门槛高:多数开源模型需要复杂的环境配置和工程调优。 因此,亟需一种开箱即用、高性能、可本地部署的视觉语言模型解决方案。 1.3 方案预告 本文将基于阿里云最新开源的 Qwen3-VL-WEBUI,搭建一套完整的“