宇树 G1 机器人开发入门:有线 & 无线连接完整指南

宇树 G1 机器人开发入门:有线 & 无线连接完整指南
适用读者:机器人二次开发者、科研人员
开发环境:Ubuntu 20.04(推荐)
机器人型号:Unitree G1 EDU+

前言

宇树 G1 是一款面向科研与商业应用的高性能人形机器人,支持丰富的二次开发接口。在正式进行算法调试与功能开发之前,首要任务是建立稳定的开发连接。本文将详细介绍两种主流连接方式:有线(网线直连)无线(WiFi + SSH),并附上完整的配置流程,帮助开发者快速上手。


一、有线连接(推荐新手优先使用)

有线连接通过网线直接将开发电脑与 G1 机器人相连,具有延迟低、稳定性高、不依赖外部网络的优势,是新手入门和底层调试的首选方式。

1.1 前置条件

所需物品说明
开发电脑推荐安装 Ubuntu 20.04,或在 Windows 上使用虚拟机
宇树 G1 机器人确保已开机且处于正常状态
网线(Cat5e 及以上)用于直连机器人与开发电脑
⚠️ 注意:目前 unitree_sdk2 暂不支持 macOS 和 Windows 原生环境,请务必在 Linux 环境下进行开发。

1.2 SDK 安装

在进行连接配置之前,需要先完成 SDK 的安装。以 unitree_sdk2 为例,安装步骤如下:

可参考:SDK安装方法


1.3 网络配置

用网线连接机器人和开发电脑后,需要手动配置 IP 地址,使两者处于同一网段

在这里插入图片描述

G1 机器人默认 IP 地址:

节点IP 地址
机载主控电脑192.168.123.161
二次开发板192.168.123.164

配置步骤(Ubuntu 图形界面):

  1. 打开 SettingsNetwork
  2. 找到有线连接对应的网卡,点击设置图标
  3. 切换到 IPv4 选项卡,将模式改为 Manual(手动)
  4. 点击 Apply 保存配置

填写以下信息:

IP Address : 192.168.123.99 # 推荐,或选择同网段其他未占用地址 Subnet Mask: 255.255.255.0 Gateway : (可留空) 

1.4 连接验证

打开终端,执行 ping 命令验证连通性:

ping192.168.123.161 

若看到如下输出,则表示连接成功:

在这里插入图片描述

若出现 Request timeout 或无响应,请检查:

  • 网线是否插紧
  • IP 地址是否配置在同一网段(192.168.123.X
  • 子网掩码是否为 255.255.255.0

至此,有线连接完成,可以开始开发工作。


二、无线连接(SSH 远程访问)

无线连接通过 WiFi 将机器人与开发电脑接入同一局域网,再通过 SSH 远程登录进行操作,适合需要机器人自由移动多人协作开发的场景。

2.1 前置条件

所需物品说明
开发电脑需安装 SSH 客户端软件,推荐 MobaXterm
宇树 G1 机器人
显示屏 + 键盘 + 鼠标用于机器人首次配网(仅首次需要)
无线网络或手机热点机器人与电脑需连接同一 WiFi
💡 推荐 SSH 工具MobaXterm,支持文件传输、多标签终端、X11 转发等功能,体验远优于原生 SSH 命令行。

2.2 Step 1:机器人配网

首次配置时,需借助外设将机器人连接到 WiFi:

  1. 将显示器、键盘、鼠标接入 G1 机器人的对应接口
  2. 开机后进入系统桌面(机器人内置 Ubuntu 系统)
  3. 点击右上角网络图标,选择目标 WiFi 并输入密码完成连接
在这里插入图片描述


在这里插入图片描述

2.3 Step 2:查看机器人局域网 IP

连接 WiFi 后,在机器人桌面终端中执行:

ifconfig# 或ip addr 

找到无线网卡(通常为 wlan0)对应的 IP 地址,例如 192.168.1.105,记录备用。


2.4 Step 3:开发电脑通过 SSH 连接

确保开发电脑已连接到相同 WiFi 后,打开 MobaXterm:

  1. 点击 OK,首次连接会提示确认主机指纹,选择 Accept

输入登录凭据:

Username : unitree Password : 123 

填写以下信息:

Remote host : <机器人局域网 IP,如 192.168.1.105> Port : 22 
在这里插入图片描述

点击左上角 SessionSSH

在这里插入图片描述

成功登录后,即可看到机器人系统的命令行界面,开始远程开发操作。

在这里插入图片描述

2.5 使用命令行 SSH(Linux / macOS)

若不使用图形客户端,也可直接在终端中连接:

ssh [email protected] # 提示输入密码时输入:123
⚠️ 安全提示:默认密码 123 安全性极低,生产环境中请及时修改密码并配置 SSH 密钥认证,避免未授权访问。

至此,无线连接完成,可以进行远程开发。


三、两种连接方式对比

对比维度有线连接无线连接(SSH)
稳定性⭐⭐⭐⭐⭐ 极佳⭐⭐⭐ 受信号影响
延迟⭐⭐⭐⭐⭐ 极低⭐⭐⭐ 相对较高
机器人活动范围❌ 受网线限制✅ 自由移动
配置难度⭐⭐ 较简单⭐⭐⭐ 需首次配网
适用场景底层调试、SDK 开发动态测试、远程协作

四、常见问题排查

Q1:ping 不通,怎么排查?

  1. 检查网线是否物理连接正常(指示灯是否亮起)
  2. 确认开发电脑 IP 在 192.168.123.X 网段,且未与机器人 IP 冲突
  3. 尝试关闭防火墙:sudo ufw disable
  4. 重新拔插网线并重新配置 IP

Q2:SSH 连接超时怎么办?

  1. 确认机器人与电脑连接的是同一个 WiFi
  2. 确认机器人局域网 IP 是否已发生变化(DHCP 环境下 IP 可能变化)
  3. 尝试在路由器管理页面为机器人绑定固定 IP(MAC 地址绑定)

Q3:查看通信网卡名称

运行 SDK 例程时需要指定网卡名称,通过以下命令查看:

ifconfig# 找到 IP 为 192.168.123.X 网段的网卡名,如 enp3s0、enxf8e43b808e06 等

五、总结

完成连接配置后,即可开始正式开发工作。推荐的后续步骤:

  • 📖 阅读 宇树科技官方文档中心
  • 🛠️ 编译并运行 SDK 自带例程(如 g1_ankle_swing_example
  • 🤖 探索 ROS 2 通信集成方案
  • 🔒 配置 SSH 密钥登录,提升远程访问安全性

备注:本文基于 Unitree G1 机器人实际操作整理,适用于 unitree_sdk2 开发环境。如有疑问,欢迎在评论区交流。

Read more

AI工具链:MLflow实验跟踪

AI工具链:MLflow实验跟踪

AI工具链:MLflow实验跟踪 📝 本章学习目标:本章聚焦职业发展,帮助读者规划AI学习与职业路径。通过本章学习,你将全面掌握"AI工具链:MLflow实验跟踪"这一核心主题。 一、引言:为什么这个话题如此重要 在人工智能快速发展的今天,AI工具链:MLflow实验跟踪已经成为每个AI从业者必须掌握的核心技能。Python作为AI开发的主流语言,其丰富的生态系统和简洁的语法使其成为机器学习和深度学习的首选工具。 1.1 背景与意义 💡 核心认知:Python在AI领域的统治地位并非偶然。其简洁的语法、丰富的库生态、活跃的社区支持,使其成为AI开发的不二之选。掌握Python AI技术栈,是进入AI行业的必经之路。 从NumPy的高效数组运算,到TensorFlow和PyTorch的深度学习框架,Python已经构建了完整的AI开发生态。据统计,超过90%的AI项目使用Python作为主要开发语言,AI岗位的招聘要求中Python几乎是标配。 1.2 本章结构概览 为了帮助读者系统性地掌握本章内容,我将从以下几个维度展开: 📊 概念解析 → 原理推导 → 代码

AI世界模型(World Model)全解析:技术原理、研究进展与产业落地

AI世界模型(World Model)全解析:技术原理、研究进展与产业落地 摘要:世界模型(World Model)作为连接AI感知、决策与行动的核心枢纽,正成为突破通用人工智能(AGI)瓶颈的关键技术。本文从概念溯源、理论基础出发,系统剖析世界模型的技术架构、核心分类与实现方法,结合2024-2026年最新研究成果(如LeCun团队潜在动作世界模型、DIAMOND扩散模型)与产业落地案例,深入探讨其在强化学习、游戏开发、自动驾驶、机器人等领域的应用价值,最后梳理当前技术挑战并展望未来研究方向。全文兼顾学术深度与工程实践,为AI研究者与技术从业者提供全面的世界模型知识体系。 一、引言:从“符号拟合”到“世界理解”,AI的认知革命 1.1 大语言模型的认知瓶颈 自ChatGPT掀起大模型浪潮以来,大语言模型(LLM)凭借海量文本数据的统计拟合能力,在语义理解、内容生成、逻辑推理等领域展现出惊人实力。但在杨立昆、李飞飞等顶尖学者眼中,当前LLM仍是“

EvoScientist:让 AI 科学家学会“长记性“——多智能体进化框架如何实现端到端科研自动化

EvoScientist:让 AI 科学家学会“长记性“——多智能体进化框架如何实现端到端科研自动化

EvoScientist:让 AI 科学家学会"长记性"——多智能体进化框架如何实现端到端科研自动化 论文标题:EvoScientist: Towards Multi-Agent Evolving AI Scientists for End-to-End Scientific Discovery 作者:Yougang Lyu, Xi Zhang, Xinhao Yi, Yuyue Zhao, Shuyu Guo, Wenxiang Hu, Jan Piotrowski, Jakub Kaliski, Jacopo Urbani, Zaiqiao Meng, Lun Zhou, Xiaohui Yan 机构:Huawei Technologies Co., Ltd. 等

DeerFlow 2.0实战指南:生产级AI Agent框架的Docker化部署与并行编排

DeerFlow 2.0实战指南:生产级AI Agent框架的Docker化部署与并行编排

前言:为什么要选择DeerFlow 2.0? 最近字节跳动开源的DeerFlow 2.0在GitHub上火了,几天时间收获45,000+星。作为一名技术开发者,我第一时间研究了这个项目。经过深入测试,我发现它解决了传统AI Agent框架在生产环境中的几个关键痛点。 本文将从工程实践角度,带你完整掌握DeerFlow 2.0的核心功能和部署方法。 一、核心技术架构解析 1.1 Docker隔离机制 传统框架的问题:多个任务共享进程,一个任务崩溃影响全局。 DeerFlow 2.0的解决方案:每个任务独立Docker容器。 核心代码实现: # 任务容器创建函数defcreate_task_container(task_id, skill_config): container = docker_client.containers.run( image="deerflow-agent-base:latest", command=