【机器人】机器人方向的顶会--自用

机器人领域的顶会主要分为 “跨领域旗舰顶会”(覆盖机器人全方向,含金量最高)和 “细分方向顶会”(聚焦感知、决策、控制、人机交互等子领域),均为 CCF A 类或领域内公认的顶级会议,适合跟踪前沿研究、投稿交流。结合你之前关注的 “视觉算法、SLAM、强化学习、具身智能、移动 / 机械臂控制” 等方向,整理如下:
一、机器人领域旗舰顶会(必关注,全方向覆盖)
这两个是机器人领域的 “双子星”,跨感知、决策、控制、硬件、应用等所有方向,是行业内最权威的会议,投稿范围广、影响力最大。

  1. ICRA(IEEE International Conference on Robotics and Automation)
    定位:机器人领域 最核心的旗舰会议,覆盖机器人全领域,包括移动机器人、机械臂、视觉感知、SLAM、运动控制、人机交互、工业 / 服务机器人等。
    主办方:IEEE Robotics and Automation Society (RAS)
    频率:每年 1 次(5-6 月举办,全球巡回)
    适合方向:你的学习路线(视觉、SLAM、机械臂控制、自主导航、视觉抓取)都能投稿,是机器人研究者的 “必投 / 必看” 会议。
    补充:录用率约 25%-30%,论文质量兼顾理论创新与工程落地,很多实物机器人原型、仿真系统的突破性成果会在此发布。
  2. IROS(IEEE/RSJ International Conference on Intelligent Robots and Systems)
    定位:与 ICRA 并列的 旗舰顶会,更侧重 “智能机器人系统”,聚焦机器人在真实环境中的应用(如自主导航、环境适应、多机器人协作)。
    主办方:IEEE RAS + 日本机器人学会(RSJ)
    频率:每年 1 次(9-10 月举办)
    适合方向:具身智能、SLAM 建图与定位、移动机器人导航、强化学习在机器人中的落地、服务机器人等,与你的实践项目(自主导航、视觉抓取)高度匹配。
    补充:录用率约 28%-32%,偏向 “系统集成 + 实际场景验证”,很多 Gazebo 仿真、实物机器人部署的成果会在此展示。
    二、细分方向顶会(按你的学习重点分类)
    如果你的研究聚焦某一细分领域,这些会议的针对性更强,学术影响力同样顶尖:
  3. 视觉感知与 SLAM 方向(你的核心优势)
    CVPR(IEEE/CVF Conference on Computer Vision and Pattern Recognition)
    定位:计算机视觉领域 顶会(CCF A 类),机器人视觉相关专题(如机器人视觉感知、SLAM、3D 点云处理、视觉抓取)是核心板块。
    适合:你之前掌握的视觉算法、Open3D/PCL 点云处理、手眼标定等技术,对应的研究成果可投稿。
    补充:录用率约 20%-25%,理论创新性要求高,很多 SLAM 算法的突破(如前沿特征提取、回环检测)会在此发表。
    ICCV(IEEE International Conference on Computer Vision)
    定位:计算机视觉领域 三大顶会之一(CCF A 类),与 CVPR 交替举办(奇数年举办),机器人视觉、3D 重建、SLAM 是重点专题。
    适合:视觉里程计(VO)、多传感器融合(视觉 + IMU)、SLAM 建图优化等方向。
    ECCV(European Conference on Computer Vision)
    定位:欧洲计算机视觉顶会(CCF A 类),偶数年举办,机器人视觉、点云分割、视觉导航等方向的成果集中。
    BMVC(British Machine Vision Conference)
    定位:计算机视觉领域权威会议(CCF B 类,行业内认可度接近 A 类),机器人视觉、SLAM 方向的投稿门槛相对友好,适合入门级前沿成果。
  4. 强化学习与具身智能方向(你的决策模块学习重点)
    CoRL(Conference on Robot Learning)
    定位:机器人与强化学习交叉领域 顶级会议,聚焦 “用机器学习(尤其是强化学习)解决机器人决策问题”。
    适合:具身强化学习(Embodied RL)、机器人避障 / 抓取的 RL 训练、视觉 + RL 的端到端控制等方向,与你的 “用 PPO 训练机器人避障” 实践高度契合。
    补充:录用率约 20%-25%,是机器人领域与 AI 结合最紧密的会议,很多大模型 + 具身机器人的成果会在此发布。
    NeurIPS(Neural Information Processing Systems)
    定位:机器学习领域 顶会(CCF A 类),机器人相关专题(如 Embodied RL、多智能体协作、机器人决策大模型)近年热度极高。
    适合:用深度学习、强化学习优化机器人决策的研究(如基于 LLM 的机器人指令理解)。
    ICML(International Conference on Machine Learning)
    定位:机器学习领域顶会(CCF A 类),机器人强化学习、决策优化、数据驱动的控制方法是核心专题。
  5. 运动控制与机器人系统方向
    RSS(Robotics: Science and Systems)
    定位:机器人领域 理论性顶会,聚焦机器人学的基础理论(如运动学、动力学、轨迹规划、最优控制)。
    适合:机械臂逆运动学优化、移动机器人轨迹规划(A*/RRT * 改进)、PID 控制优化等方向,理论深度要求高。
    补充:录用率约 18%-22%,是机器人学基础理论的 “风向标”,很多经典控制算法的创新源于此。
    CASE(IEEE International Conference on Automation Science and Engineering)
    定位:工业机器人与自动化领域顶会(CCF A 类),适合工业机器人控制、人机协作安全控制、自动化生产线机器人应用等方向。
  6. 人机交互与服务机器人方向
    HRI(ACM/IEEE International Conference on Human-Robot Interaction)
    定位:人机交互领域 顶会,聚焦机器人与人类的交互设计(如语音指令、手势控制、协作安全)。
    适合:服务机器人、协作机械臂的人机交互研究(如 “自然语言指令→机器人动作转化”)。
  7. 移动机器人与导航方向
    IV(IEEE Intelligent Vehicles Symposium)
    定位:智能车辆 / 移动机器人领域顶会,聚焦自主导航、环境感知、避障决策,适合移动机器人(尤其是自动驾驶相关)的研究。
    适合:你的 “移动机器人自主导航” 项目,涉及 Nav2 框架、SLAM + 导航融合的成果可投稿。
    三、顶会选择建议(结合你的阶段)
    入门跟踪前沿:先关注 ICRA、IROS(全方向,了解行业动态)+ CVPR/ICCV(视觉 / SLAM)+ CoRL(RL + 机器人),这些会议的论文集是最好的学习资料。
    实践项目投稿:如果做 “视觉抓取、自主导航” 的系统级成果,优先投 ICRA/IROS(接受度高,重视工程落地);如果做视觉 / SLAM 的算法创新,投 CVPR/ICCV;如果做 RL + 机器人的决策优化,投 CoRL/NeurIPS。
    理论研究深入:如果聚焦运动学、控制理论,可瞄准 RSS;如果聚焦机器学习驱动的决策,瞄准 NeurIPS/ICML。
    总结
    机器人领域的顶会核心是 ICRA/IROS(全方向旗舰),再根据你的细分方向(视觉 / SLAM→CVPR/ICCV,RL + 具身智能→CoRL/NeurIPS,控制理论→RSS)补充对应会议。这些会议的论文是跟踪前沿技术、提升研究水平的关键,建议定期看近 3 年的录用论文,尤其是与你的实践项目(视觉抓取、自主导航)相关的工作。

机器人的学习路线:
你想基于已有的视觉算法、C++ 和 Python 基础,搭建一套系统的具身机器人(Embodied Robot) 学习路线,核心是从基础到进阶,逐步掌握 “感知 - 决策 - 执行” 全链路的核心技术,最终能落地仿真或实物机器人项目。
结合你的基础,我把学习路线拆成「基础巩固→核心模块→实践项目→进阶深化」四个阶段,每个阶段聚焦关键知识点和落地目标,避免盲目堆砌内容:
阶段 1:基础巩固与机器人通识(1-2 个月)
核心目标:把你已有的编程 / 视觉基础,适配到机器人开发场景,同时补全机器人学核心通识(具身机器人的底层逻辑)。
1.1 编程能力针对性强化
C++(机器人开发核心):
重点掌握:多线程 / 进程(机器人实时性需求)、内存管理(嵌入式端资源限制)、ROS/ROS2 的 C++ API(机器人开发标配)。
练习:用 C++ 写简单的 “图像读取 + 串口通信” 程序(模拟视觉数据传给机器人控制端)。
Python(快速验证 / 算法原型):
重点掌握:NumPy/OpenCV 进阶(机器人视觉数据处理)、PyTorch/TensorFlow(后续强化学习 / 深度学习落地)、ROS2 的 Python API。
练习:用 Python+OpenCV 实现目标检测(YOLOv8)的工程化封装(输入相机流,输出目标坐标)。
1.2 机器人学核心通识(必学)
具身机器人的核心是 “身体与环境交互”,必须理解运动原理:
核心知识点:DH 参数(机器人连杆建模)、正 / 逆运动学(机械臂 / 移动机器人的运动计算)、雅克比矩阵(速度 / 力控制)。
学习资源:《机器人学导论》(Craig 版,经典入门)、B 站 “古月居” ROS 机器人学基础课。
练习:用 Python 手动计算 2 自由度机械臂的逆运动学(不用库,理解原理)。
1.3 开发环境与工具(ROS/ROS2)
ROS/ROS2 是具身机器人开发的 “操作系统”,必须掌握:
核心内容:节点 / 话题 / 服务 / 参数服务器(机器人模块通信)、Launch 文件(启动多模块)、Gazebo 仿真(虚拟环境测试)。
练习:在 Gazebo 中启动一个简单的移动机器人模型,用 ROS2 发布 “速度指令” 控制机器人移动。
阶段 2:核心技术模块学习(3-4 个月)
核心目标:掌握具身机器人 “感知 - 决策 - 执行” 三大核心模块,优先发挥你的视觉算法优势。
2.1 感知模块(你的优势,重点落地)
具身机器人的 “眼睛”,核心是 “从视觉数据中提取环境 / 自身状态”:
基础视觉进阶:相机标定(张正友标定法)、手眼标定(机械臂 + 相机的坐标转换)、视觉里程计(VO,机器人自身定位)。
3D 视觉(关键):深度相机使用(RealSense D435i)、点云处理(PCL 库 / C++/Python)、Open3D(点云可视化 / 配准)。
SLAM(定位与建图):入门 Cartographer/RTAB-Map(开源 SLAM 框架),理解 “前端特征提取→后端优化→回环检测” 核心逻辑,用 ROS2 部署 SLAM,让机器人在 Gazebo 中建图 + 定位。
练习:用 RealSense 相机采集点云,通过 PCL 提取桌面物体的点云轮廓,输出物体的 3D 坐标。
2.2 决策模块(具身智能核心)
具身机器人的 “大脑”,核心是 “根据感知结果做动作决策”:
经典控制(工程落地):PID 控制(控制机器人关节 / 速度,比如让移动机器人走直线)、轨迹规划(A*/RRT * 算法,给机器人规划路径)。
强化学习(具身智能核心):
入门:基础 RL 算法(DQN/PPO),用 Stable Baselines3 库在 Gazebo 中做仿真训练(比如让机器人学会避障)。
进阶:具身强化学习(Embodied RL),结合视觉输入(比如相机画面作为状态),训练机器人完成 “抓取 / 导航” 任务。
工程化决策框架:行为树(BT)/ 有限状态机(FSM),比纯 RL 更稳定,适合实物机器人部署。
练习:用 PID 控制让仿真机械臂的末端到达指定坐标;用 PPO 训练仿真移动机器人避障。
2.3 执行模块(机器人的 “手脚”)
把决策转化为物理动作,核心是 “运动控制 + 硬件交互”:
运动控制:
移动机器人:Nav2 框架(ROS2 标配,实现自主导航);
机械臂:MoveIt!2 框架(运动规划 + 轨迹执行)。
硬件交互:GPIO 控制、串口通信,了解舵机 / 电机的控制方式(比如 Arduino/STM32 与上位机通信)。
练习:在 Gazebo 中用 MoveIt!2 控制机械臂,结合视觉识别的目标坐标,完成 “抓取目标” 的仿真。
阶段 3:实践项目(2-3 个月)
核心目标:从 “仿真” 到 “实物”,落地完整的具身机器人项目,验证所学内容。
3.1 仿真项目(低成本入门)
项目 1:移动机器人自主导航
内容:ROS2 + Gazebo + Cartographer SLAM + Nav2,实现机器人 “建图→定位→自主导航到指定点”。
项目 2:视觉抓取仿真
内容:机械臂(比如 UR5)+ RealSense 仿真相机 + MoveIt!2 + YOLOv8,实现 “识别桌面目标→规划抓取路径→抓取目标”。
3.2 小型实物项目(低成本落地)
基于英伟达 Jetson(NX/Orin)/ 树莓派,搭配低成本硬件:
硬件清单:Jetson Nano(主控)+ 深度相机(RealSense D435i)+ 小型移动底盘(比如麦轮底盘)+ 舵机机械臂(DOFBOT)。
项目目标:实现 “移动机器人自主导航到桌面→视觉识别水杯→机械臂抓取水杯” 的完整流程。
阶段 4:进阶方向与深化(长期)
根据你的兴趣细分方向,深化技术:
具身大模型(前沿):结合 LLM(比如 GPT-4o / 通义千问),让机器人理解自然语言指令(比如 “帮我拿桌子上的红色水杯”),并转化为动作序列。
工业 / 服务机器人:聚焦高精度控制、人机协作(比如碰撞检测、安全控制)。
多机器人协作:分布式感知、协同决策,实现多机器人共同完成任务(比如搬运大件物体)。
关键学习资源推荐
类型 推荐内容
教材 《机器人学导论》(Craig)、《ROS2 机器人开发实战》、《具身智能:原理与实践》
课程 古月居 ROS2 课程、深蓝学院《机器人运动规划与控制》、B 站 “同济子豪兄” 视觉 SLAM 课
开源框架 ROS2(核心工具)、MoveIt!2(机械臂)、Nav2(导航)、Stable Baselines3(RL)
硬件 / 仿真 Gazebo(仿真)、NVIDIA Jetson(嵌入式主控)、RealSense(深度相机)
总结
你的视觉算法基础是核心优势,优先从 “视觉感知→SLAM→视觉抓取” 切入,再补充机器人学和控制知识,避免本末倒置;
ROS/ROS2 是具身机器人开发的核心工具,所有模块都要基于它落地,务必熟练;
学习路径遵循 “仿真先行,再落地实物”:先在 Gazebo 中验证算法,再迁移到硬件,降低试错成本。
如果需要更聚焦的方向(比如偏向服务机器人 / 工业机器人),可以告诉我,我会把路线再细化。

Read more

最大无本体具身数据集开源!简智机器人联合百度百舸,加速具身智能应用落地

1.    简智机器人开源行业最大规模的无本体具身数据集 1 月 5 日,简智新创(北京)机器人科技有限公司(以下简称「简智机器人」)正式开源「RealOmni-Open DataSet」无本体具身数据集,数据集总计包含超过 10,000 小时、百万条以上的真实操作记录,是目前行业已知数据规模最大且每一项技能数据量最多的无本体开源数据集。 当前,简智机器人能够实现每日万小时以上级别的持续数据采集与处理,不断为数据集注入鲜度,并保障了其持续扩展的能力。 简智机器人专注于通用具身智能全链路解决方案,为行业提供标准化、自动化的数据流基础设施服务。近日,简智机器人完成第三轮融资,成为具身智能数据基建细分赛道融资进展最快的企业。 「RealOmni」属于无本体具身数据集,这类数据集的核心是将数据采集的源头从「机器人」转移到了「人」,采集场景多,数据真实性高。传统数据集需要工作人员操作机器人,依赖机器人本体在特定环境(如实验室等)中运行获取数据,场景与机器人传感器性能受限、且数据维度少、精准度低。而无本体数据集的采集不依赖于特定机器人硬件,工作人员通过穿戴 GenDas 无感设备,

OpenCowork 实测:支持本地文件、飞书机器人的 Windows AI 助手(只需配置 Token)

目的 找一款window 本地ai助手,但有如下要求 1)windows一键安装,带gui界面,操作简单 2)直接操作本地文件,能生成和写入本地文件内容 3)配置token 即可,无需绑定账号登陆 测试效果 OpenCowork 可直接操作本地电脑文件,并支持接入飞书机器人应用,实现类似 OpenClaw 的电脑操作能力; 但整体更适合本地文档生成、资料整理、代码或文本批量处理等场景。相比云端 AI,在生成速度、工具能力和复杂任务支持方面仍有差距,尤其在长文档生成和多工具协作时效率与稳定性较弱,因此更适合作为本地文件处理的辅助工具,而非替代云端 AI。 OpenCowork 很多自动化能力依赖python,你可以自己升级一下python,然后让OpenCowork 检测环境是不是最新的,并升级一下; 1 安装 OpenCowork 客户端 下载地址 https://github.com/AIDotNet/OpenCowork 找右侧侧

FPGA实现MIPI协议全解析 + MIPI协议完整时序规范

FPGA实现MIPI协议全解析 + MIPI协议完整时序规范

一、MIPI协议核心基础认知 百度网盘链接:https://pan.baidu.com/s/1rDsLAXGj8WbX82teSkhuIw?pwd=1234 提取码: 1234 包含FPGA系统学习资料,免费分享 1. MIPI协议定义与核心特点 MIPI(Mobile Industry Processor Interface,移动产业处理器接口)是由MIPI联盟制定的高速串行差分接口协议,最初为手机、平板等移动设备设计,目前广泛应用于FPGA/嵌入式的图像采集(摄像头)、显示驱动(液晶屏)、高速数据传输 场景。 核心特点: ✅ 采用差分信号传输,抗干扰能力强、EMI电磁辐射小; ✅ 支持高低速双模切换,兼顾高速大数据传输和低速控制指令传输; ✅ 串行传输,引脚数量极少(对比并行RGB的几十根引脚,MIPI仅需时钟+1~4路数据差分对),硬件设计简洁; ✅ 传输速率高:单lane(数据通道)速率可达1Gbps~

【大模型应用篇】用 OpenClaw + 飞书打造 7x24 小时服务器运维机器人

【大模型应用篇】用 OpenClaw + 飞书打造 7x24 小时服务器运维机器人

前言 本文基于OpenClaw,也是最近超火的可在本地运行的AI Agent网关,记录从零搭建通过飞书对话管理服务器运维机器人的全过程。该机器人支持随时随地通过飞书查看服务器状态、检索日志、管理进程,其核心机制在于:由OpenClaw将聊天平台(飞书等)的消息路由至大模型,模型调用本地工具(如Shell、文件系统、浏览器)执行相应任务,最终将结果自动返回至飞书会话中,实现自动化运维交互。 架构概览 飞书 App (WebSocket 长连接)         ↕ OpenClaw Gateway (服务器上 systemd 常驻)         ↕ AI 模型 (DeepSeek v3.2/GLM 4.7)         ↕ 服务器 Shell (受白名单限制的命令执行) 核心组件: * OpenClaw Gateway:Agent 网关,管理会话、工具调用、渠道连接 * 飞书插件:通过