ROS 机器人工程师30 天突击学习计划(超详细・日更版)第一天 Linux

第 1 周:Linux + C++/Python + ROS 基础(Day1~7)

Day1:Linux 终端命令(ROS 90% 操作都靠它)

上午 9:00–11:30 | 必背命令

查看日志 / 进程bash运行

top # 看CPU htop # 更直观 dmesg # 系统日志 

文件操作bash运行

ls -la # 看所有文件 cd # 进入目录 pwd # 显示当前路径 mkdir -p # 递归创建文件夹 rm -rf # 删除(谨慎) cp -r # 复制文件夹 mv # 移动/重命名 

下午 14:00–17:00 | 权限 + 包管理

bash

运行

sudo chmod 777 file sudo chown -R user:user folder sudo apt update sudo apt install xxx 

晚上 19:00–20:30 | 练习

  • 建一个 ros_ws/src 目录,来回复制删除验收:不看笔记能敲出 15 条常用命令面试点:Linux 在 ROS 里用来干什么?(启动、编译、调试、部署)

什么?(启动、编译、调试、部署)

1. 建立 ros_ws/src 目录并完成复制、删除、验收操作
在终端里操作(假设你用的是 Ubuntu + ROS Noetic/Kinetic/Melodic 等):
bash

# 1. 创建 ROS 工作空间目录结构
mkdir -p ~/ros_ws/src

# 2. 进入 src 目录(此时为空)
cd  ~/ros_ws/src

# 3. 创建一个示例功能包用于测试(假设用 catkin_create_pkg)
#    这里用 rospy 和 std_msgs 作为依赖示例
catkin_create_pkg hello_ros rospy std_msgs

# 4. 回到工作空间根目录
cd  ~/ros_ws

# 5. 编译工作空间(第一次编译会生成 build 和 devel)
catkin_make

# 6. 复制一份 src 目录做备份(验收用)
cp   -r src src_backup

# 7. 查看备份是否成功
ls -l

# 8. 删除刚创建的备份(验收删除)
rm  -rf src_backup

# 9. 确认删除成功
ls   -l

# 10. 验收:确认 src 里还有 hello_ros 包
ls src
这样就完成了 创建 → 复制 → 删除 → 验收 的流程。
2. 不看笔记能敲出的 15 条常用 ROS 命令(面试常考)
下面列出 15 条高频 ROS 命令(以 ROS1 为例,ROS2 略有差异):
1. roscore — 启动 ROS Master、参数服务器、rosout 节点(必须先运行) 13
2. catkin_create_pkg <pkg_name> [dependencies] — 创建功能包 10
3. catkin_make — 编译工作空间(在 workspace 根目录执行) 10
4. source devel/setup.bash — 设置当前终端的环境变量(使能工作空间) 11
5. rospack find <pkg_name> — 查找功能包路径 22
6. roscd <pkg_name> — 切换到功能包目录 15
7. rosls <pkg_name> — 列出功能包里的文件 15
8. rosrun <pkg_name> <executable> — 运行功能包中的节点 22
9. roslaunch <pkg_name> <file.launch> — 启动 launch 文件(可一次启动多个节点) 10
10. rosnode list — 列出当前运行的节点 21
11. rosnode info <node_name> — 查看节点信息(话题、服务、参数) 13
12. rostopic list — 列出当前活跃的话题 9
13. rostopic echo <topic_name> — 打印话题消息内容 9
14. rostopic pub <topic_name> <msg_type> <args> — 发布话题消息 9
15. rosparam list — 列出参数服务器上的参数 9
3. Linux 在 ROS 里用来干什么?(启动、编译、调试、部署)
Linux 是 ROS 的主要运行平台,在 ROS 的启动、编译、调试、部署各环节都扮演核心角色:
1. 启动
◦ ROS 节点本质是 Linux 下的进程,roscore、rosrun、roslaunch 都是在 Linux Shell 中执行的命令。 9
◦ roslaunch 会调用 Python 脚本解析 XML 并启动多个 Linux 进程(节点)。 26
2. 编译
◦ ROS 使用 catkin(基于 CMake)构建系统,编译过程依赖 Linux 下的 GCC/G++ 编译器、make 工具。
◦ catkin_make 或 catkin build 在 Linux 终端执行,生成可执行文件放在 devel/lib/<pkg>/ 或 install/ 目录。
3. 调试
◦ 常用 Linux 命令配合 ROS 工具调试:rosnode、rostopic、rosparam、rqt_graph、rqt_console、gdb(C++ 节点调试)、valgrind(内存检查)。 10
◦ 利用 Linux 的进程管理(ps, kill, top)查看和控制 ROS 节点。
4. 部署
◦ 机器人实际运行时通常在 Linux 系统(如 Ubuntu)上,将编译好的工作空间 install 或 devel 目录部署到目标机。
◦ 通过 Linux 的 shell 脚本或 systemd 服务实现开机自启动 ROS 节点(如 roslaunch 在 .bashrc 或启动脚本中自动运行)。
一句话总结:
Linux 为 ROS 提供了进程管理、编译链、调试工具和运行环境,是 ROS 开发、测试、部署的基石,所有启动、编译、调试、部署操作都依赖 Linux 的 Shell 环境与系统工具链。

Read more

【AI大模型学习日志4:深度拆解Meta Llama系列——全球开源大模型的事实标准与AI普惠化的奠基者】

在上一篇AI大模型学习日志中,我们深度拆解了Anthropic的Claude系列,它以“安全对齐+长上下文对话”为核心差异化,成为企业级对话场景的标杆,凭借严谨的内容输出与隐私保护优势,在政企、法律等强合规领域站稳脚跟。而在大模型赛道,有一款产品彻底打破了“闭源模型垄断高端能力”的格局——它没有高调的发布会,没有复杂的商业化噱头,仅通过开源免费的模式,就推动了AI技术的普惠化普及,成为全球数千万开发者的首选开源底座,定义了开源大模型的事实标准,它就是Meta(原Facebook)研发的Llama(Large Language Model Meta AI)系列。 在Llama出现之前,开源大模型普遍存在“性能弱、场景适配差、商用受限”的痛点,而闭源大模型的API调用成本高昂,让中小企业与独立开发者望而却步,AI技术的普惠化陷入瓶颈。Llama的横空出世,不仅填补了“高性能开源大模型”的空白,更以宽松的开源许可、轻量化的部署优势,让全球开发者都能零成本获取旗舰级AI能力,推动了开源大模型生态的爆发式增长。本文所有核心信息均以Meta官方技术白皮书、Llama版本更新公告、开源协议文档及权

论文AIGC飘红?深扒10款降ai率工具,免费降ai率还是交智商税?这篇论文降ai干货请收好!

论文AIGC飘红?深扒10款降ai率工具,免费降ai率还是交智商税?这篇论文降ai干货请收好!

跟大伙透个底,前两个月写毕业论文,我差点没厥过去。 本以为用AI辅助写个初稿能“弯道超车”,结果导师查重的时候,那张红得刺眼的报告单直接教我做人——AIGC疑似度高达85%。看着那个数字,我脑子里全是“完了,延毕预定”。 为了保住我的学位证,我像发了疯一样,把市面上能找到的 降ai率工具 全试了一遍。这一路真是踩坑无数,钱包也瘪了不少。 好在最后把 降ai率 死磕到了10%以下,顺利上岸。今天我就把这些ai降ai的实战经验整理出来,不管你是想找 免费降ai率工具 薅羊毛,还是愿意花点小钱求稳,这篇测评都能帮你少走弯路。 1. 笔灵AI写作(全能救火队员) 试了一圈下来,笔灵绝对是我的“本命”工具,也是它把我从延毕的悬崖边拉回来的。说实话,经历了几个“智商税”工具的折磨后,我对 降低ai率 软件都不抱希望了,结果它给了我一个大惊喜。 🌟 推荐指数:⭐⭐⭐⭐⭐ 👉 传送门:hhttps://ibiling.

【AIGC】结构化的力量:ChatGPT 如何实现高效信息管理

【AIGC】结构化的力量:ChatGPT 如何实现高效信息管理

博客主页: [小ᶻ☡꙳ᵃⁱᵍᶜ꙳]本文专栏: AIGC |ChatGPT 文章目录 * 💯前言 * 💯结构化的定义 (Structuration: Definition) * 1. 结构化的定义 * 2. 结构化的示例 * 3. 技术领域中的结构化数据 * 💯有序的规则的重要性 (Importance of Orderly Rules) * 1. 信息的组织和转变 * 2. 字典中的例子 * 3. 规则的有序性 * 4. 生活中的例子 * 💯结构化的实际应用 (Practical Applications of Structuration) * 1. 结构化的广泛应用 * 2. 现代科技领域中的重要性 * 3. 结构化的意义 * 💯小结 💯前言 在人工智能生成内容(AIGC)的浪潮中,信息的高效组织和管理成为突破瓶颈的关键能力。结构化,作为一种通过明确规则和逻辑对信息进行处理的方法,不仅奠定了高效信息管理的基础,

Llama-3.2-3B部署案例:Ollama镜像免配置+Mac M1/M2芯片原生运行实测

Llama-3.2-3B部署案例:Ollama镜像免配置+Mac M1/M2芯片原生运行实测 想在Mac上快速体验最新的大语言模型?Llama-3.2-3B配合Ollama镜像,让你5分钟内就能开始与AI对话,无需任何复杂配置。 作为一名长期在Mac上折腾AI模型的技术爱好者,我最头疼的就是环境配置和依赖问题。每次看到"只需简单几步"的教程,结果往往需要安装一堆库、解决各种兼容性问题。 直到遇到了Ollama版的Llama-3.2-3B镜像,我才真正体验到了什么叫"开箱即用"。特别是对Mac M1/M2用户来说,这个镜像做了原生优化,不需要通过Rosetta转译,性能直接拉满。 1. Llama-3.2-3B模型简介 Llama 3.2是Meta最新推出的轻量级大语言模型系列,包含1B和3B两个版本。我这次实测的3B版本虽然在参数规模上不算巨大,但在多语言对话场景下的表现相当惊艳。 1.1 核心特点 这个模型专门针对多语言对话进行了优化,无论是中文、英文还是其他语言,都能保持不错的对话流畅度。我在测试中发现,它在理解用户意图和生成连贯回复方面,