无人机避障——Mid360+Fast-lio感知建图+Ego-planner运动规划(胎教级教程)

无人机避障——Mid360+Fast-lio感知建图+Ego-planner运动规划(胎教级教程)

电脑配置:Xavier-nx、ubuntu 18.04、ros melodic

激光雷达:Livox_Mid-360

结果展示:左边Mid360+Fast-lio感知建图,右边Ego-planner运动规划

1、读取雷达数据并显示

无人机避障——感知篇(采用Livox-Mid360激光雷达获取点云数据显示)-ZEEKLOG博客

看看雷达数据话题imu以及lidar两个话题 

2、读取雷达数据并复现fast-lio 

无人机避障——感知篇(采用Mid360复现Fast-lio)-ZEEKLOG博客

启动fast-lio,确保话题有输出 

 由于此处不需要建图,因此不打开rviz,launch文件如下修改:

<launch> <!-- Launch file for Livox MID360 LiDAR --> <arg name="rviz" default="true" /> <rosparam command="load" file="$(find fast_lio)/config/mid360.yaml" /> <param name="feature_extract_enable" type="bool" value="0"/> <!-- 100HZ的bag point_filter_num建议设置为1; 10HZ的bag建议设置为2或3 --> <param name="point_filter_num" type="int" value="3"/> <param name="max_iteration" type="int" value="3" /> <param name="filter_size_surf" type="double" value="0.5" /> <param name="filter_size_map" type="double" value="0.5" /> <param name="cube_side_length" type="double" value="1000" /> <param name="runtime_pos_log_enable" type="bool" value="0" /> <node pkg="fast_lio" type="fastlio_mapping" name="laserMapping" output="screen" /> <!-- <group if="$(arg rviz)"> <node launch-prefix="nice" pkg="rviz" type="rviz" name="rviz" args="-d $(find fast_lio)/rviz_cfg/loam_livox.rviz" /> </group> --> </launch> 

然后运行:

roslaunch fast_lio mapping_mid360.launch

看一下话题:

rostopic list

 看下/Odometry与/cloud_registe

Read more

Mac Mini部署OpenClaw实战指南:打造7×24小时全天候AI数字管家

引言:当Mac Mini遇上OpenClaw 2026年,开源AI智能体OpenClaw已成为技术圈最炙手可热的话题——短短数月斩获超16.5万GitHub星标,社区成员突破8900人。这款原名Clawdbot/Moltbot的开源框架,能将大语言模型的推理能力转化为真实的系统操作力:管理文件、执行终端指令、调用本地应用、连接WhatsApp/Telegram/iMessage等数十种通信渠道。 而Mac Mini,特别是搭载M4芯片的最新款,凭借其极致能效、静音运行、统一内存架构三大特质,成为运行OpenClaw的公认理想宿主。本文将手把手教你将一台Mac Mini打造成全天候在线的AI数字管家,同时深入探讨安全加固、性能优化与生产级部署的最佳实践。 一、为什么是Mac Mini + OpenClaw? 1.1 OpenClaw:本地AI智能体的核心价值 OpenClaw并非简单的聊天机器人,而是一个具备系统级权限的自主执行框架: * 文件系统操作:创建、编辑、删除文件,整理目录结构 * 终端指令执行:运行Shell命令,调用系统工具 * 应用控制:操作浏览器、

ToClaw:不是更会炫技的 AI,而是更容易用起来

ToClaw:不是更会炫技的 AI,而是更容易用起来

2026 年开年,Agent 类产品明显变得更热了。无论是开源路线,还是云端服务路线,越来越多产品都在强调一件事:AI 不该只是陪你聊天,而应该开始替你做事。 这也是我最近实测 ToClaw 时最直接的感受。它吸引我的地方,不是“参数更猛”或者“概念更新”,而是它明显在往一个更现实的方向走:把原本偏技术流的 Agent 体验,尽量做成普通办公用户也能直接上手的桌面工具。 上面那张图就是我用ToClaw设计出来的: 官方对 ToClaw 的定位也很直接——它是基于 OpenClaw 深度定制、集成远程控制运行时的 AI 助手,强调“手机一句话,你的电脑自动执行”,核心不是陪聊,而是执行任务。与此同时,ToClaw 官方页也强调了它支持远程控制运行时、AI 直接操作电脑、对接飞书/钉钉/企业微信,以及兼容 OpenClaw 生态等能力。 ToClaw

从微博热搜到深度报告:实测 ToClaw 的信息检索与分析能力,AI 终于开始“先找再写”

从微博热搜到深度报告:实测 ToClaw 的信息检索与分析能力,AI 终于开始“先找再写”

现在做内容、做运营、做市场,最怕的不是没有灵感,而是信息流转得太快。一个热点从冒头到发酵,可能只需要几个小时;而从“看到热搜”到“形成一版可用分析”,往往要经历找榜单、翻链接、看评论、筛信息、做结构、再写结论一整套流程。很多人以为这件事的核心是写,其实真正耗时的,往往是前面的“找”和“判”。 这也是我为什么会特别想测 ToDesk 远程控制新上线的 ToClaw:如果它只是会写几段话,那其实不算新鲜;但如果它能围绕“热点分析”这个真实任务,把检索、筛选、归纳、生成这几个动作串起来,那它就不只是一个聊天入口,而更像是一个真正能进入工作流的 AI 助手。 而从这次实测来看,ToClaw 在这个场景里,确实给了我一点不一样的感觉。 一、开放式测试 为了看清 ToClaw 到底是在“生成”