无人机避障——Mid360+Fast-lio感知建图+Ego-planner运动规划(胎教级教程)

无人机避障——Mid360+Fast-lio感知建图+Ego-planner运动规划(胎教级教程)

电脑配置:Xavier-nx、ubuntu 18.04、ros melodic

激光雷达:Livox_Mid-360

结果展示:左边Mid360+Fast-lio感知建图,右边Ego-planner运动规划

1、读取雷达数据并显示

无人机避障——感知篇(采用Livox-Mid360激光雷达获取点云数据显示)-ZEEKLOG博客

看看雷达数据话题imu以及lidar两个话题 

2、读取雷达数据并复现fast-lio 

无人机避障——感知篇(采用Mid360复现Fast-lio)-ZEEKLOG博客

启动fast-lio,确保话题有输出 

 由于此处不需要建图,因此不打开rviz,launch文件如下修改:

<launch> <!-- Launch file for Livox MID360 LiDAR --> <arg name="rviz" default="true" /> <rosparam command="load" file="$(find fast_lio)/config/mid360.yaml" /> <param name="feature_extract_enable" type="bool" value="0"/> <!-- 100HZ的bag point_filter_num建议设置为1; 10HZ的bag建议设置为2或3 --> <param name="point_filter_num" type="int" value="3"/> <param name="max_iteration" type="int" value="3" /> <param name="filter_size_surf" type="double" value="0.5" /> <param name="filter_size_map" type="double" value="0.5" /> <param name="cube_side_length" type="double" value="1000" /> <param name="runtime_pos_log_enable" type="bool" value="0" /> <node pkg="fast_lio" type="fastlio_mapping" name="laserMapping" output="screen" /> <!-- <group if="$(arg rviz)"> <node launch-prefix="nice" pkg="rviz" type="rviz" name="rviz" args="-d $(find fast_lio)/rviz_cfg/loam_livox.rviz" /> </group> --> </launch> 

然后运行:

roslaunch fast_lio mapping_mid360.launch

看一下话题:

rostopic list

 看下/Odometry与/cloud_registe

Read more

openclaw-termux:把 OpenClaw AI Gateway 装进 Android(带 App、终端和仪表盘)

openclaw-termux:把 OpenClaw AI Gateway 装进 Android(带 App、终端和仪表盘)

openclaw-termux:把 OpenClaw AI Gateway 装进 Android(带 App、终端和仪表盘) 项目地址:https://github.com/mithun50/openclaw-termux 作者同时提供两种使用形态:Standalone Flutter App(推荐给大多数人) + Termux CLI 包(适合命令行党)。 一句话:它让你在不 root 的 Android 设备上,一键搭起 OpenClaw AI Gateway,并通过原生 UI 管理启动、日志、Provider 配置,甚至 SSH 远程连接。 这项目解决了什么问题? OpenClaw 本身是一个 AI Gateway/代理网关:

Spring AI(一):玩转AI大模型

1. 认识AI 1.1. 体验AI产品 体验AI产品,体验智能客服、语音助手、图像识别等应用,发现它们功能强大且操作便捷。从对话交流到任务执行,AI产品展现了高度的智能化水平。AI技术在多场景下展现了广泛应用和潜力,为生活和工作带来显著改变。 1.1.1. 文本类产品 文本类的产品有很多,比如:Deepseek、通义千问、ChatGPT等。这里以Deepseek为例,让它帮我写一个Java的HelloWorld程序。 1.1.2. 文生图产品 这里以通义千问为例。 1.1.3. 文生视频产品 可以通过文字来生成视频,这里以 智谱清言 为例。 文案: 当你的双脚在峭壁颤抖时,请记住:真正的高峰不是用海拔丈量,而是用跌倒的次数刻下的勋章。黑暗最浓时星光最亮,荆棘最深处玫瑰最艳,每个被汗水浸透的脚印都在重塑命运的轨迹。别怕山峦遮住太阳——你站直脊梁的瞬间,就是地平线升起的时刻。向前跑,

AI员工——OpenCode、OpenClaw+Ollama的安装与配置

AI员工——OpenCode、OpenClaw+Ollama的安装与配置

人工智能(AI)相关的知识内容解析https://coffeemilk.blog.ZEEKLOG.net/article/details/158647749?spm=1001.2014.3001.5502 一、OpenCode的介绍与安装配置  1.1、OpenCode介绍 OpenCode的介绍序号Opencode介绍说明1opencode是什么OpenCode是一款开源AI编码代理工具,可在终端(TUI)、桌面应用和 IDE扩展中使用,支持多种大语言模型、上下文感知,主打隐私优先。2opencode的定位 《1》不是IDE插件,而是独立智能体(Agent),可理解上下文,规划任务、执行代码修改并验证结果。 《2》不是大语言模型本身,而是模型调度层,支持75+的大语言模型提供商(如:Claude、GPT、Gemini、本地的Llama、Qwen等)。 《3》采用MIT协议开源,社区活跃。

LTX-2.3:开源AI视频生成的新标杆,一个模型同时生成视频和音频

LTX-2.3:开源AI视频生成的新标杆,一个模型同时生成视频和音频

当 AI 视频生成不再是闭源巨头的专利 在 AI 视频生成领域,我们见证了太多令人惊艳的 demo,但它们大多藏在闭源的高墙之后。而今天,Lightricks 发布的 LTX-2.3 正在改写这个故事——这是一个完全开源、可本地运行、能同时生成高质量视频和同步音频的基础模型。更重要的是,它不只是一个实验室产物,而是一个真正为生产环境设计的创作引擎。 什么是 LTX-2.3? LTX-2.3 是 Lightricks 推出的最新一代音视频生成基础模型,它基于 Diffusion Transformer(DiT)架构构建,拥有约 190 亿参数,其中 140 亿用于视频处理,50 亿用于音频生成。这是业界首批能够在单一统一架构中同时生成同步音频和视频的开源模型之一。 与前代 LTX-2 相比,2.3 版本带来了全面的质量提升。它重建了