无人机地面站QGC的安装(ubuntu20.04)

无人机地面站QGC的安装(ubuntu20.04)

1.安装依赖

使用以下命令:

sudo usermod -a -G dialout $USER sudo apt-get remove modemmanager -y sudo apt install gstreamer1.0-plugins-bad gstreamer1.0-libav gstreamer1.0-gl -y sudo apt install libfuse2 -y sudo apt install libxcb-xinerama0 libxkbcommon-x11-0 libxcb-cursor0 -y

2.下载安装包

可以直接去官网下载,链接地址:https://docs.qgroundcontrol.com/master/en/qgc-user-guide/getting_started/download_and_install.html

或者使用网盘提供的安装包:

链接: https://pan.baidu.com/s/1repLyfhynSfh_rwJuwSKYg?pwd=h5mi 提取码: h5mi

下载后改个名称:

mv QGroundControl.appimage QGroundControl.AppImage

3.安装

默认安装包下载到Downloads下面的。

cd ~/Downloads/ chmod +x QGroundControl.AppImage ./QGroundControl.AppImage

4问题

如果QGC打开一直不显示地图或者为白,可能的原因就是因为网络原因,导致地图数据下载失败。

直接下载我提供的安装数据

链接: https://pan.baidu.com/s/1PL5dz9UN92Hwl6jan4TGJg?pwd=42xj 提取码: 42xj 下载后直接解压。

执行命令

rm -rf ~/.cache/QGCMapCache300 cp -r ./QGCMapCache300 ~/.cache/

再次运行QGroundControl.AppImage,就能运行成功。

参考来源:https://blog.ZEEKLOG.net/weixin_55944949/article/details/130895363

Read more

LLaMA Factory多模态微调实践

LLaMA Factory 多模态微调实践 一、前提准备:环境与数据深度适配 (一)运行环境技术规格 1. 硬件配置底层逻辑 * GPU 选型依据: * 推荐 24GB 显存的 A10(ecs.gn7i-c8g1.2xlarge)。 * 核心原因:Qwen2-VL-2B 模型加载后显存占用约 8-10GB,全参微调过程中梯度计算、优化器状态存储需额外 10-12GB 显存,24GB 可避免显存溢出(OOM)。 * 若使用 16GB 显存的 T4 等型号,需启用梯度检查点(gradient checkpointing),但会增加约 20% 训练时间。 * CPU 与内存配套: * 建议 8 核 CPU + 32GB 内存,避免数据加载(

终极语音转文字与说话人分离完整指南:Whisper Diarization快速入门

终极语音转文字与说话人分离完整指南:Whisper Diarization快速入门 【免费下载链接】whisper-diarizationAutomatic Speech Recognition with Speaker Diarization based on OpenAI Whisper 项目地址: https://gitcode.com/GitHub_Trending/wh/whisper-diarization 在当今数字化办公环境中,语音转文字与说话人分离技术正成为提升工作效率的关键工具。Whisper Diarization作为基于OpenAI Whisper的开源项目,完美解决了多说话人场景下的语音识别难题,让您能够快速获得带说话人标签的完整转录文本。 🎯 项目核心价值:为什么选择Whisper Diarization 传统语音识别工具在处理多人对话时往往无法区分不同说话者,导致转录结果难以阅读和分析。Whisper Diarization通过整合顶尖的语音处理技术,提供了以下独特价值: * 智能说话人识别:自动区分音频中的不同说话者 * 精准时间戳对齐

llama.cpp加载多模态gguf模型

llama.cpp预编译包还不支持cuda12.6 llama.cpp的编译,也有各种坑 llama.cpp.python的也需要编译 llama.cpp命令行加载多模态模型 llama-mtmd-cli -m Qwen2.5-VL-3B-Instruct-q8_0.gguf --mmproj Qwen2.5-VL-3B-Instruct-mmproj-f16.gguf -p "Describe this image." --image ./car-1.jpg **模型主gguf文件要和mmporj文件从一个库里下载,否则会有兼容问题,建议从ggml的官方库里下载 Multimodal GGUFs官方库 llama.cpp.python加载多模态模型 看官方文档 要使用LlamaChatHandler类,官方已经写好了不少多模态模型的加载类,比如qwen2.5vl的写法: from llama_cpp import Llama

Stable Diffusion(SD)完整训练+推理流程详解(含伪代码,新手友好)

Stable Diffusion(SD)完整训练+推理流程详解(含伪代码,新手友好)

Stable Diffusion(SD)的核心理论基石源自论文《High-Resolution Image Synthesis with Latent Diffusion Models》(LDM),其革命性创新在于将扩散模型从高维像素空间迁移至 VAE 预训练的低维潜空间,在大幅降低训练与推理的计算成本(相比像素级扩散模型节省大量 GPU 资源)的同时,通过跨注意力机制实现文本、布局等多模态条件控制,兼顾了生成质量与灵活性。本文将基于这一核心思想,从数据预处理、模型训练、推理生成到 LoRA 轻量化训练,一步步拆解 SD 的完整技术流程,每个关键环节均搭配伪代码,结合实操场景,理解 SD 的工程实现。 论文地址:https://arxiv.org/pdf/2112.10752 论文代码:https://github.com/CompVis/latent-diffusion