Read more

Flutter 三方库 flutter_adaptive_scaffold 的鸿蒙化适配指南 - 掌握一套代码适配全场景终端的自适应架构技术、助力鸿蒙应用构建从手机到平板及折叠屏的极致无缝交互体系

Flutter 三方库 flutter_adaptive_scaffold 的鸿蒙化适配指南 - 掌握一套代码适配全场景终端的自适应架构技术、助力鸿蒙应用构建从手机到平板及折叠屏的极致无缝交互体系

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 flutter_adaptive_scaffold 的鸿蒙化适配指南 - 掌握一套代码适配全场景终端的自适应架构技术、助力鸿蒙应用构建从手机到平板及折叠屏的极致无缝交互体系 前言 在 OpenHarmony 鸿蒙应用追求“万物互联、全场景覆盖”的伟大进程中,屏幕尺寸的多样性(从 6 英寸手机到 12 英寸平板,再到 2D/3D 模式切换的折叠屏)是每一位 UI 开发者必须正面迎接的挑战。如何在不为每种设备重写 UI 的前提下,实现导航栏自动从“底部”平滑流转到“侧边”?如何在宽屏模式下自动开启“双栏(Master-Detail)”布局?flutter_adaptive_scaffold 作为一个由 Flutter

AIGC检测的“猫鼠游戏”已到瓶颈?腾讯优图:我们都搞错了方向,问题在数据!

AIGC检测的“猫鼠游戏”已到瓶颈?腾讯优图:我们都搞错了方向,问题在数据!

在AIGC技术飞速发展的背景下,只需一行简单的prompt就可生成高逼真内容,然而,这一技术进步也带来了严重的安全隐患:虚假新闻、身份欺诈、版权侵犯等问题日益突出。AI生成图像检测也成为了AIGC时代的基础安全能力。 然而在实际应用中, 存在一个“尴尬”现象:检测器往往在“考场”(公开基准数据集)上分数耀眼,一旦换到“战场”(全新模型或数据分布),性能会大幅下降。 近日,腾讯优图实验室联合华东理工大学、北京大学等研究团队在A生成图像检测(AI-Generated Image Detection)泛化问题上展开研究,提出Dual Data Alignment(双重数据对齐,DDA)方法,从数据层面系统性抑制“偏差特征”,显著提升检测器在跨模型、跨数据域场景下的泛化能力。 目前,相关论文《Dual Data Alignment Makes AI-Generated Image Detector Easier Generalizable》已被NeurIPS 2025接收为Spotlight(

大模型微调全流程:LLaMA Factory从入门到精通

大模型微调全流程:LLaMA Factory从入门到精通 作为一名转行学习AI的工程师,我深知大模型微调技术的重要性,但面对众多框架和工具链的选择时,常常感到无从下手。经过多次实践,我发现LLaMA Factory是一个集成度高、上手简单的开源大模型微调框架,特别适合想要系统掌握微调技术的新手。本文将带你从零开始,完整掌握使用LLaMA Factory进行大模型微调的全流程。 为什么选择LLaMA Factory? LLaMA Factory是一个开源的低代码大模型微调框架,它集成了业界广泛使用的微调技术,支持通过Web UI界面进行零代码微调。对于刚接触AI领域的工程师来说,它有以下几个显著优势: * 支持模型种类丰富:包括LLaMA、BLOOM、Mistral、Baichuan、Qwen、ChatGLM等主流大模型 * 集成多种微调方法:支持增量预训练、指令监督微调、奖励模型训练、PPO训练和DPO训练等 * 可视化操作界面:无需编写代码即可完成模型微调全过程 * 资源消耗优化:支持LoRA等轻量化微调方法,大幅降低显存需求 这类任务通常需要GPU环境,目前ZE

Whisper语音识别模型剪枝:参数量化与加速推理

Whisper语音识别模型剪枝:参数量化与加速推理 1. 引言 1.1 项目背景与挑战 在构建基于 OpenAI Whisper Large v3 的多语言语音识别 Web 服务过程中,尽管其具备强大的跨语言转录能力(支持99种语言),但其庞大的模型规模(1.5B 参数)带来了显著的部署挑战。尤其是在边缘设备或资源受限环境中,原始模型存在显存占用高、推理延迟大、服务响应慢等问题。 以当前部署环境为例(NVIDIA RTX 4090 D + 23GB 显存),虽然能够运行 large-v3 模型,但在并发请求增加时仍可能出现 GPU 内存溢出(OOM)风险。此外,对于希望在消费级显卡(如RTX 3060/3070)上部署的服务而言,原生模型几乎不可行。 因此,如何在不显著牺牲识别准确率的前提下,