【WAIC 2025】AI安全的攻防前线:合合信息AI鉴伪检测技术

【WAIC 2025】AI安全的攻防前线:合合信息AI鉴伪检测技术

【WAIC 2025】AI安全的攻防前线:合合信息AI鉴伪检测技术


请添加图片描述

🌈你好呀!我是 是Yu欸🚀 感谢你的陪伴与支持~ 欢迎添加文末好友🌌 在所有感兴趣的领域扩展知识,不定期掉落福利资讯(*^▽^*)


在这里插入图片描述

2025年7月27日 @WAIC

01|写在前面

版权声明:本文为原创,遵循 CC 4.0 BY-SA 协议。转载请注明出处。

7月WAIC展会上,我看到了“AI全景图”:底层硬件、上层应用、终端设备、具身智能机器人…… 其中,大模型与具体行业应用深度融合的创新成果大量涌现,展现出百花齐放的产业活力。

几年前还很难想象,一张完整、高清、逼真的护照照片,仅仅需要喂Prompt给Midjourney,再用PS简单拼接一下就能搞定;一个视频会议中的“我”,其实是deepfake模型在后台实时换脸,还能根据语音同步表情。

在这里插入图片描述


随着扩散模型(diffusion models)和多模态大语言模型(MLLM)技术爆发,内容伪造的成本正在逐步降低。

当我这几天在 WAIC 2025世界人工智能大会 上看到合合信息展出的完整AI鉴伪产品矩阵时,意识到在业界,内容安全已经不是“后处理问题”,而是AI时代基础设施级的问题

而合合信息,正是国内这个赛道中的一家公司。

这篇文章,既是一份我和他们团队线下技术交流的记录,也是一份AI图像鉴伪方向的系统观察。希望能帮更多对AI内容安全有兴趣的技术同仁,快速建立完整的技术地图(p.s.一些敏感的技术内容删了)。


02|AI安全的攻防

我在WAIC 2025 展台上体验了三款产品:人脸视频篡改检测、AIGC图像鉴别、TextIn通用篡改检测平台,就是他们这个安全体系的三个支柱。


1️⃣ 人脸视频篡改检测:从“假脸”识别,到AI诈骗预防

在展台的交互区,我体验了一个项目:我站在摄像头前,系统实时生成了一个“数字假面”,然后平台用它自研的人脸鉴伪模型对换脸视频做实时检测。

结果显示,系统不仅判断“这是伪造”,还能直接在画面上打出伪造评分,其评分依据是伪造区域——包括光影不合理、光影冲突、纹理冲突等。

在这里插入图片描述

这类伪造视频,很多是实时生成的。我们知道,这类算法已经非常成熟,几秒钟就能合成大量视频片段。

合合信息的方案采用了多尺度视觉编码网络 + 跨帧一致性检测 + 高频纹理偏差捕捉等技术,保证模型能在毫秒级检测出伪造区域,且具有跨算法的泛化能力

并且,对主流Deepfake方法(Roop、FaceSwap、Face2Face等)均有良好鲁棒性。

并且,这套系统可以在多个银行、保险、远程核身场景中使用,支持网页API接入、SaaS部署,可以在CPU上运行,适配国产环境


2️⃣ AIGC图像鉴别:用MLLM给图像真伪做逻辑推理

现场的“名画找茬”活动里,我肉眼都分不清真假,但模型一眼判别名画真假,很有意思。

在这里插入图片描述

它可以有效识别 MidJourney、Stable Diffusion、StyleGAN、GPT-4o 等主流AIGC图像,准确率超90%。

传统方法大多是判别式模型,输出 0/1。而这里开始往解释性推理靠近,提取图像频谱、压缩特征、视角不一致点。比如:

  • “这个图像假,是因为人物的影子与光源方向不一致”
  • “画面中的远景比例异常,与真实透视冲突”

这个技术方向感觉很符合未来可信AI的趋势,如何让模型不仅判断真假,还能“说清楚为什么”

期待合合信息后续的表现。


3️⃣ TextIn通用篡改检测平台:图文双模检测护航真实合规

相比人脸图像,文档伪造往往隐藏得更深:一个身份证改个出生日期,一张发票涂掉金额,哪怕是10个像素级的修改,就足以骗过OCR和人眼。

在这里插入图片描述

合合信息的TextIn平台支持十几种常见证照类型(身份证、护照、行驶证、驾驶证、港澳台证件等),毫秒级检测。在适配场景下,误检率低至 千分之一。并且,适配压缩、裁剪、转码、截图等各种现实“干扰因素”。

这种技术是内容可信合规系统的底层模块,尤其适用于金融级风控场景。

目前结合上百万文档伪造样本训练,已落地银行、证券、保险等多个领域。


03|产业化:数据、比赛、标准

很多人提起合合信息,第一反应是“扫描全能王”。确实,它们开始时是做文档图像处理起家的,OCR、名片识别、发票解析都是强项。

但正是因为这个出身,它们比很多“大模型热”背景下的新AI公司,更早地意识到一个事实:

伪造图像不是单一问题,而是“图像识别-数据抽取-内容合规”整个链条的挑战。

所以这几年,合合信息把视觉安全相关的工作系统性整合,在图像内容安全上构建了“三大检测系统”,同时搭配完整的文字识别、结构化解析、流程集成,实现了真正的 端到端闭环能力


技术再好,没有数据和标准支撑也很难走向产业化。合合信息在这方面也下了苦功:

数据集:

  • 图像伪造类:CASIA、MIML;
  • 文档伪造类:TextTamper、DocTamper;
  • 自建标注数据用于训练和微调,推动了算法从“小样本实验”走向“大规模泛化”。

比赛成绩:

  • ICDAR 2023“文本篡改检测”赛道总冠军;
  • 全球AI攻防挑战赛金融场景赛道冠军;
  • AFAC金融数据验证挑战赛(700+参赛队)。

标准与治理:

  • 参编《文本图像篡改检测系统技术要求》;
  • 入选“护证计划”首批技术支撑单位(中国信通院发起);
  • 联合推动伪造检测行业平台建设与数据共享机制。

这些工作表明:他们不仅做技术,更在构建AI安全的产业生态闭环


04 | QA环节

这一部分,在活动的技术交流环节中,合合信息请来了图像算法研发总监郭丰俊博士,向我们介绍了这一领域正在进行的探索。

伪造检测的“两个世界”:局部篡改 vs 整体生成

和我们展开聊了聊:

传统图像篡改,往往是局部的,比如修改证件号码、删改合同金额、合成发票的时间戳。这样的伪造属于图像局部篡改类问题,往往肉眼可以察觉,但由于分布不一,检测依然具有挑战性。

而AIGC图像,是整体生成出来的“假图”,它的视觉一致性往往更高,尤其在Midjourney、SD等模型多次训练下,表面上几乎完美。但这类图反而在语义逻辑、结构完整性、视觉错位等层面存在微妙的漏洞。

所以,他们有两个针对性的检测策略:

  • 对PS等局部篡改,强调像素级感知、局部掩膜输出、图像与OCR结构比对;
  • 对AIGC整体生成,更侧重频域残留、视觉推理逻辑、全图合理性建模。

合合信息在产品设计上就按照这两个方向做了系统区分。

部署闭环、平台协同:合合信息的系统思维值得借鉴

在交流时,还了解了一些实际落地细节。比如:

  • 支持网页API(可配置参数)、SaaS云平台、私有部署,甚至支持国产CPU运行;
  • 所有检测模块支持与自家OCR系统联动,形成完整业务闭环;
  • 业务场景包括接入金融、保险、互联网等场景中,与RPA流程、企业风控系统深度融合;
  • 图像安全体系还在逐步扩展,未来会融入更多内容审计模块,打造“图像可信生态”;

也就是说,他们不仅在做检测模型,而是在做“可信内容中台”


05|总结:图像伪造检测已进入“系统战”阶段,单点技术远远不够

图像伪造检测,已经不是模型层面的“点状对抗”,而是跨数据 → 模型 →流程 →解释的“系统工程”。

我在读论文过程中,有一点感受:仅靠一个F1值高的检测器,根本无法应对实际场景中的压缩图、截图、拼图、调色伪造。而合合信息在产业落地中走出的路径,或许正是我们研究者需要补的一课。

期待未来“内容信任时代”的技术建设,可能会有越来越多研究者、开发者、产品团队,关注到这条“伪造攻防战线”背后的真正技术挑战。

🧭完结撒花。

Read more

前端GraphQL客户端:优雅地获取数据

前端GraphQL客户端:优雅地获取数据 毒舌时刻 前端GraphQL?这不是后端的事吗? "REST API就够了,为什么要用GraphQL"——结果前端需要多次请求,数据冗余, "GraphQL太复杂了,我学不会"——结果错过了更灵活的数据获取方式, "我直接用fetch请求GraphQL,多简单"——结果缺少缓存、错误处理等功能。 醒醒吧,GraphQL不是后端的专利,前端也需要专业的客户端工具! 为什么你需要这个? * 减少网络请求:一次请求获取所有需要的数据 * 数据精确:只获取需要的数据,避免冗余 * 类型安全:自动生成TypeScript类型 * 缓存优化:智能缓存,减少重复请求 * 开发效率:简化数据获取逻辑 反面教材 // 反面教材:直接使用fetch请求GraphQL async function fetchGraphQL(query, variables) { const response = await

前端大文件分片上传实现与断点续传方案(含完整代码讲解)

在上传大文件(如视频、安装包、模型文件)时,直接上传容易出现以下问题: * 文件过大 → 浏览器/服务器容易超时 * 上传过程中断 → 重新上传浪费时间 * 网络波动 → 上传失败率高 因此,大文件分片上传 + 断点续传 + 秒传校验 是目前最通用、最稳定的解决方案。 本文将通过一段完整可运行的示例代码,详细讲解如何在前端实现分片上传、断点续传、服务端校验等关键功能。 ✨ 实现效果 * ✔ 自动切片(默认 5MB/片,可配置) * ✔ 查询已上传分片(断点续传) * ✔ 自动跳过已上传的片段 * ✔ 每片上传成功后重新校验 * ✔ 所有片段上传完成后自动触发合并 * ✔ 错误处理完善 📌 核心代码(uploadLargeFile) 以下代码就是本文的核心逻辑,也是你提供的代码版本,经过梳理解释后会更易理解: export async function uploadLargeFile({ file, fileId, id, chunkSize = 5 * 1024

2026年03月17日全球AI前沿动态

一句话总结:2026年3月16日的AI行业资讯覆盖315曝光GEO技术操纵AI的行业乱象、多款大模型与智能体技术的重磅迭代、AI在多行业的深度落地、头部企业的布局与资本动作,同时AI安全治理、职业替代风险、伦理争议等问题引发广泛关注,政策层面将AI定为支柱产业并重点培育具身智能等前沿领域,技术发展与行业治理的协同成为行业核心议题。 一、模型与技术突破 1.1 通用大模型(大语言模型与多模态模型) 1. Anthropic:发布Claude Opus 4.6和Sonnet 4.6,100万上下文全面开放,取消长文本溢价,Opus每百万Token计费5美元和25美元;多模态处理能力提升6倍,单次请求支持图像/PDF页面上限从100增至600,API长请求无需Beta请求头自动处理;MRCR v2评测中Opus 4.6以78.3%位列同级模型第一,Claude Code用户默认开启百万上下文,大幅减少强制压缩次数;推出限时福利,3月13日-27日工作日非高峰时段用户用量翻倍,覆盖多平台,推动百万Token时代到来,突破AI编程与长文本处理上限。 2. 智谱:发布GLM-5-Tur

豆包AI视频去水印,我试了几个简单方法,手机就能搞定

首选方案:微信小程序一键解析(免费便捷) 豆包AI生成的视频带水印,想保存个干净版其实没那么麻烦。我最近找到一个挺省事的办法,不用下载软件,也不用注册登录,全程在手机上操作,不占内存,画质也没影响。 具体操作就三步: 1. 在豆包APP里找到想保存的视频,点右上角的“分享”按钮,左滑功能栏找到“更多”,然后选“复制视频链接”。不同手机界面可能不太一样,有的直接显示“复制链接”,有的是个网址,点旁边的复制标志就行。 2. 打开微信,在微信中搜索并打开一款去水印小程序,如“‌图视去水印‌”、“‌兜宝去水印‌”,进去后把刚才复制的链接粘贴进去,点解析,几秒钟就能处理好。 3. 解析成功后直接下载,无水印的视频就存到手机相册里了。整个过程一分钟都用不了。 这类工具能处理的不止豆包 我试了一下,这种小程序对即梦AI、千问这些AI平台生成的水印也能处理,抖音、快手、小红书、B站这些常见短视频平台的水印也支持。大部分都不限次数,画质也挺清晰,偶尔遇到一次解析失败的,