【AIGC安全】CCF-CV企业交流会直播回顾:探寻AI安全治理,共筑可信AI未来

【AIGC安全】CCF-CV企业交流会直播回顾:探寻AI安全治理,共筑可信AI未来

文章目录

在这里插入图片描述


一、活动背景:AI技术快速发展与安全治理需求迫切

随着人工智能(AI)技术的迅猛进步,尤其是以ChatGPT为代表的大型语言模型技术的兴起,AI技术已广泛渗透至各个领域。然而,AI技术的快速发展亦伴随着一系列安全隐患的出现,如数据安全、知识产权、算法偏见、有害内容生成以及深度伪造、AI诈骗等。这些问题不仅引起了公众的广泛关注和深切忧虑,也对AI技术的健康发展和社会的和谐稳定构成了潜在威胁。全国网络安全标准化技术委员会等机构亦发布了相关框架和指导原则,旨在规范AI技术的发展和应用,降低其潜在风险。同时,学术界和工业界也在积极探索AI安全治理的途径,从立法、监管、前沿研究、技术实践等多个层面出发,寻求有效的解决方案。

正是在此背景下,由中国计算机学会计算机视觉专委会主办,合合信息承办,中国运筹学会数学与智能分会协办的《打造大模型时代的可信AI》论坛应时而生。该论坛旨在汇聚来自高校、研究机构、企业的专家学者,共同探讨AI安全领域的最新进展和未来趋势,为AI技术的健康发展提供有益的思路和建议。


二、论坛内容

论坛伊始,在热烈的掌声中,中国计算机学会计算机视觉专委会副秘书长潘金山博士走上台前,发表了热情洋溢的致辞。潘金山博士首先对各位嘉宾和参会者的到来表示了热烈的欢迎和衷心的感谢。他提到,在这个大模型时代,AI技术正以前所未有的速度改变着我们的生活和工作方式。然而,随着AI技术的广泛应用,其安全性问题也日益凸显,成为制约AI技术进一步发展的重要因素。潘博士强调,AI安全治理不仅关乎技术的健康发展,更关乎社会的和谐稳定。因此,加强AI安全治理,推动AI技术向善发展,已成为我们共同的责任和使命。他希望通过此次论坛,能够汇聚来自高校、研究机构、企业的专家学者,共同探讨AI安全领域的最新进展和未来趋势,为AI技术的健康发展提供有益的思路和建议。在致辞的最后,潘金山博士预祝本次论坛圆满成功,并期待各位嘉宾和参会者能够收获满满,为AI安全治理事业贡献自己的力量。


金耀辉:智能共生时代:平衡生成式AI的创新与风险

上海交通大学人工智能研究院教授、总工程师金耀辉老师在分享中指出,大语言模型的内容安全风险多种多样,包括提示词注入、输出处理不安全、训练数据中毒、模型拒绝服务等。这些风险不仅影响模型的性能,还可能对社会造成负面影响。例如,三星员工违规使用ChatGPT导致机密资料外泄,新闻网站CNET使用LLMs生成文章却包含严重事实错误,这些案例都为我们敲响了警钟。

那么,如何保障LLMs的内容安全呢?金耀辉老师提出了几种安全保障手段。首先是训练对齐,通过算法和数据对模型进行微调,使其更加符合安全需求。这种方法可以增强模型的整体安全性能,减少算法偏见和有害内容的生成。此外,还有面向安全的提示引导和文本过滤等方法。提示引导利用特定流程和策略引导LLMs,进一步激活其固有的安全属性;而文本过滤则通过外接模块检测有害内容,并触发处理机制,防止有害内容的产生和传播。

金耀辉老师的分享为我们提供了宝贵的见解和思考。在享受生成式AI带来的便利和创新的同时,我们也需要时刻关注其带来的风险和挑战,积极寻求解决方案和保障手段。只有这样,我们才能真正实现生成式AI的创新与风险的平衡,推动人工智能技术的健康发展。

上海交通大学人工智能研究院教授、总工程师金耀辉进行《智能共生时代:平衡生成式AI的创新与风险》主题分享

何延哲:人工智能安全检测评估的逻辑和要点

然而,仅有技术手段是不够的,规范标准也是AI健康生长的外部力量。中国电子标准院网安中心测评实验室副主任何延哲就人工智能安全检测评估的核心逻辑与关键要点进行了精彩纷呈的分享。

何延哲老师首先强调了人工智能安全检测评估的背景与必要性。随着人工智能技术的迅猛发展,其带来的安全风险也日益凸显,涵盖网络信息安全、科技伦理安全、算力网络安全、数据安全与隐私保护等多个维度。这些风险不仅关乎个人权益,更可能对社会稳定与经济发展产生深远影响。

针对这些风险,何延哲老师深入剖析了当前人工智能安全检测评估的方法与思路。他提到,我国已出台多项相关法律法规、政策文件及标准规范,为人工智能安全检测评估提供了坚实的制度保障。同时,他还介绍了人工智能安全模块的拆分与检测评估的基本思路,包括算力网络安全、个人信息保护、数据安全等关键领域。

在分享中,何延哲老师特别强调了基于人工智能相关标准规范的安全检测评估机制的重要性。他详细解读了《信息安全技术 机器学习算法安全评估规范》、《基于个人信息的自动化决策安全要求》等标准规范,并指出这些规范为人工智能安全检测评估提供了明确的指导与依据。此外,何延哲老师还强调了加强个人信息处理全生命周期保护、定期开展合规审计、采取加密等措施保障个人信息安全的重要性。

电子标准院网安中心测评实验室副主任、CCIA数安委常务副主任何延哲进行《人工智能安全检测评估的逻辑和要点》主题分享

谢洪涛:面向特定人物深度伪造视频的主动防御与被动检测技术

在下一环节,中国科学技术大学教授谢洪涛,为与会者带来了一场关于面向特定人物深度伪造视频的主动防御与被动检测技术的深度解析。

谢洪涛教授首先介绍了深度伪造技术的背景及其发展现状。他指出,随着深度学习技术的飞速发展,深度伪造技术已经能够在人脸图像、语音等领域实现高度逼真的伪造效果,这无疑给个人隐私、国家安全等方面带来了前所未有的挑战。随后,谢教授详细阐述了主动防御与被动检测技术的核心原理。主动防御技术主要是在内容发布前添加一定程度的干扰信号,以防止伪造或即便伪造也能够顺利溯源。而被动检测技术则是在人脸素材被恶意伪造后,利用伪造视频自身获取线索或提取特征进行检测。

在主动防御方面,谢教授介绍了通过添加对抗攻击噪声、嵌入特定信息等方式,实现对特定人物视频图像的主动干扰和主动取证。这些技术能够有效防止伪造者利用深度伪造技术对视频进行篡改,从而保护个人隐私和国家安全;在被动检测方面,谢教授则重点介绍了基于多模态先验知识的一致性检测、基于多层级纹理不一致性学习的深度伪造人脸检测等技术。这些技术能够通过对伪造视频进行精细化的分析,准确识别出伪造痕迹,从而实现对深度伪造视频的有效检测。

此外,谢洪涛教授还分享了其研究团队在主动防御与被动检测技术方面所取得的最新研究成果。他们提出了一系列创新性的算法和方法,如基于扩散模型的反演能力搜索对抗人脸、基于互相关序列嵌入水印等,这些成果在学术界和工业界都产生了广泛的影响。

中国科学技术大学教授、国家杰出青年基金获得者谢洪涛教授进行《面向特定人物深度伪造视频的主动防御与被动检测技术》主题分享

郭丰俊:视觉内容安全技术的前沿进展与应用

随后,合合信息图像算法研发总监郭丰俊的分享让我看到了AI技术在图像篡改检测方面的最新成果。在开篇部分,郭丰俊老师不仅指出了当前视觉内容安全需求日益增多的原因,还强调了这一领域的重要性。他提到,随着AI技术的不断发展,伪造技术也在不断进步,这使得伪造内容变得更加难以识别。同时,黑灰产利用这些技术进行非法活动,给社会带来了极大的危害。因此,企业、政府等对于视觉内容安全的需求变得越来越迫切。

郭丰俊老师介绍合合信息的通用篡改检测目前已经落地证券、保险、银行、零售等行业,同时支持证照、证书、票据、截图、扫描文档等通用类的篡改模型。另外一个人脸鉴伪检测产品也已经落地,支持换脸、生成式人脸检测等。

在这里插入图片描述

在这里插入图片描述

另外,郭老师介绍,合合信息文档图像篡改检测近年来受关注程度也越来越高,从2022年以来,相关方向的比赛多次收获了第一名的好成绩。

在这里插入图片描述

在谈到视觉内容安全技术的挑战时,郭丰俊老师不仅列举了当前技术面临的主要问题,还深入分析了这些问题的根源和解决方案。他提到,跨域泛化能力是当前技术面临的一大挑战,因为不同领域的数据分布和特征差异很大,导致模型在不同领域上的表现差异也很大。为了解决这个问题,学术界和工业界都在探索新的方法和算法,以提高模型的泛化能力。此外,他还提到了截图或PDF等纯色背景图篡改检测、质量退化导致的篡改痕迹损失以及检出精度与误检率的矛盾等问题,并给出了相应的解决方案和建议。

他提到,随着深度学习技术的不断发展,越来越多的研究者开始探索基于深度学习的篡改检测方法,这些方法在检测精度和效率上都有了很大的提升。此外,他还介绍了基于区块链的内容追溯技术、基于多模态信息融合的篡改检测方法等前沿研究方向,这些方向都具有很大的潜力和应用前景。

在总结部分,郭丰俊老师不仅强调了视觉内容安全技术的重要性,还呼吁业界同仁共同努力,推动这一领域的发展。他提到,制定相关标准和规范是促进内容安全系统更好落地的重要举措之一,因为标准和规范可以为行业提供明确的指导和方向。同时,他也对大模型等新技术的应用表示了期待和关注,认为这些新技术将为视觉内容安全技术带来新的突破和发展机遇。郭丰俊老师的分享内容丰富、见解独到,为我们提供了一个全面了解视觉内容安全技术的机会。

合合信息图像算法研发总监郭丰俊进行《视觉内容安全技术的前沿进展与应用》主题分享

赫然:生成式人工智能安全与治理

中国科学院自动化研究所研究员、IEEE/IAPR Fellow赫然博士的分享则让我对人工智能鉴别与合成技术之间的博弈有了更深入的认识。赫然博士首先介绍了生成式人工智能的基本概念和发展历程。他强调,生成式人工智能作为人工智能的一个重要分支,已经取得了显著的进步,并在各个领域展现出巨大的潜力。然而,随着其应用的日益广泛,安全和治理问题也日益凸显。
赫然博士指出,生成式人工智能面临的主要安全风险包括数据泄露、隐私侵犯、内容造假等。这些风险不仅可能对个人造成危害,还可能对国家安全和社会稳定构成威胁。因此,加强生成式人工智能的安全与治理显得尤为重要。
为了应对这些挑战,赫然博士提出了一系列建议。他强调,应建立健全的生成式人工智能监管机制,明确责任主体和监管标准。同时,加强技术研发和创新,提高生成式人工智能的安全性和可控性。此外,还应加强国际合作与交流,共同应对生成式人工智能带来的全球性挑战。

中国科学院自动化研究所研究员、IEEE/IAPR Fellow赫然进行《生成式人工智能安全与治理》主题分享

三、回顾总结

整场直播下来,我深感收获颇丰。我不仅学到了最新的AI技术知识,更对AI安全治理有了更深入的认识。我意识到,AI技术的快速发展带来了前所未有的机遇和挑战,而加强AI安全治理、推动AI向善发展是我们每个人的责任。同时,我也看到了专家学者们在AI安全治理方面所做出的努力和取得的成果,这让我对AI技术的未来发展充满了信心和期待。

回顾这场盛会,我感受到了专家学者们对AI安全治理的深刻洞察和坚定信念。我相信,在他们的共同努力下,AI技术一定会更加安全、可信、可靠地服务于人类社会。而我,也将继续关注AI技术的发展动态,为AI技术的健康发展贡献自己的一份力量。

Read more

Stable Diffusion训练神器:LoRA助手生成完美tag

Stable Diffusion训练神器:LoRA助手生成完美tag 1. 引言 如果你正在尝试训练自己的Stable Diffusion模型,一定会遇到一个让人头疼的问题:怎么给训练图片打标签?手动编写英文tag不仅费时费力,还经常因为格式不规范影响训练效果。现在,有了LoRA训练助手,这一切都变得简单了。 LoRA训练助手基于强大的Qwen3-32B模型,能够智能分析图片内容,自动生成符合Stable Diffusion和FLUX模型训练规范的高质量英文标签。无论你是AI绘画爱好者还是专业模型训练师,这个工具都能让你的训练准备工作事半功倍。 2. LoRA训练助手的核心功能 2.1 智能标签生成 只需用中文描述你的图片内容,LoRA训练助手就能自动生成完整的英文训练标签。比如输入"一个穿着红色连衣裙的女孩在花园里散步",工具会输出类似"1girl, red dress, garden, walking, full body"这样规范的标签组合。 2.2 权重智能排序 助手不仅生成标签,还会根据重要性自动排序。关键特征如人物主体、服装款式会放在前面,次要元素如背景

GitHub 教育认证通过后如何领取 Copilot Pro

最近我通过了 GitHub 教育认证(Student Developer Pack),但是发现并没有立刻拿到 Copilot Pro。折腾了一番之后终于搞定了,这里记录一下过程,方便后面遇到同样问题的同学。 1. 教育认证通过 ≠ 立即开通 当你刚刚通过认证时,Student Pack 页面可能显示绿标,提示福利稍后开放,这时候需要等待几天到两周左右。 * 绿标:福利还在处理阶段(will be available soon)。 * 紫标:福利已经激活(benefits are now available)。 所以,如果你刚过认证但没看到 Copilot Pro,不用急,先等等。 2. 手动领取 Copilot Pro 即使福利已经激活,你也需要手动去领取: 👉 访问这个链接: https://github.com/github-copilot/

用OpenClaw做qq ai办公机器人(支持群聊关键词触发+自定义域名发送任意邮件)

用OpenClaw做qq ai办公机器人(支持群聊关键词触发+自定义域名发送任意邮件)

1.OpenClaw对接QQ(qq账号当机器人使用) 在任意文件夹创建项目文件夹napcat及需要的文件夹,并创建docker-compose.yml mkdir -p napcat && cd napcat mkdir -p config .config logs docker-compose.yml内容参考 services: napcat: image: mlikiowa/napcat-docker:latest container_name: napcat restart: unless-stopped environment: - NAPCAT_UID=${NAPCAT_UID:-1000} - NAPCAT_GID=${NAPCAT_GID:-1000} - MESSAGE_POST_FORMAT=string # 网络服务(