可信AI产业持续发展受关注 “三部曲”护航AI安全发展
央广网上海9月4日消息(记者韩晓余)9月3日,2022世界人工智能大会落下帷幕。本届大会期间,如何进一步推动可信AI产业持续发展成为各方关注的话题。 大会期间,在瑞莱智慧的展台上,一件“隐身衣”的展示吸引了大量观众驻足。正常情况下,目标对象只要站在摄像头前面,就会被实时检测出来,但瑞莱智慧团队基于领先的对抗攻防技术开发了一款“隐身衣”,通过在衣服上印刷特定的对抗图案,就能够使检测算法出错,普通人一旦穿上,便可以逃避检测系统的追踪,实现“隐身逃逸”。 究其原理,瑞莱智慧合伙人、高级副总裁朱萌表示,这是由于当前以数据驱动的深度学习,其本质是利用“黑箱”处理方法寻找规律,存在不可解释、不可靠等结构性缺陷,将导致不可预知的恶意攻击,比如通过在输入数据中添加扰动,即可使系统作出错误判断。 除了“隐身衣”,类似的攻防还可以延伸到更多识别场景:在自动驾驶场景中,通过修改锥桶的形状,就能让汽车感知模块失效,径直撞上去;通过制作带有特制花纹的眼镜,刷开数十部商用手机的人脸解锁等。 围绕“高水平安全赋能高质量发展”目标,朱萌提出人工智能安全能力建设“三部曲”,首先是,发掘现有AI安全风险、预判AI潜在风险;二是针对风险建设治理体系,包括建立AI治理理论、构建治理运转机制、探索技术实践路径等;三是在治理体系框架下,重点探寻伦理法规的技术落地方案。 瑞莱智慧合伙人、高级副总裁朱萌(央广网发受访者供图) “人工智能当前的安全风险主要可以从‘系统’与‘人’两个视角来剖析。”朱萌认为,系统层面来看,以深度学习算法为核心的人工智能系统十分脆弱,其结构性漏洞致使“对抗样本攻击”不可避免,而其数据依赖性则使其存在“数据投毒”漏洞,出现“后门攻击”。从“人”的层面来评估AI的可信问题,主要风险来自人的滥用、恶意应用,最为典型的就是深度合成技术。它大幅降低了信息生成合成的难度,但其负向应用已产生实质危害,甚至存在“武器化”风险。 针对上述风险,瑞莱智慧于今年6月成立了人工智能治理研究院,探寻从伦理法规到技术落地的人工智能治理实践之路,主要开展四个方面工作:参与伦理规则建立、支撑立法工作、开展技术探索、建立从伦理法规到技术实践的映射模型。 落实到技术和产品实践中,瑞莱智慧搭建了系列安全可控新一代人工智能基础设施,包括人工智能安全平台RealSafe,业内首个针对AI系统杀毒软件,提供模型安全性测评及安全加固的端到端解决方案;针对人脸识别系统的AI安全防火墙RealGuard,可有效抵御对抗样本攻击、深度伪造攻击等新型攻击。用于快速、精准地对多种格式与质量的视频和图片进行真伪鉴别的深度伪造内容检测平台DeepReal等。
【重要提醒】
↘↘点我免费发布一条武汉本地便民信息↙↙(微信搜索13717680188加小编好友,注明武汉,免费拉您进群聊),优先通过审核。内容来源网络如有侵权请联系管理员删除谢谢合作!