当人工智能模型本身存在缺陷被攻击时,那会是一种什么情形?可以想象一下:一条人潮涌动的大街上,有一个十字路口,一辆无人驾驶车驶了过来,禁止通行标识灯亮了,但因攻击者在灯上加了噪音,智能车将其识别为允许通行标识灯,继续高速通行,那后果不堪设想。
随着人工智能的大规模应用,安全会成为其发展的最大挑战。近日,阿里安全、阿里云天池平台联合人工智能领域国际顶级会议IJCAI(全称:International Joint Conference onArtificial Intelligence),发起人工智能对抗算法竞赛,探索对抗攻击时,如何解决AI模型的安全性问题。目前,赛题和日程已在天池平台公布。
(图说:阿里联合IJCAI发起安全AI对抗赛,赛题已在天池平台发布。)
阿里安全图灵实验室高级专家华棠介绍,这次比赛主要针对图像分类,包括模型攻击与模型防御,阿里公开110个类目,共计11万张左右图片,供选手使用。参赛选手可以作为攻击方,对图片进行轻微扰动生成对抗样本,使模型识别错误,或识别成指定的错误类别;也可以作为防御方,构建一个更加鲁棒的模型,准确识别对抗样本。
据了解,为强调面向真实场景,这次竞赛采用的是实际场景的图片识别任务进行攻防对抗。除真实数据外,还包括对计算量的严格限制,以及对扰动噪音的限制,这更能还原真实的安全与黑灰产的攻防。
对抗样本攻击是近几年学界与工业界才关注并热议的话题。在国际知名顶会NIPS2017年和2018年会议上,谷歌大脑曾连续举办对抗样本攻防竞赛,普及这一课题。不过,与阿里联合IJCAI举办的这次竞赛不同的是,他们利用的样本集均来自学术数据集ImageNet。
“未来的安全能力一定是建立在智能与算法基础之上,我们希望提供真实的、对抗的场景,建立前沿研究和具体业务之间的桥梁, 进而反哺和促进整个人工智能的发展。”阿里安全图灵实验室负责人、资深专家薛晖说,这也是阿里首次提出安全AI概念的初衷。
通过大赛发掘安全AI人才也是预期目标之一。据统计,每年国内安全人才缺口在几十万人,且在不断扩大,同时掌握安全和AI技术的人才更是少之又少。薛晖说,伴随AI、IOT的广泛应用,人工智能时代安全AI的研究和应用将会是一片蓝海,希望通过竞赛鼓励更多人共同研究安全AI。
据悉,经过初赛、复赛和答辩,排名前三甲的队伍,除获得一千至五千美元不等的奖金外,还会被邀请参加今年8月在澳门举办的IJCAI会议。包括清华大学朱军教授、中国科学技术大学张卫明教授、浙江大学纪守领研究员、阿里达摩院高级研究员华先胜等在内的AI安全领域专家担任竞赛的评审。
值得一提的是,朱军等指导的清华大学团队曾在NIPS2017对抗样本攻防竞赛中,战胜多家世界著名高校的团队,在三项比赛中全部夺冠;纪守领所在的NESA Lab提出了一种新型的对抗性验证码,在保持用户体验的同时,能防范来自打码平台等黑灰产的破解。
公开信息显示,IJCAI是人工智能领域最重要的国际顶级学术会议,被中国计算机学会推荐为计算机学科领域A类国际会议,从1969年开始每两年举办一次,自2016年起改为每年一次。
相关报道:
- 2018中国年度AI评选揭晓!10大领航企业,50家明星公司,10佳投资机构2019-01-23
- wimi微美AI人脸全息云服务3.3亿互联网用户AR无感支付2019-01-18
- CES 2019让AI+IoT 上热搜 可它究竟能做什么?2019-01-11
- 中概股周三全面上扬 阿里京东涨逾3%2019-01-10
- 阿里巴巴与分众传媒召开联合发布会,小仙炖鲜炖燕窝成为唯一发布会礼品赞助商2019-01-08
本类最新
要闻推荐
今日视点
热点专题
新闻图片
- 新闻排行
- 评测排行