正在阅读:

AI大脑百分百安全?这些技术团队可能会改变你的认知

扫一扫下载界面新闻APP

AI大脑百分百安全?这些技术团队可能会改变你的认知

AI是好是坏,完全取决于使用的人。

AI时代带来的是数据处理能力的大幅提升,但在这个过程中,如何保证数据安全也是行业人士需要关注的问题。原因在于,哪怕技术看起来如何精良,安全漏洞始终存在。

在日前于上海举行的2018 GeekPwn国际安全极客大赛上,来自全球各地的极客就通过技术手段展现了不少软硬件产品中的技术漏洞。透过这些漏洞,用户的个人信息可能在不为人所知的情况下就被盗走。

在大会上,腾讯安全玄武实验室只用了一张普通白纸,便成功破解了一台安卓手机的指纹解锁。目前,主流的指纹解锁方案为光学解锁,破解的原理在于利用屏幕上的残存指纹,通过反射欺骗的方式,让传感器认为机主依然在进行指纹验证,从而成功解锁。

大多数时候,我们在使用手机的指纹解锁功能时,往往会想当然地认为手机只能够识别机主本人的指纹,因此具有较高的安全性。然而一张白纸就打破了用户对于安全性的想象。

另一个技术团队Proxgrind则通过解码平台,以软件无线电的方式在20厘米的距离内对门禁卡进行了破解,从而读取了卡内的数据信息。这意味着普通用户的门禁卡有可能在不被触碰的情况下被“套用”,从而造成损失。

无论是手机还是门禁卡,都是普通人日常随时会带在身上的一些科技产品,然而这些产品中的信息有可能在用户无意识的情况下被盗取。

一些更前沿的技术,比如说图像识别技术,在极客的操纵下,同样不是无懈可击。

在大会上的一场比赛中,参赛的极客团队被要求通过一定的技术手段来对图像识别AI进行迷惑,从而使其错误解读特定的图片内容,比如说,这些极客要让AI把武器认作石头,同时把主持人蒋昌建错认为著名演员阿诺·施瓦辛格。

人脸识别被认为是最难被攻克的一个环节,这个环节的AI使用了来自亚马逊名人鉴别系统的API接口,因此具有较高的安全性。但最终经过20分钟的尝试之后,来自Facebook的团队IYSWIM破解了这个系统的算法,成功实现了对AI的“迷惑”。

图像识别和人脸识别算是目前AI在现实生活中应用最为广泛的两个场景。在安防、政务等行业中,人脸识别是推动产业升级的主要技术手段。但从现场的比赛结果来看,这些技术在安全方面也并不是万无一失。

对于AI技术的安全问题,GeekPwn黑客大赛发起创办人王琦认为,在AI时代,技术安全不光是人和人的对抗,还有人和机器的对抗、机器和机器的对抗、机器和人的对抗,因此安全攻防难度比以往提高了3倍。

但另一方面,AI强大的算力也给黑客破解现有的技术带来了便利。面对机器的安全威胁,往后技术安全人员面对的挑战将会更大。在一定程度上,AI的广泛应用给目前用户常规的信息安全带来了越来越深入的危害。

对此,王琦表示,AI的安全问题还是得回到AI来解决,传统安全领域的人员只能提供相关思路。短期来看,在AI全面普及之前,用户面对的威胁依然不容被忽视。

谷歌的“不作恶”已经是整个科技行业的一个技术原则。技术本身并无好坏,然而它最终起到的作用,还是要取决于人如何去应用。不过,在利益面前,“技术中立”最终还是逐渐成为了一种理想状态,利用技术作恶,在今天已经是常有的事情,AI自然也不例外。在大潮面前,与其期待一个乌托邦的到来,不如加强技术,提高自我保护的能力。

未经正式授权严禁转载本文,侵权必究。

评论

暂无评论哦,快来评价一下吧!

下载界面新闻

微信公众号

微博

AI大脑百分百安全?这些技术团队可能会改变你的认知

AI是好是坏,完全取决于使用的人。

AI时代带来的是数据处理能力的大幅提升,但在这个过程中,如何保证数据安全也是行业人士需要关注的问题。原因在于,哪怕技术看起来如何精良,安全漏洞始终存在。

在日前于上海举行的2018 GeekPwn国际安全极客大赛上,来自全球各地的极客就通过技术手段展现了不少软硬件产品中的技术漏洞。透过这些漏洞,用户的个人信息可能在不为人所知的情况下就被盗走。

在大会上,腾讯安全玄武实验室只用了一张普通白纸,便成功破解了一台安卓手机的指纹解锁。目前,主流的指纹解锁方案为光学解锁,破解的原理在于利用屏幕上的残存指纹,通过反射欺骗的方式,让传感器认为机主依然在进行指纹验证,从而成功解锁。

大多数时候,我们在使用手机的指纹解锁功能时,往往会想当然地认为手机只能够识别机主本人的指纹,因此具有较高的安全性。然而一张白纸就打破了用户对于安全性的想象。

另一个技术团队Proxgrind则通过解码平台,以软件无线电的方式在20厘米的距离内对门禁卡进行了破解,从而读取了卡内的数据信息。这意味着普通用户的门禁卡有可能在不被触碰的情况下被“套用”,从而造成损失。

无论是手机还是门禁卡,都是普通人日常随时会带在身上的一些科技产品,然而这些产品中的信息有可能在用户无意识的情况下被盗取。

一些更前沿的技术,比如说图像识别技术,在极客的操纵下,同样不是无懈可击。

在大会上的一场比赛中,参赛的极客团队被要求通过一定的技术手段来对图像识别AI进行迷惑,从而使其错误解读特定的图片内容,比如说,这些极客要让AI把武器认作石头,同时把主持人蒋昌建错认为著名演员阿诺·施瓦辛格。

人脸识别被认为是最难被攻克的一个环节,这个环节的AI使用了来自亚马逊名人鉴别系统的API接口,因此具有较高的安全性。但最终经过20分钟的尝试之后,来自Facebook的团队IYSWIM破解了这个系统的算法,成功实现了对AI的“迷惑”。

图像识别和人脸识别算是目前AI在现实生活中应用最为广泛的两个场景。在安防、政务等行业中,人脸识别是推动产业升级的主要技术手段。但从现场的比赛结果来看,这些技术在安全方面也并不是万无一失。

对于AI技术的安全问题,GeekPwn黑客大赛发起创办人王琦认为,在AI时代,技术安全不光是人和人的对抗,还有人和机器的对抗、机器和机器的对抗、机器和人的对抗,因此安全攻防难度比以往提高了3倍。

但另一方面,AI强大的算力也给黑客破解现有的技术带来了便利。面对机器的安全威胁,往后技术安全人员面对的挑战将会更大。在一定程度上,AI的广泛应用给目前用户常规的信息安全带来了越来越深入的危害。

对此,王琦表示,AI的安全问题还是得回到AI来解决,传统安全领域的人员只能提供相关思路。短期来看,在AI全面普及之前,用户面对的威胁依然不容被忽视。

谷歌的“不作恶”已经是整个科技行业的一个技术原则。技术本身并无好坏,然而它最终起到的作用,还是要取决于人如何去应用。不过,在利益面前,“技术中立”最终还是逐渐成为了一种理想状态,利用技术作恶,在今天已经是常有的事情,AI自然也不例外。在大潮面前,与其期待一个乌托邦的到来,不如加强技术,提高自我保护的能力。

未经正式授权严禁转载本文,侵权必究。