正在阅读:

欧盟提出AI监管新法案,违规公司或被罚营收的6%

扫一扫下载界面新闻APP

欧盟提出AI监管新法案,违规公司或被罚营收的6%

欧盟提出了全球首批监管人工智能的法律提案之一,意在管制人工智能在高风险用途的使用。

编译 | 智东西 屈望苗

编辑 | 江心白

智东西4月22日消息,据外媒报道,本周三,欧盟的执行机构提出了一项法案,来限制一些人工智能技术的使用,并将创建一份所谓的“人工智能高风险用途清单”,对相关行业进行监管,严重违规的公司可能会被处以相当于其全部年收入6%的罚款。这是迄今为止监管人工智能高风险应用的最大努力之一。

不过,这项提案要成为法律,还需用数年时间获得欧盟理事会和议会的批准,并且在此过程中对其规定的范围和具体监管措施做出调整。

2018年欧盟出台的新隐私法《一般数据保护条例(General Data Protection Regulation,GDPR)》为广泛适用的数据监管规则提供了模板,并以高额罚款作为支撑,但据相关人士预测,此次的法案并不一定会产生相同的影响。

一、禁警察用人脸识别,法官却可广而豁免

该法案直接禁止了一些行为。作为对社会信用体系的补充,该提案还将禁止使用“潜意识技术”或侮辱残疾人、“扭曲他人行为”、可能造成身体或心理伤害的人工智能系统。

欧盟官员希望用该法案来限制警察使用人脸识别技术。

虽然警方通常不能在公共场所使用所谓的“远程生物识别系统”,比如人脸识别,但法官可以批准豁免权,例如在儿童绑架、恐怖威胁等场景下可以使用,也可以用来锁定诈骗、谋杀等罪行的嫌疑人。

“豁免的范围之广令人难以置信,”非政府组织网络欧洲数字权利(European Digital Rights)的高级政策顾问莎拉·钱德(Sarah Chander)说,这样的清单“有点违背了宣称人脸识别是禁令的目的。”

二、高风险人工智能提供商“交作业”,银行领头

用于高风险目的的人工智能系统提供商,需要向监管机构提交相关文件,在文件中详细说明其系统如何工作。欧盟执行机构欧盟委员会(European Commission)执行副主席玛格丽特·维斯特格(Margrethe Vestager)认为,这类系统还需要在系统的设计、使用方式,以及用于训练人工智能的数据质量方面,显示出“适当的人类监督”。

大型银行率先向监管机构介绍了它们的人工智能算法,这些算法的应用可以帮助防止全球信贷危机。在高盛(Goldman Sachs)模型风险管理团队前总监、人工智能初创公司causaLens现任数据科学总监安德烈·弗兰卡(Andre Franca)看来,更多公司最终都将采取同样的做法。

弗兰卡博士举例说,在过去10年里,银行不得不雇佣团队,帮助向监管机构提供其人工智能模型背后的数学代码,有时候每个模型的代码超过100页。

弗兰卡博士说,欧盟还可以派遣监管团队到公司,亲自审查其人工智能算法是否属于提案规定的高风险类别,如识别人脸或指纹的系统,以及可能影响人身安全的算法。他还说,欧洲央行的监管机构经常通过几天的研讨会,审查银行提交的代码。

欧盟还声明,新的法案不会对电子游戏、垃圾邮件过滤等大多数人工智能应用制定监管新规。但一些风险较低的人工智能系统,比如聊天机器人,需要告知用户他们不是真人。

“我们要清楚地告诉用户,他们是在与一台机器互动,”维斯特格说。

深度伪造,即在视频中进行换脸的软件,也需要标明这一点。总部位于乌克兰的NeoCortext公司开发了一款颇受欢迎的换脸应用Reface,该公司称正在进行标注,将努力遵循欧盟的指导方针。“对于快速发展的初创公司来说,现在面临着一个挑战,就是规范守则。”Neocortext的CEO迪玛·什韦茨(Dima Shvets)说。

三、众说纷纭,新法案落地尚需时日

一些数字权利活动人士虽然对这项提案的部分内容表示赞赏,但表示其他内容似乎存在太多漏洞。其他业界人士认为,这项提案会给没有这些限制的中国企业带来优势。

“这将使在欧洲建造人工智能变得非常昂贵,甚至在技术上不可行,” 一家科技智库的数据创新中心(Center for Data Innovation)高级政策分析师本杰明·穆勒(Benjamin Mueller)说, “美国和中国会饶有兴趣地看着欧盟把自己的初创企业打垮。”

但一些科技行业的游说人士认为,法案并没有过于严厉,只是对某一些所谓的“高风险人工智能应用”实施严格监管,这些应用包括用于关键基础设施的软件,以及警方用来预测犯罪的算法。

计算机与通信行业协会(Computer & Communications Industry Association)副总裁兼布鲁塞尔办事处负责人克里斯蒂安·博格格林(Christian Borggreen)认为,“欧盟委员会采取这种基于风险的做法是件好事。”计算机与通信行业协会代表了亚马逊、Facebook和谷歌等多家大型科技公司。

伦敦大学学院(University College London)计算机科学荣誉副教授、谷歌前研究科学家朱利安·科尼比斯(Julien Cornebise)表示,新规定不一定会产生与GDPR相同的影响,GDPR是欧盟在2018年出台的《通用数据保护条例(General Data Protection Regulation)》,该条例约束了大量收集、传输、保留或处理涉及到欧盟所有成员国内的个人信息的机构组织。

“人工智能是一个移动的标杆,”他说,“我们的手机每天都在做20年前被认为是‘人工智能’的事情。新法案的一个风险是,它所规范的‘人工智能’的定义在变化,它可能会变得不适用或者很快就被淘汰。”

结语:人工智能的高风险应用亟需监管

近年来,欧盟一直试图在起草和执行新法规方面发挥带头作用,这些法规旨在遏制大型科技公司所谓的“过度行为”,并遏制新技术的潜在危险,涉及的领域从数字竞争到在线内容审核等,十分广泛。此前,欧盟的GDPR为广泛适用的规定提供了模板,于是其他国家和美国的一些州也采取了类似的做法。

正如维斯特格所说,“我们的规定旨在解决与人工智能特定用途相关的人类和社会风险,我们认为这很紧急。而欧盟是第一个提出这种法律框架的。”在未来,随着人工智能技术更新的发展、更广泛的应用,或许还会有更多人为限制和监管的措施陆续出台。

来源:华尔街日报

本文为转载内容,授权事宜请联系原著作权人。

评论

暂无评论哦,快来评价一下吧!

下载界面新闻

微信公众号

微博

欧盟提出AI监管新法案,违规公司或被罚营收的6%

欧盟提出了全球首批监管人工智能的法律提案之一,意在管制人工智能在高风险用途的使用。

编译 | 智东西 屈望苗

编辑 | 江心白

智东西4月22日消息,据外媒报道,本周三,欧盟的执行机构提出了一项法案,来限制一些人工智能技术的使用,并将创建一份所谓的“人工智能高风险用途清单”,对相关行业进行监管,严重违规的公司可能会被处以相当于其全部年收入6%的罚款。这是迄今为止监管人工智能高风险应用的最大努力之一。

不过,这项提案要成为法律,还需用数年时间获得欧盟理事会和议会的批准,并且在此过程中对其规定的范围和具体监管措施做出调整。

2018年欧盟出台的新隐私法《一般数据保护条例(General Data Protection Regulation,GDPR)》为广泛适用的数据监管规则提供了模板,并以高额罚款作为支撑,但据相关人士预测,此次的法案并不一定会产生相同的影响。

一、禁警察用人脸识别,法官却可广而豁免

该法案直接禁止了一些行为。作为对社会信用体系的补充,该提案还将禁止使用“潜意识技术”或侮辱残疾人、“扭曲他人行为”、可能造成身体或心理伤害的人工智能系统。

欧盟官员希望用该法案来限制警察使用人脸识别技术。

虽然警方通常不能在公共场所使用所谓的“远程生物识别系统”,比如人脸识别,但法官可以批准豁免权,例如在儿童绑架、恐怖威胁等场景下可以使用,也可以用来锁定诈骗、谋杀等罪行的嫌疑人。

“豁免的范围之广令人难以置信,”非政府组织网络欧洲数字权利(European Digital Rights)的高级政策顾问莎拉·钱德(Sarah Chander)说,这样的清单“有点违背了宣称人脸识别是禁令的目的。”

二、高风险人工智能提供商“交作业”,银行领头

用于高风险目的的人工智能系统提供商,需要向监管机构提交相关文件,在文件中详细说明其系统如何工作。欧盟执行机构欧盟委员会(European Commission)执行副主席玛格丽特·维斯特格(Margrethe Vestager)认为,这类系统还需要在系统的设计、使用方式,以及用于训练人工智能的数据质量方面,显示出“适当的人类监督”。

大型银行率先向监管机构介绍了它们的人工智能算法,这些算法的应用可以帮助防止全球信贷危机。在高盛(Goldman Sachs)模型风险管理团队前总监、人工智能初创公司causaLens现任数据科学总监安德烈·弗兰卡(Andre Franca)看来,更多公司最终都将采取同样的做法。

弗兰卡博士举例说,在过去10年里,银行不得不雇佣团队,帮助向监管机构提供其人工智能模型背后的数学代码,有时候每个模型的代码超过100页。

弗兰卡博士说,欧盟还可以派遣监管团队到公司,亲自审查其人工智能算法是否属于提案规定的高风险类别,如识别人脸或指纹的系统,以及可能影响人身安全的算法。他还说,欧洲央行的监管机构经常通过几天的研讨会,审查银行提交的代码。

欧盟还声明,新的法案不会对电子游戏、垃圾邮件过滤等大多数人工智能应用制定监管新规。但一些风险较低的人工智能系统,比如聊天机器人,需要告知用户他们不是真人。

“我们要清楚地告诉用户,他们是在与一台机器互动,”维斯特格说。

深度伪造,即在视频中进行换脸的软件,也需要标明这一点。总部位于乌克兰的NeoCortext公司开发了一款颇受欢迎的换脸应用Reface,该公司称正在进行标注,将努力遵循欧盟的指导方针。“对于快速发展的初创公司来说,现在面临着一个挑战,就是规范守则。”Neocortext的CEO迪玛·什韦茨(Dima Shvets)说。

三、众说纷纭,新法案落地尚需时日

一些数字权利活动人士虽然对这项提案的部分内容表示赞赏,但表示其他内容似乎存在太多漏洞。其他业界人士认为,这项提案会给没有这些限制的中国企业带来优势。

“这将使在欧洲建造人工智能变得非常昂贵,甚至在技术上不可行,” 一家科技智库的数据创新中心(Center for Data Innovation)高级政策分析师本杰明·穆勒(Benjamin Mueller)说, “美国和中国会饶有兴趣地看着欧盟把自己的初创企业打垮。”

但一些科技行业的游说人士认为,法案并没有过于严厉,只是对某一些所谓的“高风险人工智能应用”实施严格监管,这些应用包括用于关键基础设施的软件,以及警方用来预测犯罪的算法。

计算机与通信行业协会(Computer & Communications Industry Association)副总裁兼布鲁塞尔办事处负责人克里斯蒂安·博格格林(Christian Borggreen)认为,“欧盟委员会采取这种基于风险的做法是件好事。”计算机与通信行业协会代表了亚马逊、Facebook和谷歌等多家大型科技公司。

伦敦大学学院(University College London)计算机科学荣誉副教授、谷歌前研究科学家朱利安·科尼比斯(Julien Cornebise)表示,新规定不一定会产生与GDPR相同的影响,GDPR是欧盟在2018年出台的《通用数据保护条例(General Data Protection Regulation)》,该条例约束了大量收集、传输、保留或处理涉及到欧盟所有成员国内的个人信息的机构组织。

“人工智能是一个移动的标杆,”他说,“我们的手机每天都在做20年前被认为是‘人工智能’的事情。新法案的一个风险是,它所规范的‘人工智能’的定义在变化,它可能会变得不适用或者很快就被淘汰。”

结语:人工智能的高风险应用亟需监管

近年来,欧盟一直试图在起草和执行新法规方面发挥带头作用,这些法规旨在遏制大型科技公司所谓的“过度行为”,并遏制新技术的潜在危险,涉及的领域从数字竞争到在线内容审核等,十分广泛。此前,欧盟的GDPR为广泛适用的规定提供了模板,于是其他国家和美国的一些州也采取了类似的做法。

正如维斯特格所说,“我们的规定旨在解决与人工智能特定用途相关的人类和社会风险,我们认为这很紧急。而欧盟是第一个提出这种法律框架的。”在未来,随着人工智能技术更新的发展、更广泛的应用,或许还会有更多人为限制和监管的措施陆续出台。

来源:华尔街日报

本文为转载内容,授权事宜请联系原著作权人。