正在阅读:

对于AI伦理学的研究受到科技巨头的资助,这有伦理问题吗?

扫一扫下载界面新闻APP

对于AI伦理学的研究受到科技巨头的资助,这有伦理问题吗?

硅谷巨头正在砸重金研发人工智能,不仅如此,他们还试图影响有关机器决策的一系列伦理争论。

图片来源:GETTY IMAGES / TRISTAN FEWINGS

算法已经在相当程度上代表人们作出了许多影响其一生的决定,但大部分人对此仍浑然不觉。软件可以诊断疾病、将你列入求职面试名单或是评估你是否有资格获得假释。随着机器学习及人工智能的日趋复杂化,自动化决策的影响力也将达到前所未有的程度,而支配着这些决定的规则对日常生活的左右,有朝一日或许会不亚于民族国家的法律。然而,民选政府的立法是公开的,科技产业却私下投入大笔金钱,企图影响有关机器决策的一系列伦理争论。

过去两个月以来,Spotlight和NS Tech调查了产业界对英国AI伦理研究的支持情况。基于信息自由法取得的数据表明,谷歌在过去五年里花费了数以千百万计的英镑来资助英国大学里的相关研究。仅牛津大学一所高校就获得了至少1700万英镑。

截至该调查付印的时间点,这位搜索巨头的母公司价值超过7500亿美元,过去两年来其商业活动累计被欧盟委员会罚款82.4亿欧元。法国的数据保护当局今年1月又对其罚款5000万欧元,而英国信息委员会办公室目前则正在调查该公司是否有违反与数据有关的欧盟法律之嫌。

虽然牛津大学所得的资助大多都用于技术研发,但谷歌和Deepmind——这家英国AI公司完全归属于谷歌的母公司Alphabet——也资助了牛津大学互联网研究所(OII)的AI伦理学、科技企业的公民责任及关于自动化决策(ADM)的审查和透明度等一系列研究课题。

该研究所的好些学者都曾公开就AI伦理和自动化决策等问题发表过评论,尤以卢西安诺·弗洛里迪(Luciano Floridi)教授、桑德拉·瓦赫特(Sandra Wachter)副教授和布伦特·密妥斯泰特(Brent Mittelstadt)博士为甚。弗洛里迪是信息委员会办公室的顾问、英国政府的数据伦理学与创新中心委员会成员以及欧盟委员会AI高级专家组(HLEG)代表。今年初他还在谷歌的AI伦理委员会供职过一小段时间。

2017年1月,弗洛里迪、瓦赫特和密妥斯泰特在学术杂志《国际数据隐私法》(International Data Privacy Law)联名发表论文提出,欧洲的数据法并未赋予欧盟公民就机器所作出的关于其本人的诸决策要求解释的权利。其他一些专家则对前述不足在软件决策出现争议时的潜在弊端表示担忧。据牛津大学互联网研究所官网的消息,三位学者后来获得了谷歌的资助,以研究“潜藏其下的伦理和法律原则,和形塑有关自动化决策之审查的争论的一系列潜在政策”。

卢西安诺·弗洛里迪

同年稍晚,DeepMind也承诺要对研究所的某同类课题所涵括的一系列研究进行资助。该司在网站上宣布,资助将会推动一项“针对欧洲的可解释(explainable)、可负责(accountable)算法及自动化决策的研究”。课题于2018年1月上马,负责人为瓦赫特,密妥斯泰特的部分工作也得益于此。

当Spotlight向研究所求证是否有列明由谷歌或DeepMind资助的论文时,一名发言人展示了四篇论文,每一篇都是2018年4月或以后写成或发表的。

Spolight发现有两篇由瓦赫特和密妥斯泰特共同完成的论文谈到了建立算法问责制的途径,但却没有列明其研究资金来自DeepMind。其他被问及此事的学者表示,披露来自论文主题所在领域的企业资助是标准的做法,如有必要也可以出于透明性的考量而不予公开。

一名研究所发言人表示,其研究资金只有极少数是来自商界的,该所坚持“最高标准的学术独立性”且所有课题的运作都遵循“牛津大学的学术自由文化”,这意味着“研究结果的价值或尊严不因外来资助而有妥协”。该所还提到,瓦赫特和密妥斯泰特最近撰写的论文承认了来自DeepMind的资助,且对业界多有批评并呼吁实行更严格的监管。

“为透明性起见,”发言人说,“我们会在官网上公开所有企业资助者的详细信息,而牛津大学也会出版有关其年度收支的账目明细。”然而,与调查中联系到的其它许多机构不同,牛津大学互联网研究所拒绝披露个人从谷歌处获得的资助数目。该校的另一名发言人称“发表在诸如学术杂志或会议集刊上的研究成果将始终会列明支持其工作的资金来源”。DeepMind表示,他们乐于资助学术共同体,并以曾透过好些“不受限捐助”(unrestricted donations)来支持牛津大学而骄傲。

谷歌对技术伦理学研究的资助已经持续有十余年。2017年,问责运动(CfA)宣称2005年以来发表的329篇有关“涉及谷歌利益的公共政策研究论文均以某种渠道得到了谷歌的资助”。谷歌还与不少欧洲的组织合作,成立了一些政策研究机构,其中就有位于伦敦的、与创新机构Nesta合作展开倡议活动的Readie。

“谷歌运用其无与伦比的财富和权力,试图在各个层面上影响政策制定者,”问责运动执行总监、活动家丹尼尔·史蒂文斯(Daniel Stevens)在当时说。谈到自家组织所挖掘出来的那些受公司资助的研究,他说:“从最起码的意义上讲,监管者应该多个心眼,他们所参考的那些自称独立的法律和学术研究是出自谷歌之手。”

然而,后来问责运动也爆出曾收受来自Oracle的资助,它曾经和谷歌对簿公堂。阿姆斯特丹大学最近以企业资助为主题的征文启事称这场意外“完美地凸显了企业资助与科学研究的复杂纠葛”。

一名谷歌发言人表示“学术机构应以恰当方式公开我们的资助”且这些资助只提供给“彼此不相关的研究,并无左右学术资助体系的目的”,“我们所资助的研究者和机构也经常会发表一些我们不能同意的研究。”

谷歌、Facebook和亚马逊等科技巨头都在斥巨资资助AI伦理研究

资助此类研究的公司不止谷歌一家。Facebook于今年1月曾宣布计划向慕尼黑科技大学捐款750万美元,以资助其新成立一个AI伦理学研究中心。两个月后,亚马逊又宣布将与美国国家科学基金(NSF)合作“在未来三年内以与AI相关的公平问题为重点,确保每年提供最高1000万美元的研究资助”。

学术界围绕这种资助的伦理性质展开了激烈争论。一些学者认为,商界对支持学术研究有重要意义,其他学者则质疑此类研究是否真的能做到完全独立。“它催生了一定程度的依赖性,尤其在如今这个大家都有向外获取资助的压力的年代,”卡迪夫大学“数据公平实验室”负责人、“资助要紧”(Funding Matters)倡议活动成员丽娜·邓西克说,“在那样的语境下,压力会进一步增大,围绕大学究竟应当或者不应当接受谁的钱的争论也会更加频繁。”牛津大学称,过去五年来没有拒绝任何来自谷歌、亚马逊、Facebook、苹果或微软的资助请求。

“如果一所大学在研究对某企业的商业模式而言至为紧要的实践的道德、政治和法律意义时接受了来自该企业的资助,那它就有失职之嫌,”哈佛法学院教授尤查·本克勒(Yochai Benkler)最近在《自然》杂志上撰文表示,“政府如果把政策框架的决定权授予一个绝大部分人员来自业界的委员会,那同样是失职。”

去年,德国哲学教授托马斯·梅钦格(Thomas Metzinger)被提名为欧盟AI专家组里的伦理学专门组成员之一。AI高级专家组的52名成员里有将近一半都是业界代表。

梅钦格和一名机器学习专家的任务是为AI在欧洲的运用划出“红线”。“这花了我们六个月时间,”他说,“我们和其他许多专家进行了讨论,参考了他们的提议,最终形成看法并将之提炼为一份文件,上面都是不容妥协的规范性原则。”梅钦格划出的两条“红线”是,AI不得被用来建造自动化致命武器或者社会信用评分系统。不过,在他上交完自己的提案后,组里的某些成员表示红线划得太严,要求适当软化。

“霎时间,不少业界代表和其他一些人就产生了一种强烈的情绪,他们提出‘红线’这个表述此后不应该出现在文件里。”他回忆道。欧盟委员会通行的最终版本改用了“严正关切”一词来指代前述事项。

委员会希望欧洲明年能对AI投入200亿欧元,一些专家提出要新成立一个类似于欧洲核子研究组织(CERN)的专门研究机构。梅钦格表示,确保监管与技术发展同步的办法之一,是成立一个联合伦理学卓越研究中心,其人员采用轮换制,全欧范围内应新增720个与AI相关的应用伦理学教授席位。

“该中心的理念是,促使年轻伦理学家与开发者合作,建立教育新一代学生的网络,令广大公众保持知情以及推动公共辩论,”梅钦格说道。

本文作者Oscar Williams系NsTech网站编辑。

(翻译:林达)

来源:新政治家

原标题:How Big Tech funds the debate on AI ethics

最新更新时间:06/24 14:05

本文为转载内容,授权事宜请联系原著作权人。

评论

暂无评论哦,快来评价一下吧!

下载界面新闻

微信公众号

微博

对于AI伦理学的研究受到科技巨头的资助,这有伦理问题吗?

硅谷巨头正在砸重金研发人工智能,不仅如此,他们还试图影响有关机器决策的一系列伦理争论。

图片来源:GETTY IMAGES / TRISTAN FEWINGS

算法已经在相当程度上代表人们作出了许多影响其一生的决定,但大部分人对此仍浑然不觉。软件可以诊断疾病、将你列入求职面试名单或是评估你是否有资格获得假释。随着机器学习及人工智能的日趋复杂化,自动化决策的影响力也将达到前所未有的程度,而支配着这些决定的规则对日常生活的左右,有朝一日或许会不亚于民族国家的法律。然而,民选政府的立法是公开的,科技产业却私下投入大笔金钱,企图影响有关机器决策的一系列伦理争论。

过去两个月以来,Spotlight和NS Tech调查了产业界对英国AI伦理研究的支持情况。基于信息自由法取得的数据表明,谷歌在过去五年里花费了数以千百万计的英镑来资助英国大学里的相关研究。仅牛津大学一所高校就获得了至少1700万英镑。

截至该调查付印的时间点,这位搜索巨头的母公司价值超过7500亿美元,过去两年来其商业活动累计被欧盟委员会罚款82.4亿欧元。法国的数据保护当局今年1月又对其罚款5000万欧元,而英国信息委员会办公室目前则正在调查该公司是否有违反与数据有关的欧盟法律之嫌。

虽然牛津大学所得的资助大多都用于技术研发,但谷歌和Deepmind——这家英国AI公司完全归属于谷歌的母公司Alphabet——也资助了牛津大学互联网研究所(OII)的AI伦理学、科技企业的公民责任及关于自动化决策(ADM)的审查和透明度等一系列研究课题。

该研究所的好些学者都曾公开就AI伦理和自动化决策等问题发表过评论,尤以卢西安诺·弗洛里迪(Luciano Floridi)教授、桑德拉·瓦赫特(Sandra Wachter)副教授和布伦特·密妥斯泰特(Brent Mittelstadt)博士为甚。弗洛里迪是信息委员会办公室的顾问、英国政府的数据伦理学与创新中心委员会成员以及欧盟委员会AI高级专家组(HLEG)代表。今年初他还在谷歌的AI伦理委员会供职过一小段时间。

2017年1月,弗洛里迪、瓦赫特和密妥斯泰特在学术杂志《国际数据隐私法》(International Data Privacy Law)联名发表论文提出,欧洲的数据法并未赋予欧盟公民就机器所作出的关于其本人的诸决策要求解释的权利。其他一些专家则对前述不足在软件决策出现争议时的潜在弊端表示担忧。据牛津大学互联网研究所官网的消息,三位学者后来获得了谷歌的资助,以研究“潜藏其下的伦理和法律原则,和形塑有关自动化决策之审查的争论的一系列潜在政策”。

卢西安诺·弗洛里迪

同年稍晚,DeepMind也承诺要对研究所的某同类课题所涵括的一系列研究进行资助。该司在网站上宣布,资助将会推动一项“针对欧洲的可解释(explainable)、可负责(accountable)算法及自动化决策的研究”。课题于2018年1月上马,负责人为瓦赫特,密妥斯泰特的部分工作也得益于此。

当Spotlight向研究所求证是否有列明由谷歌或DeepMind资助的论文时,一名发言人展示了四篇论文,每一篇都是2018年4月或以后写成或发表的。

Spolight发现有两篇由瓦赫特和密妥斯泰特共同完成的论文谈到了建立算法问责制的途径,但却没有列明其研究资金来自DeepMind。其他被问及此事的学者表示,披露来自论文主题所在领域的企业资助是标准的做法,如有必要也可以出于透明性的考量而不予公开。

一名研究所发言人表示,其研究资金只有极少数是来自商界的,该所坚持“最高标准的学术独立性”且所有课题的运作都遵循“牛津大学的学术自由文化”,这意味着“研究结果的价值或尊严不因外来资助而有妥协”。该所还提到,瓦赫特和密妥斯泰特最近撰写的论文承认了来自DeepMind的资助,且对业界多有批评并呼吁实行更严格的监管。

“为透明性起见,”发言人说,“我们会在官网上公开所有企业资助者的详细信息,而牛津大学也会出版有关其年度收支的账目明细。”然而,与调查中联系到的其它许多机构不同,牛津大学互联网研究所拒绝披露个人从谷歌处获得的资助数目。该校的另一名发言人称“发表在诸如学术杂志或会议集刊上的研究成果将始终会列明支持其工作的资金来源”。DeepMind表示,他们乐于资助学术共同体,并以曾透过好些“不受限捐助”(unrestricted donations)来支持牛津大学而骄傲。

谷歌对技术伦理学研究的资助已经持续有十余年。2017年,问责运动(CfA)宣称2005年以来发表的329篇有关“涉及谷歌利益的公共政策研究论文均以某种渠道得到了谷歌的资助”。谷歌还与不少欧洲的组织合作,成立了一些政策研究机构,其中就有位于伦敦的、与创新机构Nesta合作展开倡议活动的Readie。

“谷歌运用其无与伦比的财富和权力,试图在各个层面上影响政策制定者,”问责运动执行总监、活动家丹尼尔·史蒂文斯(Daniel Stevens)在当时说。谈到自家组织所挖掘出来的那些受公司资助的研究,他说:“从最起码的意义上讲,监管者应该多个心眼,他们所参考的那些自称独立的法律和学术研究是出自谷歌之手。”

然而,后来问责运动也爆出曾收受来自Oracle的资助,它曾经和谷歌对簿公堂。阿姆斯特丹大学最近以企业资助为主题的征文启事称这场意外“完美地凸显了企业资助与科学研究的复杂纠葛”。

一名谷歌发言人表示“学术机构应以恰当方式公开我们的资助”且这些资助只提供给“彼此不相关的研究,并无左右学术资助体系的目的”,“我们所资助的研究者和机构也经常会发表一些我们不能同意的研究。”

谷歌、Facebook和亚马逊等科技巨头都在斥巨资资助AI伦理研究

资助此类研究的公司不止谷歌一家。Facebook于今年1月曾宣布计划向慕尼黑科技大学捐款750万美元,以资助其新成立一个AI伦理学研究中心。两个月后,亚马逊又宣布将与美国国家科学基金(NSF)合作“在未来三年内以与AI相关的公平问题为重点,确保每年提供最高1000万美元的研究资助”。

学术界围绕这种资助的伦理性质展开了激烈争论。一些学者认为,商界对支持学术研究有重要意义,其他学者则质疑此类研究是否真的能做到完全独立。“它催生了一定程度的依赖性,尤其在如今这个大家都有向外获取资助的压力的年代,”卡迪夫大学“数据公平实验室”负责人、“资助要紧”(Funding Matters)倡议活动成员丽娜·邓西克说,“在那样的语境下,压力会进一步增大,围绕大学究竟应当或者不应当接受谁的钱的争论也会更加频繁。”牛津大学称,过去五年来没有拒绝任何来自谷歌、亚马逊、Facebook、苹果或微软的资助请求。

“如果一所大学在研究对某企业的商业模式而言至为紧要的实践的道德、政治和法律意义时接受了来自该企业的资助,那它就有失职之嫌,”哈佛法学院教授尤查·本克勒(Yochai Benkler)最近在《自然》杂志上撰文表示,“政府如果把政策框架的决定权授予一个绝大部分人员来自业界的委员会,那同样是失职。”

去年,德国哲学教授托马斯·梅钦格(Thomas Metzinger)被提名为欧盟AI专家组里的伦理学专门组成员之一。AI高级专家组的52名成员里有将近一半都是业界代表。

梅钦格和一名机器学习专家的任务是为AI在欧洲的运用划出“红线”。“这花了我们六个月时间,”他说,“我们和其他许多专家进行了讨论,参考了他们的提议,最终形成看法并将之提炼为一份文件,上面都是不容妥协的规范性原则。”梅钦格划出的两条“红线”是,AI不得被用来建造自动化致命武器或者社会信用评分系统。不过,在他上交完自己的提案后,组里的某些成员表示红线划得太严,要求适当软化。

“霎时间,不少业界代表和其他一些人就产生了一种强烈的情绪,他们提出‘红线’这个表述此后不应该出现在文件里。”他回忆道。欧盟委员会通行的最终版本改用了“严正关切”一词来指代前述事项。

委员会希望欧洲明年能对AI投入200亿欧元,一些专家提出要新成立一个类似于欧洲核子研究组织(CERN)的专门研究机构。梅钦格表示,确保监管与技术发展同步的办法之一,是成立一个联合伦理学卓越研究中心,其人员采用轮换制,全欧范围内应新增720个与AI相关的应用伦理学教授席位。

“该中心的理念是,促使年轻伦理学家与开发者合作,建立教育新一代学生的网络,令广大公众保持知情以及推动公共辩论,”梅钦格说道。

本文作者Oscar Williams系NsTech网站编辑。

(翻译:林达)

来源:新政治家

原标题:How Big Tech funds the debate on AI ethics

最新更新时间:06/24 14:05

本文为转载内容,授权事宜请联系原著作权人。