正在阅读:

AI智库警告:计算机科学领域实现男女平等,还要100年

扫一扫下载界面新闻APP

AI智库警告:计算机科学领域实现男女平等,还要100年

计算机科学研究和科技企业存在的性别差距是否会在现实中影响人们的生活,是很多人关心的问题。在人工智能行业中,由开发人员的性别、种族等差异造成的产品偏见被称为算法偏见。

图片来源:视觉中国

记者 | 刘芳

6月20日,由微软联合创始人艾伦(Paul Allen)创建的艾伦人工智能研究所(Allen Institute for Artificial Intelligence)发布报告称,要想在计算机科学研究领域达到男女平等至少还要100年。

这份报告采集了计算机科学领域1970至2018年间刊登的287万篇论文,并根据作者的姓名对其性别加以概率分析。2018年,计算机科学论文的男性作者约为47.5万人次,而女性约为17.5万人次。作为对比,报告还采集了1163万篇医学文献的作者姓名,同时对作者的性别加以分析。

报告发现,即使在最乐观的情况下,在计算机科学领域达到男女平等也要到2100年。如果现实一些的话可能需要更久的时间,甚至遥遥无期。而相比之下,预计30年之内就可消除生物医学论文方面作者的性别差距。

计算机科学论文女性作者比率预测。来源:艾伦研究所

除此之外,不同性别作者之间的合作也低于预期。报告称,虽然男性和女性都偏好与同性别作者合作,但女性的同性偏好度正在下降,而男性的同性偏好度在增加。

换言之,虽然计算机科学领域女性科学家的绝对数量在上升,近年来跨性别合作论文的案例数量也有所增加,但跨性别合作论文的比例却在减少。

对此,科技媒体Gizmodo评价道,在性别平等方面,计算机科学领域不仅出现了落后,而且还在向错误的方向前进。

《纽约时报》认为,男女作者的巨大差距在一定程度上反映出计算机科学期刊的编辑群体可能存在男性偏见。

在接受采访时,前华盛顿大学教授、艾伦研究所负责人埃齐奥尼 (Oren Etzioni) 说:“我们希望看到一个积极的结果,因为我们都意识到,(计算机科学论文)女性作者的数量正在增长。但坦率地说,结果令人震惊。”

更重要的是,由于性别不同,科学家们在计算机科学领域的关注焦点和解决问题思路也有所不同。艾伦研究所研究员王(Lucy Lu Wang)表示:“性别差距所构成的问题不仅体现在选择什么数据训练机器上,更体现在想要(使用AI技术)解决什么问题。”

艾伦研究所官网

目前,许多人工智能技术需要用大量数据训练而成。计算机科学研究和科技企业存在的性别差距是否会在现实中影响人们的生活,是很多人关心的问题。在人工智能行业中,这种由开发人员的性别、种族等差异造成的产品偏见被称为算法偏见。

例如,《哈佛商业周刊》数据显示,语音识别正在成为一项迅速扩张的产业,预计在2030年市值将达到800亿美元。但研究表明,语音识别在辨识高音调的女性声音方面存在困难。即使是准确率最高的谷歌语音识别系统,男性声音辨识准确率也比女性高出13%。

再比如,在微软测试其一款评估贷款风险的产品时,由于所使用的已被批准的数据多为男性,因此算法清晰表明,男性可以更好地承担贷款风险。

纽约大学AI Now Institute的创始人惠特克(Meredith Whittaker)在今年3月的一次峰会上表示,算法偏见最典型的例子是亚马逊公司使用人工智能技术进行招聘。由于计算机模型使用的数据是过去10年亚马逊收到的简历,而大部分申请人为男性。最终算法由此计算评论认为,男性是更好的求职者。

纽约大学AI Now Institute创始人惠克特。图片来源:推特

对此,惠特克表示:“这是对简历中‘女性’这个词的惩罚。如果你上的是一所女子学院,你的简历就会被自动吐出来。”她还说:“这不仅表明算法可以很容易地反映社会的偏见,而且这个结果更暴露了亚马逊多年的歧视性招聘做法,很明显亚马逊缺乏多样性。”

著名政治哲学家罗尔斯(John Rawls)曾在《正义论》中做过一个思想实验,目的是推理出如何才能产生最公平的制度和决策机制。罗尔斯认为,人们只有在“无知之幕”下才能脱离社会偏见,进而推导出公平。所谓“无知之幕”,就是不以个人的性别、家庭、年龄、种族等作为决策的起点,而是最大化的将特定信息剥离。而目前人工智能领域仿佛还不能做到这点。

随着人工智能技术的发展,人类将在越来越多的领域依赖其做出决策,如评估贷款风险、职场筛选简历等。而这项技术是否能够最大程度脱离社会和历史性偏见,实现公平将是未来人类最重大的挑战之一。

未经正式授权严禁转载本文,侵权必究。

评论

暂无评论哦,快来评价一下吧!

下载界面新闻

微信公众号

微博

AI智库警告:计算机科学领域实现男女平等,还要100年

计算机科学研究和科技企业存在的性别差距是否会在现实中影响人们的生活,是很多人关心的问题。在人工智能行业中,由开发人员的性别、种族等差异造成的产品偏见被称为算法偏见。

图片来源:视觉中国

记者 | 刘芳

6月20日,由微软联合创始人艾伦(Paul Allen)创建的艾伦人工智能研究所(Allen Institute for Artificial Intelligence)发布报告称,要想在计算机科学研究领域达到男女平等至少还要100年。

这份报告采集了计算机科学领域1970至2018年间刊登的287万篇论文,并根据作者的姓名对其性别加以概率分析。2018年,计算机科学论文的男性作者约为47.5万人次,而女性约为17.5万人次。作为对比,报告还采集了1163万篇医学文献的作者姓名,同时对作者的性别加以分析。

报告发现,即使在最乐观的情况下,在计算机科学领域达到男女平等也要到2100年。如果现实一些的话可能需要更久的时间,甚至遥遥无期。而相比之下,预计30年之内就可消除生物医学论文方面作者的性别差距。

计算机科学论文女性作者比率预测。来源:艾伦研究所

除此之外,不同性别作者之间的合作也低于预期。报告称,虽然男性和女性都偏好与同性别作者合作,但女性的同性偏好度正在下降,而男性的同性偏好度在增加。

换言之,虽然计算机科学领域女性科学家的绝对数量在上升,近年来跨性别合作论文的案例数量也有所增加,但跨性别合作论文的比例却在减少。

对此,科技媒体Gizmodo评价道,在性别平等方面,计算机科学领域不仅出现了落后,而且还在向错误的方向前进。

《纽约时报》认为,男女作者的巨大差距在一定程度上反映出计算机科学期刊的编辑群体可能存在男性偏见。

在接受采访时,前华盛顿大学教授、艾伦研究所负责人埃齐奥尼 (Oren Etzioni) 说:“我们希望看到一个积极的结果,因为我们都意识到,(计算机科学论文)女性作者的数量正在增长。但坦率地说,结果令人震惊。”

更重要的是,由于性别不同,科学家们在计算机科学领域的关注焦点和解决问题思路也有所不同。艾伦研究所研究员王(Lucy Lu Wang)表示:“性别差距所构成的问题不仅体现在选择什么数据训练机器上,更体现在想要(使用AI技术)解决什么问题。”

艾伦研究所官网

目前,许多人工智能技术需要用大量数据训练而成。计算机科学研究和科技企业存在的性别差距是否会在现实中影响人们的生活,是很多人关心的问题。在人工智能行业中,这种由开发人员的性别、种族等差异造成的产品偏见被称为算法偏见。

例如,《哈佛商业周刊》数据显示,语音识别正在成为一项迅速扩张的产业,预计在2030年市值将达到800亿美元。但研究表明,语音识别在辨识高音调的女性声音方面存在困难。即使是准确率最高的谷歌语音识别系统,男性声音辨识准确率也比女性高出13%。

再比如,在微软测试其一款评估贷款风险的产品时,由于所使用的已被批准的数据多为男性,因此算法清晰表明,男性可以更好地承担贷款风险。

纽约大学AI Now Institute的创始人惠特克(Meredith Whittaker)在今年3月的一次峰会上表示,算法偏见最典型的例子是亚马逊公司使用人工智能技术进行招聘。由于计算机模型使用的数据是过去10年亚马逊收到的简历,而大部分申请人为男性。最终算法由此计算评论认为,男性是更好的求职者。

纽约大学AI Now Institute创始人惠克特。图片来源:推特

对此,惠特克表示:“这是对简历中‘女性’这个词的惩罚。如果你上的是一所女子学院,你的简历就会被自动吐出来。”她还说:“这不仅表明算法可以很容易地反映社会的偏见,而且这个结果更暴露了亚马逊多年的歧视性招聘做法,很明显亚马逊缺乏多样性。”

著名政治哲学家罗尔斯(John Rawls)曾在《正义论》中做过一个思想实验,目的是推理出如何才能产生最公平的制度和决策机制。罗尔斯认为,人们只有在“无知之幕”下才能脱离社会偏见,进而推导出公平。所谓“无知之幕”,就是不以个人的性别、家庭、年龄、种族等作为决策的起点,而是最大化的将特定信息剥离。而目前人工智能领域仿佛还不能做到这点。

随着人工智能技术的发展,人类将在越来越多的领域依赖其做出决策,如评估贷款风险、职场筛选简历等。而这项技术是否能够最大程度脱离社会和历史性偏见,实现公平将是未来人类最重大的挑战之一。

未经正式授权严禁转载本文,侵权必究。