正在阅读:

AI变成罪恶帮凶,IBM终止面部识别

扫一扫下载界面新闻APP

AI变成罪恶帮凶,IBM终止面部识别

对实验条件的苛刻要求、在模糊性方面的应对无能,会使AI连基本的小事都无法顺利完成。

图片来源:视觉中国

记者 | 蒋悦

编辑 | 马蕾

6月8日,IBM公司最新上任的CEO阿尔文德·克里什纳表示,将停止提供面部识别软件,并且今后也不会再继续研发此类技术。对此,他给出的理由是为了反对“将技术用于大规模监视和种族歧视”。

曾几何时,人工智能(AI)技术被视作“公正与客观”的化身,避免人们走向偏见的歧路。埃森哲曾在《技术展望2019》中表示,不少企业在发布工作岗位时存在性别偏见,而AI工具能够帮助人们识别并纠正此类偏见,尽量实现薪酬公平。

但事实是,依赖于数据学习的人工智能,会导致社会偏见长期存在。

2013年,哈佛大学计算机科学家拉坦娅·斯威尼发现,如果用谷歌搜索一个典型的非裔名字,就会跳出许多关于逮捕记录信息查询的广告,而如果搜索一个白人常用名,则不会出现这种情况。

为降低员工离职率、削减高额成本,施乐公司(Xerox)曾试图通过大数据程序来预测员工的在职时长。程序发现,通勤距离与员工离职率高度相关,家住得远的员工会更快提出离职。但该公司的管理层很快意识到,由于公司位于富人区,如果依照程序建议而不雇用住址偏远的员工,将对中低收入人群产生歧视。

相似地,亚马逊在2014年启用的以AI驱动的招聘系统,由于频频被诟病歧视女性,最终于2018年被停用。

近年来,人工智能极受资本追捧,许多媒体争先发出“机器人超越人类阅读水平,令数百万人面临失业风险”等危言耸听的文章。这使得人们开始忧虑其自身地位是否会被AI替代,机器人占领地球是否近在眼前。

机器人创业公司Robust.AI的创始人兼CEO盖瑞·马库斯、纽约大学柯朗数学科学研究所计算机科学教授欧内斯特·戴维斯认为,大可不必如此焦虑。在他们联手合著的新书《如何创造可信的AI》中,二人表示,理想与现实之间,存在着“AI鸿沟”(The AI Chasm),人们总是误以为AI解决了简单的问题,就相当于向解决难题迈出了一大步。

IBM对沃森(Watson)系统的大肆吹捧就属此类。IBM的目标是解决从药理学、放射学到癌症诊断与治疗中存在的问题,该公司希望能利用沃森的认知系统去读取医学文献,给出人类医生可能会遗漏的医疗建议。然而在2017年,MD安德森癌症中心停止了与IBM在肿瘤学方面的合作,理由是沃森给出的治疗建议“不安全、不正确”。

谷歌的Alpha Go很可能也会走上同样的老路。Alpha Go在围棋上的成就引发了人们对于AI智慧的热烈讨论,但他们忽略了围棋和国际象棋都属于完全信息型的游戏。Alpha Go可以与自己下100万盘围棋,以建立数据库,在每一次落子前都计算出赢率。但在真实的世界中,我们所掌握的数据常常充满噪音,存在着大量的不确定性。而依赖于数据、机器学习的人工智能,目前无法应对这样的模糊性。

这些花费了巨大的人力物力研发出来的系统,都跟我们所畅想的“拥有超级智慧的机器人”相去甚远。而对实验条件的苛刻要求、在模糊性方面的应对无能,甚至还会使AI连“基本的小事”都无法顺利完成。

例如,苹果的“自动化组装电子设备”的尝试近期宣告失败,其新研发的机器人连拧螺丝、涂胶水等简单任务都无法完成。

特斯拉也于近日再次“翻车”。在中国台湾的高速公路上,一辆特斯拉Model 3在自动巡航的模式下,没有采取任何避让措施,直直地撞向一辆静止的货车。在系统眼中,卡车和广告牌的高度均高于特斯拉车,故而错把静止的货车当成了广告牌,导致了事故的发生。

盖瑞·马库斯和欧内斯特·戴维斯把这类情况称作“鲁棒坑”。

每当人们找到了在某些时候能发挥作用的AI解决方案时,就会假定,只要再多一些数据,系统就能在所有的时刻发挥作用。但正如杜克大学人类与自动化实验室主任米西·卡明斯所说,问题不在于某辆无人驾驶汽车能在不出事故的情况下跑几公里,而在于汽车本身的适应能力有多强。将车辆在理想的实验条件下的行驶表现与极端情况的表现混为一谈,是将整个行业置于生死边缘的重大问题。

《如何创造可信的AI》一书进一步指出,太多的人工智能都只是短期解决方案的堆砌,而缺乏关键的工程保障。

当发现AI系统无法识别非裔女性的性别后,IBM就拿了一个带有更多非裔女性图片的全新数据集来对系统进行训练。谷歌的解决方法则更为“彻底”。当谷歌图片错把非裔美国人识别为大猩猩后,该公司直接把大猩猩的图片从数据集里去除了。

以上两个解决方法固然能在短期内平息人们的怒气,但这不过是让盲目的数据分析得出正确结果的小伎俩,其背后隐藏的真正问题始终没有得到解决。

究其根本,还是因为现有的AI技术尚不具备认知和理解能力。

AI能利用统计数据来分类,但这只能近似地表示意义,而无法理解图像和语言的真正含义。正如盖瑞·马库斯和欧内斯特·戴维斯所说,“目前我们正处于人工智能的过渡时期:具有自主性和网络化的狭义AI”。它并不具备真正的智能,也无法对情况进行评估、对未来的可能性进行预测,更不能随情况变化进行动态判断。

在这样的情况下,“机器人将接管人类的生活”还只是美好希冀,未来学家雷·库兹韦尔的预言——“AI将在2029年之前超越人类本身”,则不过黄粱一梦。

推荐阅读:

书名:《如何创造可信的AI》

作者: [美] 盖瑞·马库斯(Gary Marcus ) ,[美] 欧内斯特·戴维斯(Ernest Davis)

出版社:浙江教育出版社

出版时间:2020年5月

未经正式授权严禁转载本文,侵权必究。

IBM

3.8k
  • 日本半导体制造商Rapidus成立美国子公司,在硅谷开设办事处
  • IBM股价创20多年来最大盘中涨幅,公司对2024年做出乐观预期

评论

暂无评论哦,快来评价一下吧!

下载界面新闻

微信公众号

微博

AI变成罪恶帮凶,IBM终止面部识别

对实验条件的苛刻要求、在模糊性方面的应对无能,会使AI连基本的小事都无法顺利完成。

图片来源:视觉中国

记者 | 蒋悦

编辑 | 马蕾

6月8日,IBM公司最新上任的CEO阿尔文德·克里什纳表示,将停止提供面部识别软件,并且今后也不会再继续研发此类技术。对此,他给出的理由是为了反对“将技术用于大规模监视和种族歧视”。

曾几何时,人工智能(AI)技术被视作“公正与客观”的化身,避免人们走向偏见的歧路。埃森哲曾在《技术展望2019》中表示,不少企业在发布工作岗位时存在性别偏见,而AI工具能够帮助人们识别并纠正此类偏见,尽量实现薪酬公平。

但事实是,依赖于数据学习的人工智能,会导致社会偏见长期存在。

2013年,哈佛大学计算机科学家拉坦娅·斯威尼发现,如果用谷歌搜索一个典型的非裔名字,就会跳出许多关于逮捕记录信息查询的广告,而如果搜索一个白人常用名,则不会出现这种情况。

为降低员工离职率、削减高额成本,施乐公司(Xerox)曾试图通过大数据程序来预测员工的在职时长。程序发现,通勤距离与员工离职率高度相关,家住得远的员工会更快提出离职。但该公司的管理层很快意识到,由于公司位于富人区,如果依照程序建议而不雇用住址偏远的员工,将对中低收入人群产生歧视。

相似地,亚马逊在2014年启用的以AI驱动的招聘系统,由于频频被诟病歧视女性,最终于2018年被停用。

近年来,人工智能极受资本追捧,许多媒体争先发出“机器人超越人类阅读水平,令数百万人面临失业风险”等危言耸听的文章。这使得人们开始忧虑其自身地位是否会被AI替代,机器人占领地球是否近在眼前。

机器人创业公司Robust.AI的创始人兼CEO盖瑞·马库斯、纽约大学柯朗数学科学研究所计算机科学教授欧内斯特·戴维斯认为,大可不必如此焦虑。在他们联手合著的新书《如何创造可信的AI》中,二人表示,理想与现实之间,存在着“AI鸿沟”(The AI Chasm),人们总是误以为AI解决了简单的问题,就相当于向解决难题迈出了一大步。

IBM对沃森(Watson)系统的大肆吹捧就属此类。IBM的目标是解决从药理学、放射学到癌症诊断与治疗中存在的问题,该公司希望能利用沃森的认知系统去读取医学文献,给出人类医生可能会遗漏的医疗建议。然而在2017年,MD安德森癌症中心停止了与IBM在肿瘤学方面的合作,理由是沃森给出的治疗建议“不安全、不正确”。

谷歌的Alpha Go很可能也会走上同样的老路。Alpha Go在围棋上的成就引发了人们对于AI智慧的热烈讨论,但他们忽略了围棋和国际象棋都属于完全信息型的游戏。Alpha Go可以与自己下100万盘围棋,以建立数据库,在每一次落子前都计算出赢率。但在真实的世界中,我们所掌握的数据常常充满噪音,存在着大量的不确定性。而依赖于数据、机器学习的人工智能,目前无法应对这样的模糊性。

这些花费了巨大的人力物力研发出来的系统,都跟我们所畅想的“拥有超级智慧的机器人”相去甚远。而对实验条件的苛刻要求、在模糊性方面的应对无能,甚至还会使AI连“基本的小事”都无法顺利完成。

例如,苹果的“自动化组装电子设备”的尝试近期宣告失败,其新研发的机器人连拧螺丝、涂胶水等简单任务都无法完成。

特斯拉也于近日再次“翻车”。在中国台湾的高速公路上,一辆特斯拉Model 3在自动巡航的模式下,没有采取任何避让措施,直直地撞向一辆静止的货车。在系统眼中,卡车和广告牌的高度均高于特斯拉车,故而错把静止的货车当成了广告牌,导致了事故的发生。

盖瑞·马库斯和欧内斯特·戴维斯把这类情况称作“鲁棒坑”。

每当人们找到了在某些时候能发挥作用的AI解决方案时,就会假定,只要再多一些数据,系统就能在所有的时刻发挥作用。但正如杜克大学人类与自动化实验室主任米西·卡明斯所说,问题不在于某辆无人驾驶汽车能在不出事故的情况下跑几公里,而在于汽车本身的适应能力有多强。将车辆在理想的实验条件下的行驶表现与极端情况的表现混为一谈,是将整个行业置于生死边缘的重大问题。

《如何创造可信的AI》一书进一步指出,太多的人工智能都只是短期解决方案的堆砌,而缺乏关键的工程保障。

当发现AI系统无法识别非裔女性的性别后,IBM就拿了一个带有更多非裔女性图片的全新数据集来对系统进行训练。谷歌的解决方法则更为“彻底”。当谷歌图片错把非裔美国人识别为大猩猩后,该公司直接把大猩猩的图片从数据集里去除了。

以上两个解决方法固然能在短期内平息人们的怒气,但这不过是让盲目的数据分析得出正确结果的小伎俩,其背后隐藏的真正问题始终没有得到解决。

究其根本,还是因为现有的AI技术尚不具备认知和理解能力。

AI能利用统计数据来分类,但这只能近似地表示意义,而无法理解图像和语言的真正含义。正如盖瑞·马库斯和欧内斯特·戴维斯所说,“目前我们正处于人工智能的过渡时期:具有自主性和网络化的狭义AI”。它并不具备真正的智能,也无法对情况进行评估、对未来的可能性进行预测,更不能随情况变化进行动态判断。

在这样的情况下,“机器人将接管人类的生活”还只是美好希冀,未来学家雷·库兹韦尔的预言——“AI将在2029年之前超越人类本身”,则不过黄粱一梦。

推荐阅读:

书名:《如何创造可信的AI》

作者: [美] 盖瑞·马库斯(Gary Marcus ) ,[美] 欧内斯特·戴维斯(Ernest Davis)

出版社:浙江教育出版社

出版时间:2020年5月

未经正式授权严禁转载本文,侵权必究。