正在阅读: 技术时代的怕与爱 | 2019年科技事件盘点

扫一扫下载界面新闻APP

技术时代的怕与爱 | 2019年科技事件盘点

在利用科技的同时,人们也恐惧地发现,自己已经逐渐陷入科技的控制中,任其摆布。

自科学革命以来,科技深刻而迅速地塑造了人类社会,以至于百年前的人穿梭到我们这个时代,恐怕完全无法理解现在的日常生活。尽管,于1982年拍摄、划时代的科幻电影《银翼杀手》预言的2019年并未成真:人类依然无法制造几可乱真的智能机器人,也依然没有开始大规模的宇宙航行,更不可能看到“在猎户座肩旁熊熊燃烧的宇宙战舰”……但2019年同样有许多令人惊叹、同时也在改变人类生活的科技成就:

来自各国的数百名科学家通力合作的“事件视界望远镜”(EHT)项目在全球多地同时召开新闻发布会,发布了人类拍到的首张黑洞照片,这也是人类首次真正“看到”黑洞;欧洲药品管理局正式批准了一种名为“Ervebo”的埃博拉疫苗,这是埃博拉疫苗首次获得上市批准;中国信息通信研究院指出,中国人脸识别相关专利的申请量高达2.73万项,处于世界领先行列,同时,在中国大众的日常生活中,人脸识别也有着越来越广泛的应用,包括安检、付款、门禁等方面,让生活愈发便利……

即使2019年不是技术跃迁的“奇迹年”,我们也能够感受到科技对日常生活的持续改造。大众在享受着史无前例的便利的同时,也继续梦想着科技能够为人类带来的美好未来。但这只是当代科技故事的光明面。在利用科技的同时,人们也恐惧地发现,自己已经逐渐陷入科技的控制中,任其摆布。

2019年,是大众对科技的恐惧加深的一年。深陷用户数据泄露丑闻的脸书(Facebook)终于同意支付创纪录的50亿美元,与美国联邦贸易委会(FTC)达成和解,以结束美国当局对它的隐私侵权行为调查,但很快,它又陷入了另一场旋涡。自2015年开始,脸书想尽办法阻止美国伊利诺伊州居民针对脸书滥用其面部识别数据的事件提起集体诉讼,今年8月,法官正式驳回了脸书的动议,让庭审继续进行。如果脸书输掉这场官司,它将面临高达350亿美元的赔偿。在中国,社会大众也开始频频质疑大公司是否通过技术手段监控自己的信息,以此掌握用户的喜好,更精准地推送广告。公众已经逐渐意识到技术带来的便利背后,往往会有“些许”牺牲,而隐私则是其中之一,这值得吗?从这一年人们对类似新闻爆发时的惊恐与愤怒来看,答案显然是否定的。

脸书创始人扎克伯格因数据泄露问题出席听证会

人工智能的发展,让人类重新面对一个古老、但如今以更现实的姿态向人类袭来的问题:如何证明我是我?以Deepfake为代表的的人脸合成算法愈发成熟,不止是脸,身体也同样能够生成,而生成的图像也愈难辨真假;包括谷歌、百度与腾讯在内的互联网巨头早就已经将语音合成的模型开源,只要导入一个人短时间的音源,就能够复制他的声音,甚至包括语气与情绪。当身体、脸与声音这种人们以为独一无二的生物特征都能轻松伪造时,一切都变得不能确定,也不能相信。

作为探索科学前沿的先锋,学者始终以严谨的姿态面向大众。正因现代科学在当今文明中享有基石地位,学者也享有崇高的声望。然而2019年,由于学术不端的新闻频繁爆发,学者的声望面临着严重的威胁。贺建奎“基因编辑婴儿事件”与其引发的科学伦理问题继续发酵,以中国工程院院士曹雪涛为代表的知名学者又被质疑论文抄袭或图像造假,各种丑闻的频繁曝光,让学者形象蒙上了厚重的阴影。在科技的阴暗面逐渐滋长时,大众对代表理性与光明的学者形象也产生了怀疑。

自文艺复兴以来,马克斯·韦伯与马丁·海德格尔等思想家对科技有着尖锐的批评,但科技与社会进步始终紧密相连,他们共同嘲笑蒙昧迷信,携手抵抗压迫与暴政,坚信人类社会能够通过集体的奋斗,达致美好的未来。然而今天,科技却成了我们又爱又怕的对象,甚至可能成为我们最危险的敌人之一。到底发生了什么?

数据监控与隐私泄漏:互联网的老大哥们都在看着你

关键词:美剧《硅谷》;微信被指监控用户;Siri窃听案;特朗普被追踪;谷歌、脸书面临审查与诉讼

《一九八四》无所不在的大屏幕与始终注视自己的“老大哥”面孔,是大众文化中监控社会永恒的化身。其中监控系统的毫不掩饰与监控者冰冷的凝视,代表了监控暴力的无所顾忌,它希望通过这种公开的、赤裸裸的监视,向受众灌输恐惧与服从,让大众主动将权力的指示内化。

但今天,当我们谈论监控时,我们看到的不只是纯粹、公开的压制与暴力,而是更隐蔽的、更谦恭的监控。它不是为了恐惧,而是为了更高尚的目的:让我们消费更多、让我们更快乐、让我们学习更认真、让我们更安全……为了更多的好处,我们要么自愿被监控,要么服膺于监控秩序,有时候连监控设备也是我们向监控者主动提供。这更像是《一九八四》与《美丽新世界》疯狂的混合版:人们期待更美好的生活,因此他们的私密空间被渗透,隐私被攫取,我们逐渐成为透明人,甚至成为商品本身,最终毁于我们热爱的事物。

今年迎来完结季的人气美剧《硅谷》在临近结局时就对监控问题进行了一番探讨,主角Richard在听证会直指互联网巨头谷歌、亚马逊与脸书对互联网无远弗届的掌控能力,让他们能时时刻刻、全方位地监控用户的每一个行动并以此获利。但很快,他发现自己的员工同样在游戏中收集用户信息,并通过识别玩家的声音与情绪来推送相应广告。这种讽刺的剧情正反映了大众对互联网公司拥有的庞大权力的深重焦虑,每一个互联网公司都渴望能监控用户,而所有的行动、语言、情绪、位置的信息都可能会被人工智能收集、识别、分类并进行分析,最终形成精准的用户画像,这些互联网公司可能比用户更了解他自己的喜好。

《硅谷》剧照

今年已经有多家媒体报道,互联网巨头系统性地收集用户的数据后,将其拼凑成用户画像,并以此为基础向用户精准投放广告。广告投放之准确,甚至让用户怀疑App是否对其进行了非法的监听与信息窃取。3月25日,《南方都市报》的记者经过一个星期的测试后,发布报道质疑微信、美团、大众点评等App通过监测用户的聊天记录、定位、好友关系等信息,向用户推送符合当下需求的广告,其精准程度已经超过了合理收集而来的信息能够提供的范围。

记者强调,他们启用了两个没有使用过的微信号,在两台测试手机上都关闭了App的读取联系人、麦克风、定位、摄像头、照片、应用列表等权限,但推送的广告却非常精确地与他们互发的聊天信息有关,而且App还会按照好友通讯录,向好友推荐相似广告。据此,该报道指出,互联网巨头正通过多种手段、跨平台地收集用户数据,并将其整合到一起,利用大数据形成一个细致庞大的用户画像网络,以至于根本不需要利用监听这种性价比极低又危险的非法手段。

对此,微信官方于3月27日回应,微信不会监测用户聊天记录,更不会通过监测用户聊天记录推送广告。微信方面称,腾讯广告投放的基本逻辑是基于用户群体定向属性,广告主可选择把广告投放给他们设定的目标人群,也会根据不同的时间与季节向用户推送不同类型的广告,因此很容易出现用户收到的广告“恰好”和自己的聊天内容、浏览内容相似的巧合情况。

这并非微信今年第一次被质疑“监控用户”,2019年1月9日,微信发布了《2018微信年度数据报告》,由于报告中归纳了各个年龄层最爱用的表情包,比如00后爱“捂脸”、90后爱“笑哭”、80后爱“龇牙笑”等,且提到“55岁以上人群晚餐后习惯与子女视频通话”等详细的日常生活内容,遭到网友质疑是否监控了用户的聊天信息与活动轨迹,否则微信怎么知晓用户的隐私,例如55岁以上的用户与其视频对象之间的关系。

针对网友的质疑,微信方面于次日回应称,所有数据均已匿名及脱敏化处理,例如表情数据的统计是根据表情面板不同表情的点击频次所得,并不涉及任何用户的隐私内容。而针对视频通话中的亲子关系统计问题,腾讯表示这仅仅是猜测。因为在特定时间段内,年龄较长用户与年轻用户视频通话比较频繁,由此推测是亲子之间的行为,微信并不能判断用户间的关系情况。但这样的说法并未让腾讯逃脱指责,2019年大众对各大科技巨头监控用户的质疑并未就此停止,不断在媒体与网络上曝光的丑闻也恰恰证实了用户的疑虑。

7月26日,英国《卫报》报道称,Siri会在未经用户允许的情况下,将用户录音上传到服务器,苹果会聘请合同工对这些录音定期进行监听和分析,其中涉及私人医疗信息、毒品交易和性行为等其他私人信息。而这在苹果公司的隐私政策中从未被提及。8月2日,苹果宣称已经暂停了该做法,并在彻底的审查前不会重启。这对于一直强调隐私保护的苹果公司而言,无疑是一个巨大的讽刺,实际上,同为巨头的亚马逊与谷歌也同样因为人工审查语音助手的录音而被媒体曝光,他们的理由都是为了提高语音助手的表现质量,但他们的解释与致歉也没有得到用户的认可。

这是因为用户愈发意识到互联网巨头对数据的渴望,已经远远超过了应有的范围。他们迫切希望得到更多、更完整的信息与数据,以此完善他们的产品,能够更精准命中消费者的喜好。

Siri

即便用户希望转投其他产品,但巨头们构建的产品生态网早已占领了网络空间,大众的日常生活早已被它们渗透与垄断,面对无孔不入的监控,人们既然已经无法放弃使用它们的产品,要么只能自我安慰地放弃抵抗,任它们窥视,要么就呼唤公权力介入,以政治、司法的权力管制大厂们在互联网与商业上的巨大影响力。

1月25日,中央网信办、工信部、公安部、市场监管总局等四部门在京发布《关于开展App违法违规收集使用个人信息专项治理的公告》,宣布自1月至12月在全国范围开展专项治理,并成立App专项治理工作组,制定《移动互联网应用程序(App)收集个人信息基本规范》等保护用户隐私的法规,对互联网公司收集与利用数据提出了许多技术要求,例如要对用户的个人信息,使用前文中微信提到的匿名与脱敏化处理。

值得一提的是,尽管匿名与脱敏化处理是大数据隐私保护的常见技术,但依然不能阻止个人的隐私被窥视与监控。《纽约时报》在12月19、20日发布了两篇关于手机监控的报道。报道指出,尽管所有的信息都已经匿名化,但记者们通过消息人士提供的数据库,对照居住信息与地图,还是能够追踪到特朗普的行动路线。不仅如此,他们能够跟踪数据库中包括美国高级官员与国会议员,1200多万美国人中任何一个人的移动轨迹,找出他们的具体身份,并勾勒出他们工作与生活的轮廓。

数据库来源于一家根据App的定位服务,收集精准位置信息的数据定位公司,报道指出,全球有数十家公司不受监管地记录与追踪这些信息,并从中获利。尽管这些公司声称,人们同意被跟踪,且数据是匿名且保密的。但并非如此,许多人并未意识到自己同意让App收集位置数据,而且这些数据经常打包出售给金融机构、房地产投资者,广告公司等机构。

这个消息立刻引起美国公众与政治人物的的愤怒,已经宣布参加2020年美国总统选举的民主党参议院伊丽莎白·沃伦(Elizabeth Warren)一直反对互联网巨头利用个人隐私牟利,这次更是直言:“这份报告就说明了为什么我们要拆解科技巨头,执行严格的隐私保护法,让这些公司高管为此负责。”

类似的事件频频发生,让世界各国同时行动起来。作为对个人隐私保护最严格的地区,欧盟于12月2日证实,已经开始对谷歌与脸书展开调查,关注这些科技巨头如何采集与处理个人隐私信息,评估它们是否在欧盟范围内遵守隐私相关的法律;在科技巨头云集的美国,脸书再次面临法律风险:自2015年以来,伊利诺伊州使用脸书的居民就因为脸书在未经许可的情况下,利用面部识别技术扫描对他们上传的照片,同时也并未告知这些资料将保存多久,因此提起了集体诉讼。脸书采取一切措施,希望拖延、阻止集体诉讼的进行,但在10月,法官驳回了脸书一方的请求,让此案继续审理。由于该诉讼代表了700万伊利诺伊州的脸书使用者,所以脸书或将面临高达350亿美元的赔偿。

在世界范围内不断曝出的监控丑闻、不同地区大众的普遍焦虑与各国政府持续的关注、介入与管制,正说明了被监控的恐惧并非卢德主义式的反科技情绪,而是真实存在的威胁。国家与社会都希望用政治与司法的力量将科技企业的行动束缚在一定范围内,但当互联网巨头能够轻易摆脱国境线的束缚,在全球范围游走布局业务时,当每个国家都急切渴望拥有遍地开花又蓬勃生长的科技公司时,监控与监管之间的矛盾就变得空前激烈。

正如社会学家齐格蒙·鲍曼在其晚年著作《液态监控》(Liquid Surveillance)中指出,传统的“全景敞视监狱”的监控模式已经在当代社会弱化了,取而代之的是所谓“液态监控”,即并非中心化的监视,而是流动的、从线上到线下全天候不间断的监控,而且这个监控是融入我们搜索、娱乐与消费过程中的,最后我们碎片化的信息被传递、共享并最终统合为完整的数字档案。更可怕的是,由于跨国资本能够通过技术在各个国家与地区流动,并攫取强大的权力;而传统的政治却依然局限于解决一个国家内部的问题,无法约束他们,这导致普通大众对技术与政治的信任土崩瓦解,进而让鼓吹保守封闭的右翼思潮在世界范围内重新崛起。

监控社会诞生了吗:公共空间的人脸识别

关键词:智慧课堂行为管理系统;吴谢宇被人脸识别系统发现;消费者起诉商家的“人脸识别第一案”

除了这种发生在网络上、隐藏在便利外表之下的监控,在2019年,我们对更公开,也更强制性的监控变得越来越熟悉。

据澎湃新闻8月24日报道,上海中医药大学附属闵行蔷薇小学正在构建智慧课堂行为分析系统,该系统运用姿态评估、表情识别、语言识别等技术,实时捕捉学生的行为举止,通过人工智能定量分析学生的学习状态、学习兴趣,并能够对学生在校园生活的日常动作、姿态进行评估,如果有走姿倾斜、不良坐姿和睡眠不良等情况,系统会及时识别并生成预警报告。

同时有媒体指出,这套系统并不仅仅针对学生,同时也捕捉分析教师与学生的互动状况,对教师教学中存在的问题提出解决方案。实际上,无论是教师还是学生,进入校园后,一举一动都将处于被监控中。

智慧课堂行为分析系统

人脸识别进入校园的例子并不罕见,也正逐渐向教育的不同阶段扩散,除了门禁与考勤系统,最引人争议的是对学生的课堂行为的监控与分析。杭州第十一中学在2018年5月就在校园中应用“智慧课堂行为管理系统”,通过系统扫描学生的行为与面部表情,分析出学生的课堂状态。今年9月,中国药科大学在部分教室中安装了人脸识别系统,学生一进教室能开始识别扫描,系统能够分析学生是否发呆、玩手机或在阅读其他书籍,据“中国之声”报道,国内已经有多所高校和中学都在尝试在课堂引入人脸识别技术。从初等教育到高等教育,以人工智能为基础的课堂监控似乎成为了提高教育质量、保证学生认真学习的“革命性创举”。

这一举措也在公众舆论中引发了激烈的讨论,其中心围绕在人脸识别是否会侵害学生的隐私与心理。《南方都市报》曾在9月以“你赞同学校用人脸识别系统采集学生的课堂行为吗?”为题发起了讨论与调查,结果显示,参与投票的3269位网友中,84%不赞同,86.1%认为该行为侵犯了学生隐私。尽管如此,网络上依然不乏赞成者,他们认为,现在的学生缺乏自控能力,上课效率很低,利用人脸识别监控学生,能够提高上课质量。且课堂是公共空间,并不存在侵犯隐私的可能。而反对者则表示,学生同样有人权,不应该被监控和分析,更不应该活在每天被AI抓出错误的恐惧中。21世纪教育研究院副院长熊丙奇更直言,将学生当做“犯人”时刻监控的方式是反教育的,并反问赞成安装者是否愿意在自己的办公室装上人脸识别系统,让系统随时分析他们的工作态度。

这场争论反映的是整个社会对公共空间的监控的矛盾态度,随着国内智慧城市的深入发展,各个城市在街头、交通路口、社区、火车站和机场等地点的摄像头数量大幅增长,已经有许多报道提到,越来越多小区要求加入人脸识别门禁。再加上监控的画面质量也大幅上升,随着人工智能的发展,我们就此将笼罩在几乎永无间断的监控中。

这是坏事吗?许多人会认为,小区、景点、学校的人脸识别能够让人们更方便进出,而且同样有助于创造安全的环境。而政府兴建的监控系统更是为社会营造了普遍的安全感。中央电视台制作的纪录片《辉煌中国》曾提到“中国天网”铸造了更安全的公共环境,它利用世界上最大的视频监控网,通过人工智能与大数据,时刻监控着治安状况。无论是案发后追踪作案者,或是及时抓捕在逃的嫌疑人,甚至是犯罪预测,“中国天网”都能为安定社会起到巨大作用。4月21日,潜逃三年的北大弑母案嫌疑人吴谢宇在重庆江北机场乘机时,就是由于人脸识别系统及时识别出他,因此才被机场民警抓获。

潜逃三年的北大弑母案嫌疑人吴谢宇被人脸识别系统发现后落网

但怀疑者则认为,人脸信息这种生物识别信息的大量采集会引起大众的焦虑,一方面由于采集是非接触性的,所以个人往往并未意识到自身的人脸信息已经被采集与分析;另一方面,人脸信息可能被泄露与滥用而造成损失。很多时候,公众没有权利拒绝信息的采集,对这些信息如何采集、存储、分析与使用的一系列过程更一无所知,自然会对无处不在的摄像头产生不信任感。中国信息通信研究院安全研究所研究员葛鑫指出,人脸识别很可能与其他信息结合,形成更为立体化的数据画像,导致个人遭到不必要的追踪、窥探与监控,甚至因基于人脸识别的自动化决策引发歧视性待遇。

11月3日,由于未经本人同意的情况下强制收集面部特征等个人生物信息,浙江理工大学特聘副教授郭兵作为消费者将杭州野生动物世界告上了法庭。该案也成为国内消费者起诉商家的“人脸识别第一案”,园方辩称,这是为了方便消费者快速入园,然而郭兵指出原本他在办年卡时是通过验证指纹入园,其后系统升级为人脸识别入园,同时称未注册人脸识别的用户无法入园,这种强制收集个人生物识别信息的做法损害了自己的权益。

此案或许正是关于人脸识别争论的缩影:一方认为它能降低成本,让用户更加便捷;另一方则认为整个决策与信息收集过程有如一个黑箱,完全拒斥作为利益相关方的参与,也没有向用户提供信息的去向与安全保障。

这场争论也是世界性的,各国社会同样就人脸识别系统的监控有着类似的辩论,有的国家在温和地推进人脸识别技术的同时,开始制定严格的法律规管,而另一些地区则试图完全禁止这项技术的运用。5月14日,美国旧金山城市监督委员会颁布了《反监控条例》,禁止包括警察在内的53个政府部门使用人脸识别技术,但并没有禁止普通商家或居民使用该技术。条例公布后,赞成者认为这阻止了对个人隐私的侵害,而反对者称这将减小当地打击犯罪的力度,导致治安变差。这种意见的对垒在世界范围内都是相似的,而不同的政策导向则取决于不同社会论辩的结果。

监控社会诞生了吗?这不是一个简单的是或否的问题,关键在于个人的隐私信息是否被国家与社会妥善地保护,是否让公众充分地了解与参与到监控信息的收集、分析与保管的过程。否则,“谁来监视那些监视者呢?”(Quis custodiet ipsos custodes?)

深度伪造:消失的脸与“眼见为实”的终结

关键词:“ZAO”换脸软件;“Deepfake";色情报复与羞辱;人脸图像生成;英剧《真相捕捉》

8月30日,一款名为“ZAO”的AI换脸App突然爆红。用户只要上传一张自己的正脸照,就能够将影视片段中演员的脸换成自己的脸。到9月1日,该App已跃居苹果商店免费榜第一,其火爆程度可见一斑。但在喧嚣过后,公众的质疑与担忧接踵而至,主要针对的是面部识别特征等个人隐私信息可能会被“ZAO”保存、修改与再利用的隐私问题。但实际上,更值得人们警惕的是,“ZAO”的方便性与图像表现上的不俗,正说明了它所依托的Deepfake技术的成熟,而以该技术为代表的的图像生成技术,很可能冲击人类对真实的认知界限,也将摧毁社会信任的根基。

Deepfake并非一项全新的技术,早在1997年发表的一个学术研究的程序中,作者就利用了机器学习(machine learning)的技术,将视频中的人的面部形状与他发出的声音匹配起来。但真正使其出名的是在2017年底,Reddit论坛上一位ID为“deepfakes”的网民。他与该社区的其他网民一起创造了一个算法,能够将已有的图像与视频叠加到另一个图像或视频上,因此这个算法也被称为“Deepfake”,即“deep learning”(深度学习)和“fake”(伪造)的合体。

在中国,这项技术被网民迅速运用于各个影视明星的身上。2月25日,一段通过Deepfake技术将《射雕英雄传》中由朱茵饰演的黄蓉的脸替换成杨幂的视频在网络流传,虽然两位演员的五官长相相差甚远,但换脸后的动作与表情非常流畅自然,让人难以分辨真假。在短暂的惊叹过后,许多网民向视频制作者提出,这是对杨幂的肖像权与名誉权的侵犯。2月27日视频作者与杨幂的官方工作室沟通后,下架了相关视频。而这只是一个开始,大量将明星换脸的视频在网络上传播。4月12日,蔡徐坤工作室发布致B站(哔哩哔哩弹幕网)律师告知函,称B站上存在大量对蔡徐坤表演视频进行恶意剪辑、诽谤的内容,要求对方立即删除相关侵权内容并断开侵权链接,侵权内容中就包括为艺人“换脸”的视频。

这当然可以看成是又一次网络亚文化的娱乐狂欢,但同时我们要意识到其中隐含的危险。这些明星拥有充足的法律资源,能够保护自己不受进一步侵害,而大众也能分辨出这是一个玩笑,不会变本加厉地嘲笑他们。但如果是一个普通人,自己的脸被换给了某个视频中的另一个人,这很有可能是一场网络霸凌的开始。另一个知名换脸技术“Face2Face”的开发者Justus Thies就意识到这一点,他指出,大量运用这些视频处理的技术会造成极其深远的社会后果,通过制造各种羞辱性的视频,霸凌者能够“将网络霸凌提升到一个更严重的程度”,这也是他们团队没有公开软件与源代码的原因。

实际上,Deepfake出现后的重要作用之一就是生成羞辱性的色情视频:人们将女演员的脸换到色情视频的女主角上,并在网络上互相分享,这样的行径到今天依然屡禁不止,BBC就指出96%的Deepfake视频是把女演员的脸转移到色情明星的身体上。著名演员斯嘉丽·约翰逊就是受害者之一,她坦诚,面对这些匿名的、源源不断的Deepfake视频,运用法律维护自己的权益是非常困难的,但这些色情视频对她的影响并没有那么大,因为作为名人,大家都知道色情视频中的人并不是自己,不过“对于那些因此可能丢掉工作的人来说,就不同了”。

96%的Deepfake视频是把女演员的脸转移到色情明星的身体上

也就是说,对普通人来说,无论是遭受网络霸凌或是色情报复,Deepfake将成为他们的梦魇。尤其在私人照片在网络上唾手可得的今天,合成一个视频并非难事。当普通人发现自己成为网络上任意传播的色情视频主角时,很可能引致许多网络的攻击与辱骂。这是因为目前网络平台的监管并不能跟上技术的发展,所以追责难度非常高。虽然包括Facebook与Twiiter在内网络平台已经宣布管制Deepfake视频,但在许多国家的现行法律下,即使Deepfake视频造成了负面影响,平台方也是免责的;同时发布者可以在其他国家匿名上传,因此同样难以追责。

针对Deepfake可能造成的可怕后果,各国政府也有所回应。7月1日,美国弗吉尼亚州扩大了《色情报复法》的覆盖范围,规定未经当事人允许分享他人的裸露视频、照片属于违法行为,无论该照片或视频属于真实或是伪造,除了Deepfake,用Photoshop或其他工具制作的虚假照片与视频也包括在内。11月29日,国家互联网信息办公室、文化和旅游部、国家广播电视总局发布的《网络音视频信息服务管理规定》称,“利用基于深度学习、虚拟现实等的虚假图像、音视频生成技术制作、发布、传播谣言的,应当及时采取相应的辟谣措施。”

人们能感受到换脸技术可能对现代社会带来的巨大冲击,尤其随着技术不断迭代升级,而Deepfake也已经从仅仅是脸部替换,扩展到整个身体的替换,且使用难度不断下降。“眼见为实”的信条将面临严重的威胁,随之可能崩溃的正是社会信任的链条。然而,替换脸部与身体并不是人工智能能做到的全部,它还能够创造现实。

今年2月,著名科技公司英伟达公布了目前最先进的图像合成模型StyleGAN的源代码,通过利用网络相册“Flickr”提供的包含7万张高清人像的数据集训练该模型,就能生成各种细节丰富且几可乱真的人脸。除了人像以外,StyleGAN还可以生成包括动物、汽车与房间等图片。12月13日,英伟达发布了StyleGAN的升级版StyleGAN2,称已经进一步缩短了训练时间,提高生成图像的质量,且让生成的图像更加自然。

StyleGAN能够根据不同要求生成几可乱真的人脸

当图像中的脸部与身体可以替换、动作能够伪造、人脸可以生成,甚至连视频的声音都能合成时,现实社会中的真实与虚构的界限开始变得非常模糊,现代社会即将被科技淹没:因为辨别的难度太高,人们甚至连自己亲眼所见的一切都无法全然相信,那么人们将不再关注真实是什么,而让情感来主宰自己的判断,这也正是大家熟悉的“后真相”,而它将会把社会信任撕得粉碎,将公众带入以情绪与立场驱动的永恒敌对中。

今年9月首播的英剧《真相捕捉》讲述了一个令人毛骨悚然的故事,男主角Shaun被卷入一场绑架和谋杀的指控中,对他指控的所有证据都来自监控摄像头的记录——然而事实上,所有影像不过是通过人工智能伪造合成出来的。

当一切都能够伪造时,当我们无力探寻真实时,我们还能相信什么?

《真相捕捉》剧照

蒙上阴影的先锋:学术不端的学者们

关键词:贺建奎“基因编辑婴儿事件”;多位学者涉嫌学术抄袭与造假

当地球上物理的“边疆”在20世纪彻底消亡时,科学就成为当代的“新边疆”。而在科学前沿不断探索的科学家,也就化身当代引领人类驶向未来的先锋,因此在今天,他们始终备受尊崇。然而2019年对学者而言,却并非那么愉快。学术不端的丑闻连续爆发,让学者的声望不断下滑,更让大众对高校的学术体制提出全面的质疑。

2018年11月,南方科技大学副教授贺建奎向公众宣布,他利用基因编辑技术修改了一对双胞胎婴儿的一个基因,使她们出生后即能天然抵抗艾滋病。消息公布后,该实验所涉及的伦理问题迅速引发了公众与科学界的质疑。今年1月21日,广东省“基因编辑婴儿事件”调查组表示:现已初步查明,贺建奎为追逐个人名利,自筹资金,蓄意逃避监管,私自组织有关人员,实施国家明令禁止的以生殖为目的的人类胚胎基因编辑活动。同一天,南方科技大学发表公告称,与贺建奎的解除劳动关系,并终止其在校内一切教学科研活动。

贺建奎

贺建奎的行为不仅是对学术伦理基本准则的背弃,也是对两个无辜生命的危害。12月3日,《麻省理工科技评论》称在今年早些时候,收到了贺建奎未发表的手稿,经过专家学者的讨论后,发现贺建奎的基因编辑并没有获得成功,实验并未验证婴儿真的能抵抗HIV病毒,且导致婴儿的基因出现了新的变异,这已经严重危害两个婴儿的生命安全。另一方面,他的实验已经突破科学伦理的底线,在动物实验出现问题时,依然选择在婴儿身上进行实验,这种行为无疑是以科学之名,践踏生命伦理。

贺建奎事件的爆发不仅让他自己身败名裂,同时也让科学家群体蒙羞,其重要原因在于,尽管基因编辑活动是被明确禁止的,并且该项目在所有伦理审查环节上都有缺陷,但贺建奎依然能够顺利组织团队,完成对双胞胎婴儿的基因编辑,2006年诺贝尔医学奖得主、马萨诸塞大学分子生物学家Craig Mello也参与其中并提出了建议。这在公众视野中召唤出科学家在历史上的另一重形象:为了科学成就不择手段的“科学狂人”,这意味着科学以理性为由,凌驾于公众之上,完全忽略对弱者的保护,自然激起了社会广泛的不满。

如果说贺建奎的学术不端是对科学伦理的践踏,那么今年多起学者论文抄袭、造假的事件,则昭示着学术体制的溃烂。

3月8日,上海财经大学学生刘运向厦门大学及上级主管部门举报厦门大学1999届博士生、现任上海财经大学统计与管理学院教授、博士生导师徐国祥的博士论文涉嫌严重抄袭。徐国祥过去就曾多次被指涉嫌学术不端,从6年前开始就有多人举报其著作抄袭,但这些举报内容最终并没有被认定为抄袭。3月23日,举报者刘运收到厦门大学学风委员会邮件,称已成立调查组进行调查,当《中国青年报》记者于6月13日向厦大学风委员会的工作人员了解调查进展时,对方称调查已完成,并将在通过相关部门审议后及时对外公布,但至今还没有公布调查结果。

6月29日,有网友在网上举报称,中国工程院院士李兆申曾发表的多篇论文系抄袭他人硕士学位论文,其中一篇文字复制比甚至高达61.7%。李兆申回应称,论文绝对没问题,并称事情已交由其任职医院的纪检部门处理。如果确实存在抄袭问题,他会面对,如果是诽谤,他将采取法律手段。7月2日,中国工程院工作人员称,目前正在调查研究,截至目前,调查依然在进行中。

11月13日,学者伊丽莎白·比克(Elisabeth Bik)在同行评议网站“pubpeer”发文指出,以中国工程院院士曹雪涛为通讯作者的超过60篇论文涉嫌图像造假。曹雪涛其后回应称,会立即和团队与论文合作者进行调查。一些论文的第一作者已经承认发表了错误的照片,也有一些图像问题被认为是Bik自己的辨认错误,但多个相关期刊已经开始对涉嫌造假的论文进行审查。

11月29日,网上传出首都医科大学校长饶毅向国家自然科学基金委实名举报武汉大学教授李红良、中科院院士裴钢与中国科学院研究员耿美玉三人论文造假的举报信。饶毅本人回应称,这是一份尚未发出的草稿。国家自然科学基金委表示,目前正在调查核实此事。

这几个涉嫌学术不端、而没有最终结果的事件绝不是2019年论文抄袭与造假的全部,但其波及的学者级别之高、有关部门与学校的调查之慢,都足以概括今天学界令人担忧的状况。我们相信,依然有许多兢兢业业的学者,在开拓科学新边疆的征途上一往无前。但我们不希望,他们是独行者。

尾声

人类离21世纪第三个十年仅有一步之遥。尽管世界已经发生天翻地覆的变化,但有一点与一百年前一样:我们发现科技既能够为人类带来光明的未来,也发现它拥有前所未有的压迫人类甚至毁灭人类的力量。一百年前,结束不久的第一次世界大战向世界展示了,科技让人类能以最高效的效率相互杀戮。这副景象击碎了欧洲人自启蒙运动以来对科技的乐观看法,让他们对进步主义产生了严重的怀疑;但他们也不得不承认,战后高速发展的科技正在创造一个崭新世界。

今天同样如此,我们看到科技的黑暗面,看到它被巨头把持后榨取大众的隐私数据,并以此盈利;但同时也没有人会否认,当代科技带给人类巨大的便利。2019年便是这样充满矛盾的一年,大众发现科技不断逃逸出他们的控制,成为社会生活最危险的要素之一;但人们又渴望科技的不断进步,能为自己的生活带来更多改变。我们当然不该仅仅为了怀旧,歌颂实际并不美好的“自然”的生活,希望回到不可复现的过去;更不应像卢德分子一样砸烂服务器与电脑,在拒斥科技的黑暗面时,也拒斥科技本身。《经济学人》在12月21日刊发的《悲观主义与进步》中提到,要解决科技带来的问题,往往要通过运用更多科技。

或许正如德国诗人荷尔德林所说:“但有危险的地方,也有拯救生长。”

未经正式授权严禁转载本文,侵权必究。
表情
您至少需输入5个字

评论 2

暂无评论哦,快来评价一下吧!

为你推荐

下载界面新闻

微信公众号

微博