正在阅读:

世界经济论坛最新报告:数字平台正在制造越来越多的危害

扫一扫下载界面新闻APP

世界经济论坛最新报告:数字平台正在制造越来越多的危害

如何创建一个以用户为中心的全球管理框架,来应对线上危害?

来源:视觉中国

记者 | 王磬

全球数十亿人使用的数字平台正在被滥用。

新冠疫情以来,一方面,数字平台成为了传播科学与防疫知识的主要战场,发挥了前所未有的功用。但另一方面,关于病毒的虚假信息也以极快的速度传播开来。

根据国际刑警组织的报告,大流行期间关于儿童性剥削和性虐待的内容有显著增加。今年1月美国国会山发生的暴力袭击事件,也被认为与数字平台散布假消息有关。

在近日发布的报告《推进数字安全:协调全球行动的框架》中,世界经济论坛对政界、商界、学术界和民间的50多位专家进行了访谈。其中75%的受访者认为,网络平台上存在太多“有危害的内容”、但平台对此的行动太少。

报告还指出,具有误导性的健康信息、暴力极端主义和恐怖主义,以及针对儿童的剥削,这三个领域是急需关注的数字安全议题。

报告作者、世界经济论坛“媒体、娱乐与体育产业”总监Cathy Li在接受界面新闻采访时表示,之所以会圈定到以上三个领域,主要是根据其紧迫性、对弱势群体潜在的危害风险、该内容类别的近期增长情况来确定的。并且在这些领域内有机会更好地推动更好的国际共识与协作。

错误的健康信息

首先,全球大流行之下,对抗具有误导性的健康信息十分紧迫。考虑到疫苗接种的速度需要超过更具传染性的变种的传播,需要纠正诸多关于疫苗接种的错误信息。

解决健康误导问题一直是许多公共卫生官员的首要任务。伦敦国王学院的研究发现,34%的英国人表示,他们曾看到或听到过劝阻公众接种冠状病毒疫苗的信息。最近Axios-Ipsos的一项民意调查显示,被误导的人不太可能接种疫苗。许多平台已经采取了具体行动来打击虚假信息。包括禁用虚假账户,与事实核查机构合作、对虚假信息进行标注。

平台还致力于努力删除有问题的内容。自2020年2月以来,YouTube已经删除了80多万个含有关于新冠的错误信息的视频。YouTube还强调,它们的系统在观看前就能检测出94%有问题的视频。

暴力极端主义和恐怖主义

其次,疫情可能加剧了根深蒂固的社会分歧,恐怖主义获得了某种新的温床。今年初的国会山暴动让人们更深入地了解QAnon等团体如何利用网络进行联动,但这并非今年才出现的新问题。

新西兰皇家委员会的一份报告强调了YouTube在一些恐怖行为中的激化作用。恐怖分子于2019年在克赖斯特彻奇的两座清真寺杀害了51人。这次袭击的视频也在Facebook上被直播与二次传播,随后Facebook不得不删除了150万个包含这些镜头的视频。

关于暴力极端主义和恐怖主义的内容,Cathy Li对界面新闻表示,克赖斯特彻奇和美国国会骚乱事件凸显了仇恨和极端主义意识形态崛起的巨大风险,以及解决这一问题的挑战。全球互联网反恐论坛(GIFCT)最近呼吁改进分类法,表明目前的数据收集和分析做法可能没有充分关注来自本土的行为主体。

对儿童的剥削与虐待

再次,根据该报告,疫情期间网络上儿童性剥削和性虐待材料(CSEAM)的消费和传播也出现了大幅上涨。

未成年人在互联网用户中占了很大一部分,每三个用户中就有一个是18岁以下的。一项调查发现,70%的儿童至少经历过一次网络威胁。更多的儿童被“诱导”,犯罪者通过互联网来创造条件来进行性交易。

根据国际刑警组织在2020年9月的一份报告,在美国,各州关于儿童性虐待材料和诱导的投诉增加了75%至200%不等。Facebook发现超过90%的被投诉内容与此前就已知的内容相似,一半以上的投诉是由六部视频及其副本带来的。欧盟委员会电子隐私指令的最新要求要对数据隐私进行更严格的保护,儿童性虐待材料的投诉量因此下降了46%。

以用户为中心的框架

《报告》显示,多达90%的被调查者认为,由于对“危害”(harm)的定义过于模糊,导致了监管的无效性。《报告》还指出,当前数字媒体生态系统在三个关键领域的运作方式存在缺陷。

第一是缺乏有意义的保护阈值。平台目前报告的指标主要关注已删除内容的绝对数量,但无法根据用户体验提供足够的安全措施。即使诸如“流行率”之类的衡量标准(指用户对有害内容的浏览占所有观看次数的比例)也不能反映某些群体是否由于其性别、种族、民族而更易于在平台上接触这些有害内容。

第二是关于推荐系统中不当影响的标准不足。疫情突出了线上自动推荐中的问题。对于亚马逊推荐算法的最新审计显示,有10.47%的自动推荐都在宣传“误导性健康产品”,对错误信息的点击也往往会影响后来的搜索结果。目前尚不清楚是否以及如何通过广告机制使此类内容更具经济吸引力,它与个人信息的使用有何关联,以及在用户安全方面是否存在利益冲突。

第三是缺乏跨公私部门投诉的相关协议。当用户向平台内部提出投诉时,如何评价投诉的效率?如何进行充分的补救?是解决投诉所需的时间、根据既定政策做出决定的准确性、还是当用户不同意结果时再投诉的便利程度?目前不存在通过行业绩效或其他机制来衡量有效性和效率的投诉协议基线标准,因此无法评估。

针对这些问题,《报告》建议开发一个以用户为中心的框架,并提出了最低伤害阈值、可审计的推荐系统、对用户个人详细信息的使用标准以及充分的投诉协议,以创建使用数字产品和服务的安全基线。

世界经济论坛“媒体、娱乐与信息产业”负责人Farah Lalani告诉界面新闻,与其让平台报告他们从网站上删除了多少有害内容,不如让他们把重点放在提升用户体验上。

“因为最终每个人的体验都是不同的。即使普通用户在平台上观看的大部分内容是安全的,但这并不能解决某些群体由于种族、性别、性取向等原因而更容易成为有害内容的目标这一问题。”

未经正式授权严禁转载本文,侵权必究。

评论

暂无评论哦,快来评价一下吧!

下载界面新闻

微信公众号

微博

世界经济论坛最新报告:数字平台正在制造越来越多的危害

如何创建一个以用户为中心的全球管理框架,来应对线上危害?

来源:视觉中国

记者 | 王磬

全球数十亿人使用的数字平台正在被滥用。

新冠疫情以来,一方面,数字平台成为了传播科学与防疫知识的主要战场,发挥了前所未有的功用。但另一方面,关于病毒的虚假信息也以极快的速度传播开来。

根据国际刑警组织的报告,大流行期间关于儿童性剥削和性虐待的内容有显著增加。今年1月美国国会山发生的暴力袭击事件,也被认为与数字平台散布假消息有关。

在近日发布的报告《推进数字安全:协调全球行动的框架》中,世界经济论坛对政界、商界、学术界和民间的50多位专家进行了访谈。其中75%的受访者认为,网络平台上存在太多“有危害的内容”、但平台对此的行动太少。

报告还指出,具有误导性的健康信息、暴力极端主义和恐怖主义,以及针对儿童的剥削,这三个领域是急需关注的数字安全议题。

报告作者、世界经济论坛“媒体、娱乐与体育产业”总监Cathy Li在接受界面新闻采访时表示,之所以会圈定到以上三个领域,主要是根据其紧迫性、对弱势群体潜在的危害风险、该内容类别的近期增长情况来确定的。并且在这些领域内有机会更好地推动更好的国际共识与协作。

错误的健康信息

首先,全球大流行之下,对抗具有误导性的健康信息十分紧迫。考虑到疫苗接种的速度需要超过更具传染性的变种的传播,需要纠正诸多关于疫苗接种的错误信息。

解决健康误导问题一直是许多公共卫生官员的首要任务。伦敦国王学院的研究发现,34%的英国人表示,他们曾看到或听到过劝阻公众接种冠状病毒疫苗的信息。最近Axios-Ipsos的一项民意调查显示,被误导的人不太可能接种疫苗。许多平台已经采取了具体行动来打击虚假信息。包括禁用虚假账户,与事实核查机构合作、对虚假信息进行标注。

平台还致力于努力删除有问题的内容。自2020年2月以来,YouTube已经删除了80多万个含有关于新冠的错误信息的视频。YouTube还强调,它们的系统在观看前就能检测出94%有问题的视频。

暴力极端主义和恐怖主义

其次,疫情可能加剧了根深蒂固的社会分歧,恐怖主义获得了某种新的温床。今年初的国会山暴动让人们更深入地了解QAnon等团体如何利用网络进行联动,但这并非今年才出现的新问题。

新西兰皇家委员会的一份报告强调了YouTube在一些恐怖行为中的激化作用。恐怖分子于2019年在克赖斯特彻奇的两座清真寺杀害了51人。这次袭击的视频也在Facebook上被直播与二次传播,随后Facebook不得不删除了150万个包含这些镜头的视频。

关于暴力极端主义和恐怖主义的内容,Cathy Li对界面新闻表示,克赖斯特彻奇和美国国会骚乱事件凸显了仇恨和极端主义意识形态崛起的巨大风险,以及解决这一问题的挑战。全球互联网反恐论坛(GIFCT)最近呼吁改进分类法,表明目前的数据收集和分析做法可能没有充分关注来自本土的行为主体。

对儿童的剥削与虐待

再次,根据该报告,疫情期间网络上儿童性剥削和性虐待材料(CSEAM)的消费和传播也出现了大幅上涨。

未成年人在互联网用户中占了很大一部分,每三个用户中就有一个是18岁以下的。一项调查发现,70%的儿童至少经历过一次网络威胁。更多的儿童被“诱导”,犯罪者通过互联网来创造条件来进行性交易。

根据国际刑警组织在2020年9月的一份报告,在美国,各州关于儿童性虐待材料和诱导的投诉增加了75%至200%不等。Facebook发现超过90%的被投诉内容与此前就已知的内容相似,一半以上的投诉是由六部视频及其副本带来的。欧盟委员会电子隐私指令的最新要求要对数据隐私进行更严格的保护,儿童性虐待材料的投诉量因此下降了46%。

以用户为中心的框架

《报告》显示,多达90%的被调查者认为,由于对“危害”(harm)的定义过于模糊,导致了监管的无效性。《报告》还指出,当前数字媒体生态系统在三个关键领域的运作方式存在缺陷。

第一是缺乏有意义的保护阈值。平台目前报告的指标主要关注已删除内容的绝对数量,但无法根据用户体验提供足够的安全措施。即使诸如“流行率”之类的衡量标准(指用户对有害内容的浏览占所有观看次数的比例)也不能反映某些群体是否由于其性别、种族、民族而更易于在平台上接触这些有害内容。

第二是关于推荐系统中不当影响的标准不足。疫情突出了线上自动推荐中的问题。对于亚马逊推荐算法的最新审计显示,有10.47%的自动推荐都在宣传“误导性健康产品”,对错误信息的点击也往往会影响后来的搜索结果。目前尚不清楚是否以及如何通过广告机制使此类内容更具经济吸引力,它与个人信息的使用有何关联,以及在用户安全方面是否存在利益冲突。

第三是缺乏跨公私部门投诉的相关协议。当用户向平台内部提出投诉时,如何评价投诉的效率?如何进行充分的补救?是解决投诉所需的时间、根据既定政策做出决定的准确性、还是当用户不同意结果时再投诉的便利程度?目前不存在通过行业绩效或其他机制来衡量有效性和效率的投诉协议基线标准,因此无法评估。

针对这些问题,《报告》建议开发一个以用户为中心的框架,并提出了最低伤害阈值、可审计的推荐系统、对用户个人详细信息的使用标准以及充分的投诉协议,以创建使用数字产品和服务的安全基线。

世界经济论坛“媒体、娱乐与信息产业”负责人Farah Lalani告诉界面新闻,与其让平台报告他们从网站上删除了多少有害内容,不如让他们把重点放在提升用户体验上。

“因为最终每个人的体验都是不同的。即使普通用户在平台上观看的大部分内容是安全的,但这并不能解决某些群体由于种族、性别、性取向等原因而更容易成为有害内容的目标这一问题。”

未经正式授权严禁转载本文,侵权必究。