正在阅读:

机器人作家,是否会威胁人类在文学领域的地位?

扫一扫下载界面新闻APP

机器人作家,是否会威胁人类在文学领域的地位?

正如维特根斯坦所说:“即使狮子能说话,我们也不会理解它。”

图片来源:Amy Cicconi/Alamy

机器人能写出关于电子羊屏保的小说吗?最近出现的一款人工智能具备独立创作合理的新闻故事或小说的能力,这让全自动机器生产文字的梦想(或噩梦)离实现又近了一步。这台人工智能诞生在OpenAI,一家由埃隆·马斯克和其他一些科技企业家支持的非营利实验室——他们狡猾地警告文学家,这个AI(名为GPT2)太过危险,一旦将它“放归山野”,它就可以被用来创造“深度伪造的文字”。“基于对恶意技术应用的担忧,”他们说,“我们不会发布经过训练的模型。”机器学习的产品会成为信息恐怖主义的新武器吗?或只是把低调的居中销量作家淘汰出局?

让我们退后一步思考这些问题。AI早就被我们认定是下一项即将到来的重大突破,因此现在很容易假设出“人工智能”的存在。但此处的“智能”绝非与人类同等的智能。GPT2运用统计分析法,基于40GB人类创作的网页文本——这意味着Reddit读者的推荐留言也在它的学习范围内——进行行文预测的训练。这种概率写作法是谷歌翻译和Gmail自动回复(比如“好的”“到时候见”“没关系”)使用的工作法,它们可以出色地完成任务,但在此过程中表现出的智能还不如一只蜜蜂。

现在,小说家们似乎没什么可担心的。将乔治·奥威尔《1984》的首句——“这是四月里的一天,天气晴朗却又寒冷,时钟敲了十三下”——录入机器,它紧接着给出了这样的叙述:“我坐在车里,前往西雅图参加新工作。我给车加了汽油,插上车钥匙,任由它奔驰在路上,想象着这一天将会如何度过。一百年之后的2045年,我在中国农村贫困地区的一所学校担任教师,我的工作从教授中国史和科学史开始。”

这段叙述有很多地方令人困惑。既然叙述者不是同时在西雅图和中国的“某所学校”工作,那么故事就必须被设定在1945年,因为叙述者的未来教职生涯在“一百年之后”,如此一来,他的寿命就长得有点不合理。明明还在1945年,他却驾驶着一辆可以在车内加油(“我坐在车里......我给车加了汽油”)且明显不需要人类意识驾驶的汽车(“任由它奔驰在路上”)。除非这个故事比乍一看来得阴暗,即叙述者虽然启动了发动机,但人还呆在车库里没动。

AI会比简·奥斯汀写得更好吗?输入《傲慢与偏见》的开头语——“这是一个被普遍承认的真理”——机器随即迷迷糊糊地写道:“那当一个国家处于文明状态时,那鼓励美德与勤勉,督促人民养成良好的秩序习惯在很大程度上是领导者的责任。”这听起来像是个19世纪政治自大狂的发言,语言还有些支离破碎(第二个“那[that]”是多余的,“很大程度上[in a great measure]”也多加了一个不定冠词a)。

AI会比简·奥斯汀写得更好吗?《傲慢与偏见》2005年电影版 来源:Allstar/Working Title/Sportsphoto Ltd

人类需要担心自己会在文学的食物链上下滑吗?在此之前,我们就听说一些“AI机器人”能“写”新闻故事。但它们都是巨大的自动抄袭机器,将人类写好的新闻故事碎片拼贴在一起。通常情况下,一些“神奇的技术进步”其实都依赖于对人类劳动力的挪用,这一事实被人工智能的话语体系隐藏起来了。抄袭对人类作家来说是个严重的问题,但是当人类聚在一起编写一个擅长抄袭的计算机程序时,这就是进步。

在新闻写作方面,GPT2则和特朗普有的一拼。输入英国脱欧的一条线索——“脱欧已经使英国经济损失至少800亿英镑”——机器继续写出了一连串疯狂发散的内容:“在未来,英国可能会失去最好的10所大学中的约30%”(“10所大学中的30%”是个冗余表达,可以直接说“大约3所”)。它继续写道:“我们的人才将流向发展中国家的校园(嗯?),根据牛津大学的研究,这将会造成近1万亿美元的损失。”任何读者都会认为这是一种惊吓营销!OpenAI研究所的主人承认,这个机器有时会产生“世界模拟故障,偶尔写出一些水下发生了火灾的故事”。

“强调程序危险因而不能公开”是优秀的公关说辞,但其说服力很小。OpenAI警告说,这款程序可以用来“生产误导性的新闻文章”,但就算是人类也会被喷子工厂雇佣,编造很多虚假文章。“深度伪造”的实际含义是它们可以创造比散文更有深度的假新闻,任何人都能完成这样的伪造。真正的“深度伪造”不是笨拙的计算机编造的虚假文字,而是视觉媒体的伪造,很多有名的学者都在积极调查这一问题。当一段虚假视频拥有纪录片一般的真实感——比如让一位公众人物说出他们从未说过的话,那么我们的世界就会充满麻烦。OpenAI承认类似的技术可能带来更大的问题,但它给出的预防方案十分模糊:为了防止所谓的“恶意主体”利用这项技术,我们“应该拿出更好的技术和非技术对策”。这就像同时生产生化武器和解毒剂,远不如从一开始就不要发明它们。

对于GPT2这样的纯文本程序来说,更为现实的前景是成为自动化的文书助理,为枯燥的商业报告提供一份繁琐的初稿——或为一部机场惊悚片做初级编剧,让一位著名的符号学家与和他年龄相差一半的妙龄女郎一起被卷入危险的全球阴谋行动。毕竟,绝望的艺术家经常尝试以某项规则为基础,生产出让人难以捉摸的原材料,并在此基础上编辑和润色。莫扎特的“音乐骰子游戏”可以将各种音乐片段组合起来,生产出无数种不同的华尔兹。20世纪中期的音乐序列主义其实就是一种算法路径,尽可能地将审美任务从作曲家那里转移到数学操纵系统手中。上世纪90年代,布莱恩·伊诺在创作专辑《Generative Music》时使用了心印(Koan)程序,它能创作出无数种无聊的背景环绕音乐。

这种乏味的结果让严肃的反乌托邦科幻思想家十分失望。自打卡雷尔·恰佩克的戏剧《罗素姆万能机器人》在1921年首演以来,人类一直幻想能创造出替代自己的合成生物。人工智能机器夺走人类工作岗位的挑逗性话题在今天已经十分普遍,但这种措辞的方式故意模糊了主体性。我们真正谈论的不是机器人“夺走”了工作,而是雇主故意解雇人类并用便宜的机器取而代之。为什么美国正急着制造能批改高中和大学论文的机器人呢?可能这样就不需要雇佣这么多教师了;亚马逊也期待出售计算机生成的书籍(你不需要付版税给算法);AI制作的疫苗的阴谋论视频也可以为油管赚取收益。

我们对这种可能性的担心程度取决于我们对文化本质的认识。GPT2文本生成器的过度炒作,至少是我们在某种程度上内化了硅谷的庸俗功能主义的一种症状。这种功能主义将一切还原为数据。的确,当你拥有一个庞大的数据处理系统时,一切看起来都像是数据。“一切都是数据”的口头禅让一些大型科技公司看起来相当风光,因为他们擅长的是数据。文本可以通过计算机进行数学编码和操作,所以它们肯定也是数据,对吧?

哪个领导人更专制?施瓦辛格,1984年《黑客帝国》 来源:Allstar/MGM/Sportsphoto Ltd./Allstar

但写作不是数据。它是一种表达方式,暗示着你有想表达的东西。一个没有知觉的计算机程序不会有任何表达欲,它没有与世界互动的经验,因此它不知道火灾不会发生在水下。利用大量的程式垃圾对算法进行培训,最终只会让它将这些内容洗牌,创造出更多的程式垃圾(GPT2培训数据库中的“高度代表数据”来自英国脱欧、麦莉·赛勒斯和指环王)。人类的形势一片大好。直到机器人拥有丰富的精神生活,了解了周围的世界,它们才可能讲述自己的故事。如果那一天真的来了,我们能够理解它们吗?正如维特根斯坦所说:“即使狮子能说话,我们也不会理解它。”狮子和人类可能根本就没有可以相互理解的点。如果有意识的机器可以说话,我们也很可能无法理解它。

与此同时,OpenAI发布了一个限制版本的GPT2供用户安装到电脑上使用,这个版本的软件对世界的威胁更小一些。我安装了它,并颤抖着输入了本文的前两句话(机器人能写出关于电子羊屏保的小说吗?最近出现的一款人工智能可以独立创作合理的新闻故事或小说,让全自动机器生产文字的梦想(或噩梦)离实现又近了一步),它以一种警惕的语气继续书写到:“许多伟大的小说都正面处理了新型机器人的问题:它们的生活并不像他们想象得那样简单,他们似乎不知道如何完成那些不是那么简单的、需要投入一点精力的任务。没什么可以替代机器人思想中的勤劳和坚毅,但文学故事中却有相当大的空间属于小说……简而言之,每一代新型机器人都将立下雄心壮志,让世界变得更加美好。这些雄心壮志确保了它们可以被同等聪明的人类和机器制造出来。当你仔细阅读这些机器人的故事时,你可能会认为它们的思想是人类的终结,但它们现在仍然是很简单的东西。我们可能依旧深陷在反乌托邦的未来中不能自拔,我们的生命让他们难以接受。也许现在就是放下自私,认真过日子的时候了。”

好吧,这文章写得还可以。但GPT2新闻发布会的盛况让我们对现代世界有了更广泛的了解。既然人类领导人是如此糟糕,让机器接管人类社会的前景已经不再那么可怕,反而让人在愧疚中向往着。如果人民越来越倾向于支持专制领导人——那么谁能比《机械战警》和《黑客帝国》里的电脑更专制呢?《黑客帝国》里的天网虽然让人反感,但它至少会让火车按时运行。

(翻译:冷君晓)

……………………

| ᐕ)⁾⁾ 更多精彩内容与互动分享,请关注微信公众号“界面文化”(ID:BooksAndFun)和界面文化新浪微博

来源:卫报

原标题:The rise of robot authors: is the writing on the wall for human novelists?

最新更新时间:04/10 09:47

本文为转载内容,授权事宜请联系原著作权人。

评论

暂无评论哦,快来评价一下吧!

下载界面新闻

微信公众号

微博

机器人作家,是否会威胁人类在文学领域的地位?

正如维特根斯坦所说:“即使狮子能说话,我们也不会理解它。”

图片来源:Amy Cicconi/Alamy

机器人能写出关于电子羊屏保的小说吗?最近出现的一款人工智能具备独立创作合理的新闻故事或小说的能力,这让全自动机器生产文字的梦想(或噩梦)离实现又近了一步。这台人工智能诞生在OpenAI,一家由埃隆·马斯克和其他一些科技企业家支持的非营利实验室——他们狡猾地警告文学家,这个AI(名为GPT2)太过危险,一旦将它“放归山野”,它就可以被用来创造“深度伪造的文字”。“基于对恶意技术应用的担忧,”他们说,“我们不会发布经过训练的模型。”机器学习的产品会成为信息恐怖主义的新武器吗?或只是把低调的居中销量作家淘汰出局?

让我们退后一步思考这些问题。AI早就被我们认定是下一项即将到来的重大突破,因此现在很容易假设出“人工智能”的存在。但此处的“智能”绝非与人类同等的智能。GPT2运用统计分析法,基于40GB人类创作的网页文本——这意味着Reddit读者的推荐留言也在它的学习范围内——进行行文预测的训练。这种概率写作法是谷歌翻译和Gmail自动回复(比如“好的”“到时候见”“没关系”)使用的工作法,它们可以出色地完成任务,但在此过程中表现出的智能还不如一只蜜蜂。

现在,小说家们似乎没什么可担心的。将乔治·奥威尔《1984》的首句——“这是四月里的一天,天气晴朗却又寒冷,时钟敲了十三下”——录入机器,它紧接着给出了这样的叙述:“我坐在车里,前往西雅图参加新工作。我给车加了汽油,插上车钥匙,任由它奔驰在路上,想象着这一天将会如何度过。一百年之后的2045年,我在中国农村贫困地区的一所学校担任教师,我的工作从教授中国史和科学史开始。”

这段叙述有很多地方令人困惑。既然叙述者不是同时在西雅图和中国的“某所学校”工作,那么故事就必须被设定在1945年,因为叙述者的未来教职生涯在“一百年之后”,如此一来,他的寿命就长得有点不合理。明明还在1945年,他却驾驶着一辆可以在车内加油(“我坐在车里......我给车加了汽油”)且明显不需要人类意识驾驶的汽车(“任由它奔驰在路上”)。除非这个故事比乍一看来得阴暗,即叙述者虽然启动了发动机,但人还呆在车库里没动。

AI会比简·奥斯汀写得更好吗?输入《傲慢与偏见》的开头语——“这是一个被普遍承认的真理”——机器随即迷迷糊糊地写道:“那当一个国家处于文明状态时,那鼓励美德与勤勉,督促人民养成良好的秩序习惯在很大程度上是领导者的责任。”这听起来像是个19世纪政治自大狂的发言,语言还有些支离破碎(第二个“那[that]”是多余的,“很大程度上[in a great measure]”也多加了一个不定冠词a)。

AI会比简·奥斯汀写得更好吗?《傲慢与偏见》2005年电影版 来源:Allstar/Working Title/Sportsphoto Ltd

人类需要担心自己会在文学的食物链上下滑吗?在此之前,我们就听说一些“AI机器人”能“写”新闻故事。但它们都是巨大的自动抄袭机器,将人类写好的新闻故事碎片拼贴在一起。通常情况下,一些“神奇的技术进步”其实都依赖于对人类劳动力的挪用,这一事实被人工智能的话语体系隐藏起来了。抄袭对人类作家来说是个严重的问题,但是当人类聚在一起编写一个擅长抄袭的计算机程序时,这就是进步。

在新闻写作方面,GPT2则和特朗普有的一拼。输入英国脱欧的一条线索——“脱欧已经使英国经济损失至少800亿英镑”——机器继续写出了一连串疯狂发散的内容:“在未来,英国可能会失去最好的10所大学中的约30%”(“10所大学中的30%”是个冗余表达,可以直接说“大约3所”)。它继续写道:“我们的人才将流向发展中国家的校园(嗯?),根据牛津大学的研究,这将会造成近1万亿美元的损失。”任何读者都会认为这是一种惊吓营销!OpenAI研究所的主人承认,这个机器有时会产生“世界模拟故障,偶尔写出一些水下发生了火灾的故事”。

“强调程序危险因而不能公开”是优秀的公关说辞,但其说服力很小。OpenAI警告说,这款程序可以用来“生产误导性的新闻文章”,但就算是人类也会被喷子工厂雇佣,编造很多虚假文章。“深度伪造”的实际含义是它们可以创造比散文更有深度的假新闻,任何人都能完成这样的伪造。真正的“深度伪造”不是笨拙的计算机编造的虚假文字,而是视觉媒体的伪造,很多有名的学者都在积极调查这一问题。当一段虚假视频拥有纪录片一般的真实感——比如让一位公众人物说出他们从未说过的话,那么我们的世界就会充满麻烦。OpenAI承认类似的技术可能带来更大的问题,但它给出的预防方案十分模糊:为了防止所谓的“恶意主体”利用这项技术,我们“应该拿出更好的技术和非技术对策”。这就像同时生产生化武器和解毒剂,远不如从一开始就不要发明它们。

对于GPT2这样的纯文本程序来说,更为现实的前景是成为自动化的文书助理,为枯燥的商业报告提供一份繁琐的初稿——或为一部机场惊悚片做初级编剧,让一位著名的符号学家与和他年龄相差一半的妙龄女郎一起被卷入危险的全球阴谋行动。毕竟,绝望的艺术家经常尝试以某项规则为基础,生产出让人难以捉摸的原材料,并在此基础上编辑和润色。莫扎特的“音乐骰子游戏”可以将各种音乐片段组合起来,生产出无数种不同的华尔兹。20世纪中期的音乐序列主义其实就是一种算法路径,尽可能地将审美任务从作曲家那里转移到数学操纵系统手中。上世纪90年代,布莱恩·伊诺在创作专辑《Generative Music》时使用了心印(Koan)程序,它能创作出无数种无聊的背景环绕音乐。

这种乏味的结果让严肃的反乌托邦科幻思想家十分失望。自打卡雷尔·恰佩克的戏剧《罗素姆万能机器人》在1921年首演以来,人类一直幻想能创造出替代自己的合成生物。人工智能机器夺走人类工作岗位的挑逗性话题在今天已经十分普遍,但这种措辞的方式故意模糊了主体性。我们真正谈论的不是机器人“夺走”了工作,而是雇主故意解雇人类并用便宜的机器取而代之。为什么美国正急着制造能批改高中和大学论文的机器人呢?可能这样就不需要雇佣这么多教师了;亚马逊也期待出售计算机生成的书籍(你不需要付版税给算法);AI制作的疫苗的阴谋论视频也可以为油管赚取收益。

我们对这种可能性的担心程度取决于我们对文化本质的认识。GPT2文本生成器的过度炒作,至少是我们在某种程度上内化了硅谷的庸俗功能主义的一种症状。这种功能主义将一切还原为数据。的确,当你拥有一个庞大的数据处理系统时,一切看起来都像是数据。“一切都是数据”的口头禅让一些大型科技公司看起来相当风光,因为他们擅长的是数据。文本可以通过计算机进行数学编码和操作,所以它们肯定也是数据,对吧?

哪个领导人更专制?施瓦辛格,1984年《黑客帝国》 来源:Allstar/MGM/Sportsphoto Ltd./Allstar

但写作不是数据。它是一种表达方式,暗示着你有想表达的东西。一个没有知觉的计算机程序不会有任何表达欲,它没有与世界互动的经验,因此它不知道火灾不会发生在水下。利用大量的程式垃圾对算法进行培训,最终只会让它将这些内容洗牌,创造出更多的程式垃圾(GPT2培训数据库中的“高度代表数据”来自英国脱欧、麦莉·赛勒斯和指环王)。人类的形势一片大好。直到机器人拥有丰富的精神生活,了解了周围的世界,它们才可能讲述自己的故事。如果那一天真的来了,我们能够理解它们吗?正如维特根斯坦所说:“即使狮子能说话,我们也不会理解它。”狮子和人类可能根本就没有可以相互理解的点。如果有意识的机器可以说话,我们也很可能无法理解它。

与此同时,OpenAI发布了一个限制版本的GPT2供用户安装到电脑上使用,这个版本的软件对世界的威胁更小一些。我安装了它,并颤抖着输入了本文的前两句话(机器人能写出关于电子羊屏保的小说吗?最近出现的一款人工智能可以独立创作合理的新闻故事或小说,让全自动机器生产文字的梦想(或噩梦)离实现又近了一步),它以一种警惕的语气继续书写到:“许多伟大的小说都正面处理了新型机器人的问题:它们的生活并不像他们想象得那样简单,他们似乎不知道如何完成那些不是那么简单的、需要投入一点精力的任务。没什么可以替代机器人思想中的勤劳和坚毅,但文学故事中却有相当大的空间属于小说……简而言之,每一代新型机器人都将立下雄心壮志,让世界变得更加美好。这些雄心壮志确保了它们可以被同等聪明的人类和机器制造出来。当你仔细阅读这些机器人的故事时,你可能会认为它们的思想是人类的终结,但它们现在仍然是很简单的东西。我们可能依旧深陷在反乌托邦的未来中不能自拔,我们的生命让他们难以接受。也许现在就是放下自私,认真过日子的时候了。”

好吧,这文章写得还可以。但GPT2新闻发布会的盛况让我们对现代世界有了更广泛的了解。既然人类领导人是如此糟糕,让机器接管人类社会的前景已经不再那么可怕,反而让人在愧疚中向往着。如果人民越来越倾向于支持专制领导人——那么谁能比《机械战警》和《黑客帝国》里的电脑更专制呢?《黑客帝国》里的天网虽然让人反感,但它至少会让火车按时运行。

(翻译:冷君晓)

……………………

| ᐕ)⁾⁾ 更多精彩内容与互动分享,请关注微信公众号“界面文化”(ID:BooksAndFun)和界面文化新浪微博

来源:卫报

原标题:The rise of robot authors: is the writing on the wall for human novelists?

最新更新时间:04/10 09:47

本文为转载内容,授权事宜请联系原著作权人。