正在阅读:

逐条辨析OpenAI 声明:AI训练使用媒体内容谁是谁非?

扫一扫下载界面新闻APP

逐条辨析OpenAI 声明:AI训练使用媒体内容谁是谁非?

针对《纽约时报》的诉讼,OpenAI提出了四点立场。

当地时间2023年12月27日,美国纽约,纽约时报大厦。来源:视觉中国

文丨游云庭(上海大邦律师事务所高级合伙人,知识产权律师。)

2023年底,《纽约时报》起诉ChatGPT的开发者OpenAI和其伙伴微软公司的案件引发了全球关注,近日OpenAI基金会在公司网站发布博客《OpenAI与新闻业》,称:我们支持新闻业,与新闻机构合作,并认为《纽约时报》的诉讼毫无根据。今天就结合该博客的内容,跟大家分享一下笔者的看法:

OpenAI称:

我们的目标是开发人工智能工具,让人们有能力解决那些遥不可及的问题。世界各地的人们已经在使用我们的技术来改善他们的日常生活。如今,数百万开发人员和超过92%的财富500强企业都在使用我们的产品。虽然我们不同意《纽约时报》诉讼中的说法,但我们认为这是一个澄清我们的业务、意图以及我们如何构建技术的机会。

OpenAI将其立场可以概括为以下四点:

1.我们与新闻机构合作,创造新的机会

我们在技术设计过程中努力为新闻机构提供支持。我们已经与数十家新闻机构以及新闻/媒体联盟等领先的行业组织会面,探讨机会,讨论他们的担忧,并提供解决方案。我们的目标是学习、教育、听取反馈并进行调整。

我们的目标是支持健康的新闻生态系统,成为良好的合作伙伴,创造互惠互利的机会。有鉴于此,我们寻求与新闻机构建立合作伙伴关系,以实现这些目标:

部署我们的产品,通过协助分析大量公共记录和翻译报道等耗时的任务,为记者和编辑提供帮助和支持。通过对更多历史、非公开内容的训练,让我们的人工智能模型了解世界。在ChatGPT中显示实时内容并注明出处,为新闻出版商提供与读者联系的新方式。我们与美联社、阿克塞尔-施普林格(Axel Springer)、美国新闻项目(American Journalism Project)和纽约大学(NYU)的早期合作让我们了解了我们的方法。

笔者的评注:

这部分内容说的是OpenAI人工智能服务的正向价值。但“在 ChatGPT中显示实时内容并注明出处,为新闻出版商提供与读者联系的新方式”只是他们的想法,现实的情况恰恰相反,《纽约时报》起诉OpenAI的诉状第184段也提到:根据原告获得的信息和观点,被告在建立包含数百万份《纽约时报》的训练数据集中删除了《纽约时报》的版权管理信息(“CMI”Copyright Management Information),包括《纽约时报》作品以及从第三方数据集中复制的《纽约时报》作品。

笔者在介绍开源软件开发人员起诉OpenAI的文章《GitHub上的开源代码训练人工智能违法吗?》一文中提到过“原告认为,当他们的代码被用作训练数据时,代码附带的开源许可证的版权管理信息被(OpenAI)删除了。

下为OpenAI的第二点立场:

2.训练是合理使用,但我们提供了退出选项,因为这样做是正确的

使用公开可用的互联网资料训练人工智能模型是合理使用,这一点得到了长期广泛接受的先例的支持。我们认为这一原则对创造者是公平的,对创新者是必要的,对美国的竞争力也是至关重要的。

最近向美国版权局提交意见的众多学者、图书馆协会、民间社会团体、初创企业、美国领先公司、创作者、作者等都支持允许将训练人工智能模型作为合理使用的原则。其他地区和国家,包括欧盟、日本、新加坡和以色列,也有允许在受版权保护的内容上训练模型的法律——这是人工智能创新、进步和投资的优势。

尽管如此,对我们来说,法律权利并不重要,重要的是做一个好公民。我们在人工智能行业中处于领先地位,为出版商提供了一个简单的退出程序(《纽约时报》于 2023 年8月采用了这一程序),以防止我们的工具访问他们的网站。

笔者的评注:

著作权法上的合理使用是要有法律明确规定的,比如OpenAI举例中的日本《著作权法》就确实有这个规定,我国《著作权法》第24条也规定了合理使用,比如为个人学习研究欣赏使用、为介绍评论作品或说明问题适当引用作、为报道新闻,媒体不可避免再现或引用作品、教学科研使用,但不得出版发行等13种情况。

但就人工智能使用他人版权作品,笔者个人认为较难归入上述合理使用法定情形。当然,就像前不久北京互联网法院为了保护新兴产业,认定产生人工智能图画的提示词受版权保护一样,不排除此类案件法院审理中认为人工智能作为新生事物需要保护,也将其归入某一种合理使用的可能性。

关于“为出版商提供了一个简单的退出程序”,其实是一个爬虫屏蔽功能,只要在网站的Robots.txt文件中加入屏蔽OpenAI爬虫的描述,OpenAI就不会抓取网站的内容进行训练。这个功能的使用方法和网站屏蔽搜索引擎爬虫的功能基本一样。

但《纽约时报》起诉OpenAI可不是屏蔽爬虫那么简单的事情。首先,谷歌百度这样的搜索引擎,其爬取网站的内容后会给网站引流,引导用户访问被爬取内容的网站,用户或者点击网站的广告,或者支付费用访问付费墙后的新闻,达到搜索引擎和网站双赢的生态效果。而OpenAI的做法并非如此,笔者在《《纽约时报》起诉OpenAI和微软,重量级媒体关注AI哪些侵权责任?》一文中有描述:

不同于传统搜索引擎只显示网页摘要,(由OpenAI支持的)必应搜索引擎页面上的“合成”搜索结果可以直接回答用户查询,并且可能将《纽约时报》报道中广泛的内容进行释义和直接引用。对于《纽约时报》而言,这种方式实际意味着替代,用户无需访问其网站就可以使用他们的内容,这将导致商业利益受损。

OpenAI的第三点立场:

3.“反流"是一个罕见的错误,我们正在努力将其消灭为零。

我们设计和训练模型的目的是学习概念,以便将其应用于新问题。死记硬背是学习过程中的一种罕见故障,我们正在不断加以解决,但当特定内容在训练数据中出现不止一次时,这种故障就比较常见了,例如,如果这些内容的片段出现在许多不同的公共网站上。因此,我们采取了一些措施来限制无意中的记忆,防止在模型输出中出现重复内容。我们也希望我们的用户能够负责任地行事;故意操纵我们的模型进行反流(反流,英文为Regurgitation,医学名词,也称“反刍”,指经过咀嚼的食物从胃返回到嘴里,笔者注)不是对我们技术的适当使用,也违反了我们的使用条款。

正如人类接受广泛的教育以学习如何解决新问题一样,我们也希望我们的人工智能模型能观察到世界上的各种信息,包括来自各种语言、文化和行业的信息。由于模型是从人类知识的巨大集合中学习的,因此任何一个领域——包括新闻——都只是整个训练数据的一小部分,任何一个数据源——包括《纽约时报》——对模型的专门学习都没有意义。

笔者的评注:

包括OpenAI、 Meta在内的大语言模型公司都认为,人工智能接受数据的训练方式不同于计算机的简单复制,而是通过大量数据的训练,了解每个词在不同环境下的各种含义,因此其并不包含或者存储训练的数据副本。所以训练数据对模型的意义主要在于帮助模型更好的理解单词的意义,这也是OpenAI断言新闻数据和《纽约时报》数据源对于模型的专门学习都没有意义的原因。

OpenAI认为,其已经采取了一些措施来限制无意中的记忆,防止在模型输出中出现重复内容,其社交媒体上确实也有这个记录。但《纽约时报》证明,输入提示词,ChatGPT就可以把其原始新闻反馈给用户。前一部分中,OpenAI说《纽约时报》已经于2023年8月屏蔽了其爬虫,但《纽约时报》诉状中列举的巴以加沙战争的新闻证据是10月份的,所以OpenAI在博客中说,这些内容不仅出现在《纽约时报》网站,也出现在许多不同的公共网站上。

同时,OpenAI还认为,《纽约时报》取证时故意操纵ChatGPT进行反流,违反了其用户条款。故意操纵应该指《纽约时报》取证时的提示词是特殊的,比如新闻的第一句话,而非用户常用的“提供加沙战争新闻”及类似方式。这里的用户条款应该指的是其用户协议中的规定:不得将OpenAI的服务用于任何非法、有害或滥用行为。例如,以侵犯、盗用或违反他人权利的方式使用我们的服务。可能OpenAI认为用户利用其技术漏洞输入提示词得到侵犯版权的训练材料信息,也属于以侵权方式使用其服务。

最后,OpenAI声称,“《纽约时报》没有讲述全部故事”:

在12月19日的最后一次沟通中,我们与《纽约时报》的讨论似乎取得了建设性进展。谈判的重点是围绕 ChatGPT中的实时显示和归因建立高价值的合作伙伴关系,《纽约时报》将通过这种新方式与他们的现有读者和新读者建立联系,而我们的用户则可以访问他们的报道。我们曾向《纽约时报》解释说,与任何单一来源一样,他们的内容对我们现有模型的训练没有任何意义,对未来的训练也没有足够的影响。他们在12月27日提起的诉讼——我们是通过阅读《纽约时报》得知的——让我们感到意外和失望。

一路走来,他们曾提到看到一些重复他们内容的情况,但一再拒绝分享任何实例,尽管我们承诺调查并解决任何问题。我们已经证明了我们是如何认真对待这一优先事项的,例如在7月份,当我们得知 ChatGPT功能可能会以非预期的方式复制实时内容后,我们立即关闭了该功能。

有趣的是,《纽约时报》诱导转载的内容似乎来自多年前的文章,而这些文章已在多个第三方网站上泛滥。为了让我们的模型进行反流,他们似乎有意篡改了提示语,通常包括冗长的文章节选。即使在使用此类提示时,我们的模型通常也不会像《纽约时报》影射的那样,这表明他们要么是指示模型进行反流,要么是从众多尝试中挑选出的例子。

尽管《纽约时报》声称,这种误用并非典型或允许的用户行为,也不能替代《纽约时报》。无论如何,我们正在不断提高我们系统的抗逆性,以抵御反流训练数据的攻击,并已在我们最近的模型中取得了很大进展。

我们认为《纽约时报》的诉讼毫无根据。尽管如此,我们仍希望与《纽约时报》建立建设性的合作关系,并尊重其悠久的历史,其中包括 60 多年前报道第一个工作神经网络和捍卫第一修正案规定的自由。

我们期待与新闻机构继续合作,通过实现人工智能的变革潜力,帮助提升他们制作高质量新闻的能力。

笔者的评注:

这部分除了介绍诉讼前双方的交流,其他内容主要是总结,OpenAI告诉大家,他们有技术措施防止受版权保护的训练素材被重现给用户,他们还是希望和《纽约时报》合作并帮助新闻行业。

 

(文章仅代表作者观点。责编邮箱:yanguihua@jiemian.com。)

 

本文为转载内容,授权事宜请联系原著作权人。

OpenAI

  • 直接发钱如何影响就业?OpenAI资助的试验出结果了
  • OpenAI:如果新模型超出“中等”风险阈值,将不会发布

评论

暂无评论哦,快来评价一下吧!

下载界面新闻

微信公众号

微博

逐条辨析OpenAI 声明:AI训练使用媒体内容谁是谁非?

针对《纽约时报》的诉讼,OpenAI提出了四点立场。

当地时间2023年12月27日,美国纽约,纽约时报大厦。来源:视觉中国

文丨游云庭(上海大邦律师事务所高级合伙人,知识产权律师。)

2023年底,《纽约时报》起诉ChatGPT的开发者OpenAI和其伙伴微软公司的案件引发了全球关注,近日OpenAI基金会在公司网站发布博客《OpenAI与新闻业》,称:我们支持新闻业,与新闻机构合作,并认为《纽约时报》的诉讼毫无根据。今天就结合该博客的内容,跟大家分享一下笔者的看法:

OpenAI称:

我们的目标是开发人工智能工具,让人们有能力解决那些遥不可及的问题。世界各地的人们已经在使用我们的技术来改善他们的日常生活。如今,数百万开发人员和超过92%的财富500强企业都在使用我们的产品。虽然我们不同意《纽约时报》诉讼中的说法,但我们认为这是一个澄清我们的业务、意图以及我们如何构建技术的机会。

OpenAI将其立场可以概括为以下四点:

1.我们与新闻机构合作,创造新的机会

我们在技术设计过程中努力为新闻机构提供支持。我们已经与数十家新闻机构以及新闻/媒体联盟等领先的行业组织会面,探讨机会,讨论他们的担忧,并提供解决方案。我们的目标是学习、教育、听取反馈并进行调整。

我们的目标是支持健康的新闻生态系统,成为良好的合作伙伴,创造互惠互利的机会。有鉴于此,我们寻求与新闻机构建立合作伙伴关系,以实现这些目标:

部署我们的产品,通过协助分析大量公共记录和翻译报道等耗时的任务,为记者和编辑提供帮助和支持。通过对更多历史、非公开内容的训练,让我们的人工智能模型了解世界。在ChatGPT中显示实时内容并注明出处,为新闻出版商提供与读者联系的新方式。我们与美联社、阿克塞尔-施普林格(Axel Springer)、美国新闻项目(American Journalism Project)和纽约大学(NYU)的早期合作让我们了解了我们的方法。

笔者的评注:

这部分内容说的是OpenAI人工智能服务的正向价值。但“在 ChatGPT中显示实时内容并注明出处,为新闻出版商提供与读者联系的新方式”只是他们的想法,现实的情况恰恰相反,《纽约时报》起诉OpenAI的诉状第184段也提到:根据原告获得的信息和观点,被告在建立包含数百万份《纽约时报》的训练数据集中删除了《纽约时报》的版权管理信息(“CMI”Copyright Management Information),包括《纽约时报》作品以及从第三方数据集中复制的《纽约时报》作品。

笔者在介绍开源软件开发人员起诉OpenAI的文章《GitHub上的开源代码训练人工智能违法吗?》一文中提到过“原告认为,当他们的代码被用作训练数据时,代码附带的开源许可证的版权管理信息被(OpenAI)删除了。

下为OpenAI的第二点立场:

2.训练是合理使用,但我们提供了退出选项,因为这样做是正确的

使用公开可用的互联网资料训练人工智能模型是合理使用,这一点得到了长期广泛接受的先例的支持。我们认为这一原则对创造者是公平的,对创新者是必要的,对美国的竞争力也是至关重要的。

最近向美国版权局提交意见的众多学者、图书馆协会、民间社会团体、初创企业、美国领先公司、创作者、作者等都支持允许将训练人工智能模型作为合理使用的原则。其他地区和国家,包括欧盟、日本、新加坡和以色列,也有允许在受版权保护的内容上训练模型的法律——这是人工智能创新、进步和投资的优势。

尽管如此,对我们来说,法律权利并不重要,重要的是做一个好公民。我们在人工智能行业中处于领先地位,为出版商提供了一个简单的退出程序(《纽约时报》于 2023 年8月采用了这一程序),以防止我们的工具访问他们的网站。

笔者的评注:

著作权法上的合理使用是要有法律明确规定的,比如OpenAI举例中的日本《著作权法》就确实有这个规定,我国《著作权法》第24条也规定了合理使用,比如为个人学习研究欣赏使用、为介绍评论作品或说明问题适当引用作、为报道新闻,媒体不可避免再现或引用作品、教学科研使用,但不得出版发行等13种情况。

但就人工智能使用他人版权作品,笔者个人认为较难归入上述合理使用法定情形。当然,就像前不久北京互联网法院为了保护新兴产业,认定产生人工智能图画的提示词受版权保护一样,不排除此类案件法院审理中认为人工智能作为新生事物需要保护,也将其归入某一种合理使用的可能性。

关于“为出版商提供了一个简单的退出程序”,其实是一个爬虫屏蔽功能,只要在网站的Robots.txt文件中加入屏蔽OpenAI爬虫的描述,OpenAI就不会抓取网站的内容进行训练。这个功能的使用方法和网站屏蔽搜索引擎爬虫的功能基本一样。

但《纽约时报》起诉OpenAI可不是屏蔽爬虫那么简单的事情。首先,谷歌百度这样的搜索引擎,其爬取网站的内容后会给网站引流,引导用户访问被爬取内容的网站,用户或者点击网站的广告,或者支付费用访问付费墙后的新闻,达到搜索引擎和网站双赢的生态效果。而OpenAI的做法并非如此,笔者在《《纽约时报》起诉OpenAI和微软,重量级媒体关注AI哪些侵权责任?》一文中有描述:

不同于传统搜索引擎只显示网页摘要,(由OpenAI支持的)必应搜索引擎页面上的“合成”搜索结果可以直接回答用户查询,并且可能将《纽约时报》报道中广泛的内容进行释义和直接引用。对于《纽约时报》而言,这种方式实际意味着替代,用户无需访问其网站就可以使用他们的内容,这将导致商业利益受损。

OpenAI的第三点立场:

3.“反流"是一个罕见的错误,我们正在努力将其消灭为零。

我们设计和训练模型的目的是学习概念,以便将其应用于新问题。死记硬背是学习过程中的一种罕见故障,我们正在不断加以解决,但当特定内容在训练数据中出现不止一次时,这种故障就比较常见了,例如,如果这些内容的片段出现在许多不同的公共网站上。因此,我们采取了一些措施来限制无意中的记忆,防止在模型输出中出现重复内容。我们也希望我们的用户能够负责任地行事;故意操纵我们的模型进行反流(反流,英文为Regurgitation,医学名词,也称“反刍”,指经过咀嚼的食物从胃返回到嘴里,笔者注)不是对我们技术的适当使用,也违反了我们的使用条款。

正如人类接受广泛的教育以学习如何解决新问题一样,我们也希望我们的人工智能模型能观察到世界上的各种信息,包括来自各种语言、文化和行业的信息。由于模型是从人类知识的巨大集合中学习的,因此任何一个领域——包括新闻——都只是整个训练数据的一小部分,任何一个数据源——包括《纽约时报》——对模型的专门学习都没有意义。

笔者的评注:

包括OpenAI、 Meta在内的大语言模型公司都认为,人工智能接受数据的训练方式不同于计算机的简单复制,而是通过大量数据的训练,了解每个词在不同环境下的各种含义,因此其并不包含或者存储训练的数据副本。所以训练数据对模型的意义主要在于帮助模型更好的理解单词的意义,这也是OpenAI断言新闻数据和《纽约时报》数据源对于模型的专门学习都没有意义的原因。

OpenAI认为,其已经采取了一些措施来限制无意中的记忆,防止在模型输出中出现重复内容,其社交媒体上确实也有这个记录。但《纽约时报》证明,输入提示词,ChatGPT就可以把其原始新闻反馈给用户。前一部分中,OpenAI说《纽约时报》已经于2023年8月屏蔽了其爬虫,但《纽约时报》诉状中列举的巴以加沙战争的新闻证据是10月份的,所以OpenAI在博客中说,这些内容不仅出现在《纽约时报》网站,也出现在许多不同的公共网站上。

同时,OpenAI还认为,《纽约时报》取证时故意操纵ChatGPT进行反流,违反了其用户条款。故意操纵应该指《纽约时报》取证时的提示词是特殊的,比如新闻的第一句话,而非用户常用的“提供加沙战争新闻”及类似方式。这里的用户条款应该指的是其用户协议中的规定:不得将OpenAI的服务用于任何非法、有害或滥用行为。例如,以侵犯、盗用或违反他人权利的方式使用我们的服务。可能OpenAI认为用户利用其技术漏洞输入提示词得到侵犯版权的训练材料信息,也属于以侵权方式使用其服务。

最后,OpenAI声称,“《纽约时报》没有讲述全部故事”:

在12月19日的最后一次沟通中,我们与《纽约时报》的讨论似乎取得了建设性进展。谈判的重点是围绕 ChatGPT中的实时显示和归因建立高价值的合作伙伴关系,《纽约时报》将通过这种新方式与他们的现有读者和新读者建立联系,而我们的用户则可以访问他们的报道。我们曾向《纽约时报》解释说,与任何单一来源一样,他们的内容对我们现有模型的训练没有任何意义,对未来的训练也没有足够的影响。他们在12月27日提起的诉讼——我们是通过阅读《纽约时报》得知的——让我们感到意外和失望。

一路走来,他们曾提到看到一些重复他们内容的情况,但一再拒绝分享任何实例,尽管我们承诺调查并解决任何问题。我们已经证明了我们是如何认真对待这一优先事项的,例如在7月份,当我们得知 ChatGPT功能可能会以非预期的方式复制实时内容后,我们立即关闭了该功能。

有趣的是,《纽约时报》诱导转载的内容似乎来自多年前的文章,而这些文章已在多个第三方网站上泛滥。为了让我们的模型进行反流,他们似乎有意篡改了提示语,通常包括冗长的文章节选。即使在使用此类提示时,我们的模型通常也不会像《纽约时报》影射的那样,这表明他们要么是指示模型进行反流,要么是从众多尝试中挑选出的例子。

尽管《纽约时报》声称,这种误用并非典型或允许的用户行为,也不能替代《纽约时报》。无论如何,我们正在不断提高我们系统的抗逆性,以抵御反流训练数据的攻击,并已在我们最近的模型中取得了很大进展。

我们认为《纽约时报》的诉讼毫无根据。尽管如此,我们仍希望与《纽约时报》建立建设性的合作关系,并尊重其悠久的历史,其中包括 60 多年前报道第一个工作神经网络和捍卫第一修正案规定的自由。

我们期待与新闻机构继续合作,通过实现人工智能的变革潜力,帮助提升他们制作高质量新闻的能力。

笔者的评注:

这部分除了介绍诉讼前双方的交流,其他内容主要是总结,OpenAI告诉大家,他们有技术措施防止受版权保护的训练素材被重现给用户,他们还是希望和《纽约时报》合作并帮助新闻行业。

 

(文章仅代表作者观点。责编邮箱:yanguihua@jiemian.com。)

 

本文为转载内容,授权事宜请联系原著作权人。