正在阅读:

AI大模型的十大前景与挑战——解码斯坦福《2024年人工智能指数报告》

扫一扫下载界面新闻APP

AI大模型的十大前景与挑战——解码斯坦福《2024年人工智能指数报告》

人工智能在某些任务上胜过人类,但并非在所有任务上;产业界持续主导人工智能前沿研究;前沿大模型变得更加昂贵;AI 让“打工人”更具有生产力……

图片来源:匡达/界面新闻

文丨江志强(Vitally AI 创始人)

2024年4月15日,斯坦福大学的“以人为本”人工智能研究所(Stanford HAI),在李飞飞等人的共同领导下,发布了一份名为《2024年人工智能指数报告》(Artificial Intelligence Index Report 2024)的研究报告。

这份报告长达500多页,是Stanford HAI推出的第七份AI Index报告,它详细记录了2023年全球人工智能的最新发展趋势。Stanford HAI的官方说明中提到,这是他们发表的迄今为止最详尽的一份报告,恰逢人工智能对社会影响空前明显的关键时刻之际。

该研究项目负责人Vanessa Parli指出:“我认为最令人兴奋的人工智能研究优势是将这些大型语言模型与机器人或智能体(agent)相结合,这标志着机器人在现实世界中更有效地工作迈出了重要一步。”

今年,Stanford HAI扩大了研究范围,更广泛地报道了人工智能的技术进步、公众对该技术的看法以及围绕其发展的地缘政治动态等基本趋势。与往年的报告相比,这一版提供了更多的原创数据,对人工智能培训成本进行了新的估算,对负责任的人工智能前景进行了详细分析,并新增一章专门讨论人工智能对科学和医学的影响。

下面,我们将列举此份报告中所揭示的10大主要趋势,并加上Sam Altman 等AI行业大佬们对此的看法,以及笔者的点评。

1.人工智能在某些任务上胜过人类,但并非在所有任务上

人工智能已在多项基准测试中超越人类,其中包括图像分类、视觉推理和英语理解。但在更复杂的任务上,如竞赛级数学、视觉常识推理和规划,人工智能依然落后于人类。

OpenAI的CEO 萨姆·奥特曼(Sam Altman)是人工通用智能(AGI)的倡导者,他曾经在OpenAI的一篇“Monday Blog 星期一博客”中提到:AGI最终将在各个领域匹配甚至超越人类智能。他的技术乐观主义使他坚信,AI不仅仅在“某些”任务上,而是在几乎所有任务上最终都将超越人类,并且“代替正常人类”。因此,任何表述AI潜力有限的观点对于他的雄心而言都显得过于保守,无法反映他对于变革性AI能力的远大愿景。

点评:虽然人工智能在特定任务上已能超越人类表现,但这并不意味着它在所有领域都能取代人类。这一发现提醒我们,尽管AI技术迅速发展,它仍然存在局限性。企业和开发者在推进AI应用时,应认识到AI的这一特性,合理利用其在特定领域的优势,同时探索人类与AI的最佳协作方式。这种平衡的发展策略将有助于我们更好地整合人工智能,使其成为推动社会和经济进步的有力工具。

2.产业界持续主导人工智能前沿研究

2023年,产业界在这一年内发布了51个引人注目的机器学习模型,而学术界仅仅贡献了15个。此外,产业界与学术界的合作也带来了21个著名的模型,这一数字创下了新高。

 

点评:人工智能在过去几十年的发展,有很长一段时间一直是学术界的顶尖科研人才在默默推动着,一直到这波大模型人工智能的浪潮才发生了改变。产业界丰富的财务资源、算力资源与顶尖AI人才,接手这波 AI 革命的推动。除了上图展示的几家私营领域的大厂与创业公司,比如:谷歌、Open AI、Meta、微软、Hugging Face之外,其他公司如苹果与亚马逊,以及国内的互联网大厂如:阿里巴巴、腾讯、字节跳动等,在 AI上都有很深厚的积累。学术界与产业界前仆后继一起加速用前沿技术来转变社会与人类的文明。

3.前沿大模型变得更加昂贵

据人工智能指数(AI Index)的估计,最先进的人工智能大模型的培训成本已达到前所未有的水平。例如,OpenAI的GPT-4使用了价值约7800万美元的计算资源进行训练,而谷歌的Gemini Ultra的计算成本则高达1.91亿美元。

相比之下,几年前发布的一些最先进的模型,即原始transformer模型(2017年)和RoBERTa Large(2019年),训练成本分别约为900美元和16万美元。

点评:智力更高、能力更强的前沿AI大模型,因为 scaling law 能力更强,参数更大,其训练代价变得越来越昂贵。市面上可选的闭源与开源大模型数目繁多,企业在探索AI应用时,必须开始具备大模型选型与评估的能力,并知道找什么样技能与经验的人才来开发自己的AI应用。企业如果自身的信息化/数字化部门学习能力强,CIO/CTO有能力培养AI算法工程师, 那么值得考虑建立自身的AI能力;也可以考虑与有经验的外部AI技术服务商建立合作。

4.美国是顶级人工智能大模型的主要来源国

2023年,61个著名的人工智能模型来自美国机构,远超欧盟的21个和中国的15个。

美国依旧是人工智能投资的首选之地。在2023年,美国人工智能领域的私人投资总额达到672亿美元,几乎是中国的9倍。不过,中国仍是美国在这一领域的主要竞争者,中国的机器人安装总量位居世界第一。同时,中国也拥有世界上绝大部分的人工智能专利,占比达到了61%。

点评:虽然美国是顶尖AI大模型主要来源地与推动者,不过全球AI大模型也有开源的趋势,Meta的Llama系列模型、法国的Mistral和阿里巴巴的Qwen,都是很好的开源AI模型。不管是闭源还是开源,在AI应用层面上,都有不同的做法。不管是调用AI大公司的API, 或是用开源的大模型,随着这些大模型总体智力的提升、幻觉(hallucination)的减少、推理能力的持续提高,乃至于新型的AI智能体开始具备目标任务分解、自我反思、自我改善等能力,企业能导入AI 能力的应用场景,就有更大发挥的空间。

5.严重缺乏对LLM责任的可靠和标准化评估

人工智能指标(AI Index)的最新研究显示,负责任的人工智能目前严重缺乏标准化指标。像OpenAI、谷歌和Anthropic这样的顶尖开发商在测试他们的模型时,都是依据各自不同的负责人工智能标准。而这里指的标准,更具体说是在处理与道德、法律、安全、隐私和社会影响等相关问题时所遵循的一系列准则、框架、评估指标和最佳实践。因此,这样各从己意的做法让比较顶级人工智能模型的风险和限制变得更复杂。 

萨姆·奥特曼应该会认同“大型语言模型(LLM)的责任性评估严重缺乏标准化和严谨性”这一说法,因为他一直强调建立可信赖和道德的人工智能的必要性,制定明确的标准框架,来评估大型语言模型的责任性和伦理考量,并强调组织和监管机构之间合作的重要性,有了这些标准来保证人工智能技术在减少潜在危害的同时,能够服务于公共利益。

点评:目前大型语言模型在企业应用中,从客服到内容生成等各种业务流程中的场景逐渐现身。然而,就是因为目前市面欠缺对主要LLM的责任性评估的标准化,让企业在面对AI如果生成具有偏见、伦理问题和合规风险的内容时产生顾虑。对于正在探索AI应用的企业,这一缺口意味着他们还是要警惕。有经验的AI公司可以跟企业一起探讨在项目实施过程如何避免这些问题。

6.生成式人工智能投资激增

虽然2023年整体的人工智能民间投资整体下降,但对“生成式”AI 的投资是激增的,比较2022年(约30亿美元)增长了近八倍,达到252亿美元。海外的生成式AI主要参与者,包括 OpenAI、Anthropic、Hugging Face、Inflection等大模型公司,都获得了可观的融资。国内的大模型公司,如质谱、Minimax、百川智能、Minimax、零一万物、月之暗面等,也都获得不错的融资,虽然金额的数量级有很大的差距。

点评:全球领域与中国范围内对于生成 AI 领域投资的激增,这对企业来说肯定是一件好事。因为一般企业的AI应用,肯定是要在大模型的基础上来开发,并将之服务化,甚至加上自动化。如果是企业自身行业有一定专业深度,而这个行业领域知识不见得是大语言模型学习过的,或是企业自己的业务体量与顾客基数庞大、数据也多,那么就有可能需要训练自己的行业大模型,来支持自己的AI 应用。

企业在AI时代的投入,将是一种新质生产力,一种新的企业竞争力。

7.数据显示,AI 让“打工人”更具有生产力,工作质量更高

2023年,多项研究评估了人工智能对劳动力的影响,认为人工智能使打工人们能够更快地完成任务,并提高他们的产出质量。这些研究还表明,人工智能有可能缩小低技能和高技能工人之间的技能差距。不过,其他一些研究警告人们,在没有适当监督的情况下使用人工智能,不一定会提高工作绩效。

点评:企业员工可能需要接受培训才能有效利用AI工具,当然我们身边接触的打工人,学习进取心强的或是担心工作被AI替代有危机意识的人,都在学习各种AI工具。毕竟 AI 是全新的生产力, 就跟人类最初学会生火、发明印刷术和电力一样是重大的。最近坊间开始流传一句话:AI不会取代你的工作,但是其他善用AI的人会取代你的工作。

8.得益于人工智能,科学进步进一步加速

2022年,人工智能开始推动科学的发现。2023年我们开始看到更多与科学相关的人工智能应用启动了——使算法排序更高效的AlphaDev、促进材料发现过程的GNoME、到可在一分钟内提供相当准确的未来10天天气预报的GraphCast,以及成功对7100万种可能错义突变中约89%进行分类的AlphaMissence,这些都是很好的科学领域的AI应用。

 

如今,AI可以完成人类难以完成的计算,来解决一些最复杂的科学问题。在医疗方面,新的研究表明,医生可以利用人工智能更好地诊断乳腺癌、解读X射线和检测致命的癌症。

奥特曼对AI极大加速科学进展的潜力,持非常看好的态度。他认为AI可以通过多种方式来加速科学的突破:AI系统能自动化一些研究任务,如文献审查和假设生成,帮助科学家提高工作效率;AI 还可以通过从其他任务中解放人力,从而增加科学家的总数;AI驱动的科学过程自动化,如进行大规模实验和测试多个假设,可能导致“极其迅速的科学进展”。奥特曼似乎认为这种科学加速,既有前景也令人担忧。我们伴随AI的快速发展,也需要“更新的思考”,他警告说,那些“忽视改进速度的公司和行业将被碾压”。

9.美国的人工智能法规数量急剧增加

2023年,全球立法程序中有2175 次提及人工智能,几乎是上一年的两倍。美国人工智能相关法规的数量,在过去一年大幅增加。2023年与人工智能相关的法规有25项,而2016年只有1项。仅去年一年,人工智能相关法规的总数就增长了56.3%。其中一些法规包括生成式人工智能材料的版权指南和网络安全风险管理框架。

与AI相关法规的急剧增加,也标志着企业环境中AI部署向更有结构和控制的方向去转变。对于正在探索AI企业用例的公司而言,这意味着它们的AI任务团队现在必须将合规性作为其战略的关键部分。这不仅包括理解和遵守现有法规,还要保持灵活性,以适应可能的新法规。此外,不断演变的监管环境也可能促进创新,因为公司可能需要开发新的AI技术或修改现有技术以满足监管要求。最终,虽然增加的法规可能带来挑战,但它也为公司通过展示对道德AI实践的承诺,与客户和利益相关者建立信任提供了途径。

点评:在国内,我们开始看到身边的企业也开始更关注与AI相关的法律和监管专业知识,也会建议开始思考导入AI的企业,关注国家所颁布与人工智能相关的法规,包括但不限于:AI大模型与AI应用(特别是面向一般大众的应用)的算法安全备案、应用的数据安全、用户隐私保护、AI生成内容是否侵权或是能有版权保护等议题。

10.人们对人工智能的潜在影响有了更深刻的认识,同时也更焦虑

市场研究公司益普索(Ipsos)的一项调查显示,在过去一年中,认为人工智能将在未来 3-5 年内极大地影响他们生活的人的比例从 60%上升到 66%。此外,52% 的人对人工智能产品跟服务表示紧张和焦虑,比 2022 年上升了 13%。

来自美国皮尤研究中心(Pew)的数据则显示,52%的美国人表示对人工智能的担忧多于兴奋,这一比例比2022年的38%有所上升。

 

对此,奥特曼承认,人们对包括通用人工智能(AGI)在内的先进AI系统的潜在影响感到担忧和紧张,这是有道理的。不过,与一些更可怕的预测相比,奥特曼似乎也采取了更为乐观和温和的观点。

奥特曼曾经在一段由彭博社在瑞士达沃斯世界经济论坛上举办的对话中表示,AGI的影响可能 "比我们想象的要小",而且他不认为人工智能会导致大范围的失业,他说:"人们会继续他们的生活。" 他还表示,尽管人们担心AI会提供虚假信息,但他相信2024年的美国大选 "无论发生什么,美国都不会有事"。

与此同时,奥特曼也认识到需要对这些强大的技术进行谨慎的治理和监管。他呼吁建立一个类似于核能或生物技术监管的 "全球监管框架",承认 "人工智能将对社会产生深远影响"。读到这里,你是不是觉得奥特曼的乐观与审慎之间,充满着一些矛盾呢?

 

(文中图表均来自Stanford HAI的《2024年人工智能指数报告》。文章仅代表作者观点。责编邮箱:yanguihua@jiemian.com。)

本文为转载内容,授权事宜请联系原著作权人。

评论

暂无评论哦,快来评价一下吧!

下载界面新闻

微信公众号

微博

AI大模型的十大前景与挑战——解码斯坦福《2024年人工智能指数报告》

人工智能在某些任务上胜过人类,但并非在所有任务上;产业界持续主导人工智能前沿研究;前沿大模型变得更加昂贵;AI 让“打工人”更具有生产力……

图片来源:匡达/界面新闻

文丨江志强(Vitally AI 创始人)

2024年4月15日,斯坦福大学的“以人为本”人工智能研究所(Stanford HAI),在李飞飞等人的共同领导下,发布了一份名为《2024年人工智能指数报告》(Artificial Intelligence Index Report 2024)的研究报告。

这份报告长达500多页,是Stanford HAI推出的第七份AI Index报告,它详细记录了2023年全球人工智能的最新发展趋势。Stanford HAI的官方说明中提到,这是他们发表的迄今为止最详尽的一份报告,恰逢人工智能对社会影响空前明显的关键时刻之际。

该研究项目负责人Vanessa Parli指出:“我认为最令人兴奋的人工智能研究优势是将这些大型语言模型与机器人或智能体(agent)相结合,这标志着机器人在现实世界中更有效地工作迈出了重要一步。”

今年,Stanford HAI扩大了研究范围,更广泛地报道了人工智能的技术进步、公众对该技术的看法以及围绕其发展的地缘政治动态等基本趋势。与往年的报告相比,这一版提供了更多的原创数据,对人工智能培训成本进行了新的估算,对负责任的人工智能前景进行了详细分析,并新增一章专门讨论人工智能对科学和医学的影响。

下面,我们将列举此份报告中所揭示的10大主要趋势,并加上Sam Altman 等AI行业大佬们对此的看法,以及笔者的点评。

1.人工智能在某些任务上胜过人类,但并非在所有任务上

人工智能已在多项基准测试中超越人类,其中包括图像分类、视觉推理和英语理解。但在更复杂的任务上,如竞赛级数学、视觉常识推理和规划,人工智能依然落后于人类。

OpenAI的CEO 萨姆·奥特曼(Sam Altman)是人工通用智能(AGI)的倡导者,他曾经在OpenAI的一篇“Monday Blog 星期一博客”中提到:AGI最终将在各个领域匹配甚至超越人类智能。他的技术乐观主义使他坚信,AI不仅仅在“某些”任务上,而是在几乎所有任务上最终都将超越人类,并且“代替正常人类”。因此,任何表述AI潜力有限的观点对于他的雄心而言都显得过于保守,无法反映他对于变革性AI能力的远大愿景。

点评:虽然人工智能在特定任务上已能超越人类表现,但这并不意味着它在所有领域都能取代人类。这一发现提醒我们,尽管AI技术迅速发展,它仍然存在局限性。企业和开发者在推进AI应用时,应认识到AI的这一特性,合理利用其在特定领域的优势,同时探索人类与AI的最佳协作方式。这种平衡的发展策略将有助于我们更好地整合人工智能,使其成为推动社会和经济进步的有力工具。

2.产业界持续主导人工智能前沿研究

2023年,产业界在这一年内发布了51个引人注目的机器学习模型,而学术界仅仅贡献了15个。此外,产业界与学术界的合作也带来了21个著名的模型,这一数字创下了新高。

 

点评:人工智能在过去几十年的发展,有很长一段时间一直是学术界的顶尖科研人才在默默推动着,一直到这波大模型人工智能的浪潮才发生了改变。产业界丰富的财务资源、算力资源与顶尖AI人才,接手这波 AI 革命的推动。除了上图展示的几家私营领域的大厂与创业公司,比如:谷歌、Open AI、Meta、微软、Hugging Face之外,其他公司如苹果与亚马逊,以及国内的互联网大厂如:阿里巴巴、腾讯、字节跳动等,在 AI上都有很深厚的积累。学术界与产业界前仆后继一起加速用前沿技术来转变社会与人类的文明。

3.前沿大模型变得更加昂贵

据人工智能指数(AI Index)的估计,最先进的人工智能大模型的培训成本已达到前所未有的水平。例如,OpenAI的GPT-4使用了价值约7800万美元的计算资源进行训练,而谷歌的Gemini Ultra的计算成本则高达1.91亿美元。

相比之下,几年前发布的一些最先进的模型,即原始transformer模型(2017年)和RoBERTa Large(2019年),训练成本分别约为900美元和16万美元。

点评:智力更高、能力更强的前沿AI大模型,因为 scaling law 能力更强,参数更大,其训练代价变得越来越昂贵。市面上可选的闭源与开源大模型数目繁多,企业在探索AI应用时,必须开始具备大模型选型与评估的能力,并知道找什么样技能与经验的人才来开发自己的AI应用。企业如果自身的信息化/数字化部门学习能力强,CIO/CTO有能力培养AI算法工程师, 那么值得考虑建立自身的AI能力;也可以考虑与有经验的外部AI技术服务商建立合作。

4.美国是顶级人工智能大模型的主要来源国

2023年,61个著名的人工智能模型来自美国机构,远超欧盟的21个和中国的15个。

美国依旧是人工智能投资的首选之地。在2023年,美国人工智能领域的私人投资总额达到672亿美元,几乎是中国的9倍。不过,中国仍是美国在这一领域的主要竞争者,中国的机器人安装总量位居世界第一。同时,中国也拥有世界上绝大部分的人工智能专利,占比达到了61%。

点评:虽然美国是顶尖AI大模型主要来源地与推动者,不过全球AI大模型也有开源的趋势,Meta的Llama系列模型、法国的Mistral和阿里巴巴的Qwen,都是很好的开源AI模型。不管是闭源还是开源,在AI应用层面上,都有不同的做法。不管是调用AI大公司的API, 或是用开源的大模型,随着这些大模型总体智力的提升、幻觉(hallucination)的减少、推理能力的持续提高,乃至于新型的AI智能体开始具备目标任务分解、自我反思、自我改善等能力,企业能导入AI 能力的应用场景,就有更大发挥的空间。

5.严重缺乏对LLM责任的可靠和标准化评估

人工智能指标(AI Index)的最新研究显示,负责任的人工智能目前严重缺乏标准化指标。像OpenAI、谷歌和Anthropic这样的顶尖开发商在测试他们的模型时,都是依据各自不同的负责人工智能标准。而这里指的标准,更具体说是在处理与道德、法律、安全、隐私和社会影响等相关问题时所遵循的一系列准则、框架、评估指标和最佳实践。因此,这样各从己意的做法让比较顶级人工智能模型的风险和限制变得更复杂。 

萨姆·奥特曼应该会认同“大型语言模型(LLM)的责任性评估严重缺乏标准化和严谨性”这一说法,因为他一直强调建立可信赖和道德的人工智能的必要性,制定明确的标准框架,来评估大型语言模型的责任性和伦理考量,并强调组织和监管机构之间合作的重要性,有了这些标准来保证人工智能技术在减少潜在危害的同时,能够服务于公共利益。

点评:目前大型语言模型在企业应用中,从客服到内容生成等各种业务流程中的场景逐渐现身。然而,就是因为目前市面欠缺对主要LLM的责任性评估的标准化,让企业在面对AI如果生成具有偏见、伦理问题和合规风险的内容时产生顾虑。对于正在探索AI应用的企业,这一缺口意味着他们还是要警惕。有经验的AI公司可以跟企业一起探讨在项目实施过程如何避免这些问题。

6.生成式人工智能投资激增

虽然2023年整体的人工智能民间投资整体下降,但对“生成式”AI 的投资是激增的,比较2022年(约30亿美元)增长了近八倍,达到252亿美元。海外的生成式AI主要参与者,包括 OpenAI、Anthropic、Hugging Face、Inflection等大模型公司,都获得了可观的融资。国内的大模型公司,如质谱、Minimax、百川智能、Minimax、零一万物、月之暗面等,也都获得不错的融资,虽然金额的数量级有很大的差距。

点评:全球领域与中国范围内对于生成 AI 领域投资的激增,这对企业来说肯定是一件好事。因为一般企业的AI应用,肯定是要在大模型的基础上来开发,并将之服务化,甚至加上自动化。如果是企业自身行业有一定专业深度,而这个行业领域知识不见得是大语言模型学习过的,或是企业自己的业务体量与顾客基数庞大、数据也多,那么就有可能需要训练自己的行业大模型,来支持自己的AI 应用。

企业在AI时代的投入,将是一种新质生产力,一种新的企业竞争力。

7.数据显示,AI 让“打工人”更具有生产力,工作质量更高

2023年,多项研究评估了人工智能对劳动力的影响,认为人工智能使打工人们能够更快地完成任务,并提高他们的产出质量。这些研究还表明,人工智能有可能缩小低技能和高技能工人之间的技能差距。不过,其他一些研究警告人们,在没有适当监督的情况下使用人工智能,不一定会提高工作绩效。

点评:企业员工可能需要接受培训才能有效利用AI工具,当然我们身边接触的打工人,学习进取心强的或是担心工作被AI替代有危机意识的人,都在学习各种AI工具。毕竟 AI 是全新的生产力, 就跟人类最初学会生火、发明印刷术和电力一样是重大的。最近坊间开始流传一句话:AI不会取代你的工作,但是其他善用AI的人会取代你的工作。

8.得益于人工智能,科学进步进一步加速

2022年,人工智能开始推动科学的发现。2023年我们开始看到更多与科学相关的人工智能应用启动了——使算法排序更高效的AlphaDev、促进材料发现过程的GNoME、到可在一分钟内提供相当准确的未来10天天气预报的GraphCast,以及成功对7100万种可能错义突变中约89%进行分类的AlphaMissence,这些都是很好的科学领域的AI应用。

 

如今,AI可以完成人类难以完成的计算,来解决一些最复杂的科学问题。在医疗方面,新的研究表明,医生可以利用人工智能更好地诊断乳腺癌、解读X射线和检测致命的癌症。

奥特曼对AI极大加速科学进展的潜力,持非常看好的态度。他认为AI可以通过多种方式来加速科学的突破:AI系统能自动化一些研究任务,如文献审查和假设生成,帮助科学家提高工作效率;AI 还可以通过从其他任务中解放人力,从而增加科学家的总数;AI驱动的科学过程自动化,如进行大规模实验和测试多个假设,可能导致“极其迅速的科学进展”。奥特曼似乎认为这种科学加速,既有前景也令人担忧。我们伴随AI的快速发展,也需要“更新的思考”,他警告说,那些“忽视改进速度的公司和行业将被碾压”。

9.美国的人工智能法规数量急剧增加

2023年,全球立法程序中有2175 次提及人工智能,几乎是上一年的两倍。美国人工智能相关法规的数量,在过去一年大幅增加。2023年与人工智能相关的法规有25项,而2016年只有1项。仅去年一年,人工智能相关法规的总数就增长了56.3%。其中一些法规包括生成式人工智能材料的版权指南和网络安全风险管理框架。

与AI相关法规的急剧增加,也标志着企业环境中AI部署向更有结构和控制的方向去转变。对于正在探索AI企业用例的公司而言,这意味着它们的AI任务团队现在必须将合规性作为其战略的关键部分。这不仅包括理解和遵守现有法规,还要保持灵活性,以适应可能的新法规。此外,不断演变的监管环境也可能促进创新,因为公司可能需要开发新的AI技术或修改现有技术以满足监管要求。最终,虽然增加的法规可能带来挑战,但它也为公司通过展示对道德AI实践的承诺,与客户和利益相关者建立信任提供了途径。

点评:在国内,我们开始看到身边的企业也开始更关注与AI相关的法律和监管专业知识,也会建议开始思考导入AI的企业,关注国家所颁布与人工智能相关的法规,包括但不限于:AI大模型与AI应用(特别是面向一般大众的应用)的算法安全备案、应用的数据安全、用户隐私保护、AI生成内容是否侵权或是能有版权保护等议题。

10.人们对人工智能的潜在影响有了更深刻的认识,同时也更焦虑

市场研究公司益普索(Ipsos)的一项调查显示,在过去一年中,认为人工智能将在未来 3-5 年内极大地影响他们生活的人的比例从 60%上升到 66%。此外,52% 的人对人工智能产品跟服务表示紧张和焦虑,比 2022 年上升了 13%。

来自美国皮尤研究中心(Pew)的数据则显示,52%的美国人表示对人工智能的担忧多于兴奋,这一比例比2022年的38%有所上升。

 

对此,奥特曼承认,人们对包括通用人工智能(AGI)在内的先进AI系统的潜在影响感到担忧和紧张,这是有道理的。不过,与一些更可怕的预测相比,奥特曼似乎也采取了更为乐观和温和的观点。

奥特曼曾经在一段由彭博社在瑞士达沃斯世界经济论坛上举办的对话中表示,AGI的影响可能 "比我们想象的要小",而且他不认为人工智能会导致大范围的失业,他说:"人们会继续他们的生活。" 他还表示,尽管人们担心AI会提供虚假信息,但他相信2024年的美国大选 "无论发生什么,美国都不会有事"。

与此同时,奥特曼也认识到需要对这些强大的技术进行谨慎的治理和监管。他呼吁建立一个类似于核能或生物技术监管的 "全球监管框架",承认 "人工智能将对社会产生深远影响"。读到这里,你是不是觉得奥特曼的乐观与审慎之间,充满着一些矛盾呢?

 

(文中图表均来自Stanford HAI的《2024年人工智能指数报告》。文章仅代表作者观点。责编邮箱:yanguihua@jiemian.com。)

本文为转载内容,授权事宜请联系原著作权人。