正在阅读:

英伟达放大招:未来五年豪掷260亿美元押注开源AI大模型

扫一扫下载界面新闻APP

英伟达放大招:未来五年豪掷260亿美元押注开源AI大模型

首批自研开源AI模型最快将于2026年底至2027年初正式问世。

英伟达;260亿美元;开源AI大模型;未来五年

图片来源:视觉中国

3月12日,根据英伟达公司向美国证券交易委员会(SEC)提交的财务文件,英伟达将在未来5年累计投入260亿美元(约合1788亿元人民币)巨资,全力推进开源AI大模型的研发。这一投资规模远超OpenAI训练GPT-4时所耗费的30亿美元。英伟达公司也正式开启了从“芯片制造商”向“全栈式AI顶尖实验室”的战略转型。

根据规划,英伟达此次260亿美元的投入并非单纯聚焦于单一模型研发,而是覆盖开源AI大模型全产业链,资金将在未来18至24个月内逐步落地,首批自研开源AI模型最快将于2026年底至2027年初正式问世。

在技术路线上,英伟达选择了一条“开放权重”(Open-weight)的“中间道路”。这一模式介于OpenAI的完全闭源与Meta旗下Llama系列的完全开源之间。具体而言,英伟达将公开模型的关键参数(权重),允许企业和开发者免费下载,并在自己的设备或私有云上运行、微调,从而满足企业对数据隐私、定制化和成本控制的需求。但模型的训练数据和代码可能不会完全公开。

在核心模型研发上,英伟达将重点研发多模态、多领域前沿大模型,覆盖语言、代码、科学计算、智能体等多个方向,目前英伟达已秘密完成一个5500亿参数超大模型的预训练工作,为后续开源模型研发完成了技术验证与压力测试。

值得一提的是,英伟达于近日同步发布了其新一代开源大语言模型——Nemotron 3 Super。该模型专为应对企业级多智能体(Agentic AI)系统的复杂挑战而设计,拥有1200亿总参数,采用高效的混合专家(MoE)架构,原生支持100万Token的超长上下文窗口,能够一次性处理整部小说或数千页的财务报告,有效解决了多智能体工作流中因交互历史激增而导致的“上下文爆炸”和“目标漂移”难题。

英伟达长期以来的核心优势集中在芯片硬件领域,全球AI芯片市占率超过80%,但在AI模型层的话语权相对较弱,此前大模型的技术标准、训练范式大多由OpenAI、Meta等厂商定义。此次英伟达下场自研顶级开源模型,核心目的就是要从底层定义AI模型的技术路线,让自家的硬件架构、软件栈成为整个AI行业的事实标准,通过开源模型拉动算力需求。

金融分析师预测,如果英伟达在巩固其硬件霸主地位的同时,能在基础模型市场成功攫取10%的份额,此举有望在三年内为公司每年额外贡献高达500亿美元的营收。

英伟达应用深度学习研究副总裁Bryan Catanzaro表示,推动开源生态发展完全符合英伟达的核心利益,此次巨额投资并非盲目跟风,而是经过长期行业研判后的战略抉择。

英伟达企业生成式AI软件副总裁Kari Briski强调,英伟达开发这些前沿模型不仅为了测试算力,更是为了对存储、网络及超算级数据中心进行极限压力测试,从而为公司下一代硬件架构的发展路线图指明方向。

未经正式授权严禁转载本文,侵权必究。

英伟达

8.6k
  • 英伟达将向Nebius投资20亿美元
  • 英伟达投资Thinking Machines Lab并建立长期合作

评论

暂无评论哦,快来评价一下吧!

下载界面新闻

微信公众号

微博

英伟达放大招:未来五年豪掷260亿美元押注开源AI大模型

首批自研开源AI模型最快将于2026年底至2027年初正式问世。

英伟达;260亿美元;开源AI大模型;未来五年

图片来源:视觉中国

3月12日,根据英伟达公司向美国证券交易委员会(SEC)提交的财务文件,英伟达将在未来5年累计投入260亿美元(约合1788亿元人民币)巨资,全力推进开源AI大模型的研发。这一投资规模远超OpenAI训练GPT-4时所耗费的30亿美元。英伟达公司也正式开启了从“芯片制造商”向“全栈式AI顶尖实验室”的战略转型。

根据规划,英伟达此次260亿美元的投入并非单纯聚焦于单一模型研发,而是覆盖开源AI大模型全产业链,资金将在未来18至24个月内逐步落地,首批自研开源AI模型最快将于2026年底至2027年初正式问世。

在技术路线上,英伟达选择了一条“开放权重”(Open-weight)的“中间道路”。这一模式介于OpenAI的完全闭源与Meta旗下Llama系列的完全开源之间。具体而言,英伟达将公开模型的关键参数(权重),允许企业和开发者免费下载,并在自己的设备或私有云上运行、微调,从而满足企业对数据隐私、定制化和成本控制的需求。但模型的训练数据和代码可能不会完全公开。

在核心模型研发上,英伟达将重点研发多模态、多领域前沿大模型,覆盖语言、代码、科学计算、智能体等多个方向,目前英伟达已秘密完成一个5500亿参数超大模型的预训练工作,为后续开源模型研发完成了技术验证与压力测试。

值得一提的是,英伟达于近日同步发布了其新一代开源大语言模型——Nemotron 3 Super。该模型专为应对企业级多智能体(Agentic AI)系统的复杂挑战而设计,拥有1200亿总参数,采用高效的混合专家(MoE)架构,原生支持100万Token的超长上下文窗口,能够一次性处理整部小说或数千页的财务报告,有效解决了多智能体工作流中因交互历史激增而导致的“上下文爆炸”和“目标漂移”难题。

英伟达长期以来的核心优势集中在芯片硬件领域,全球AI芯片市占率超过80%,但在AI模型层的话语权相对较弱,此前大模型的技术标准、训练范式大多由OpenAI、Meta等厂商定义。此次英伟达下场自研顶级开源模型,核心目的就是要从底层定义AI模型的技术路线,让自家的硬件架构、软件栈成为整个AI行业的事实标准,通过开源模型拉动算力需求。

金融分析师预测,如果英伟达在巩固其硬件霸主地位的同时,能在基础模型市场成功攫取10%的份额,此举有望在三年内为公司每年额外贡献高达500亿美元的营收。

英伟达应用深度学习研究副总裁Bryan Catanzaro表示,推动开源生态发展完全符合英伟达的核心利益,此次巨额投资并非盲目跟风,而是经过长期行业研判后的战略抉择。

英伟达企业生成式AI软件副总裁Kari Briski强调,英伟达开发这些前沿模型不仅为了测试算力,更是为了对存储、网络及超算级数据中心进行极限压力测试,从而为公司下一代硬件架构的发展路线图指明方向。

未经正式授权严禁转载本文,侵权必究。