正在阅读:

ChatGPT开发商OpenAI探索自研芯片,已开始评估收购选项

扫一扫下载界面新闻APP

ChatGPT开发商OpenAI探索自研芯片,已开始评估收购选项

OpenAI已经由去年开始讨论解决AI芯片成本昂贵、供应短缺等问题的多项解决方案,其中包括自研AI芯片,与英伟达在内的芯片供货商更紧密合作,推动AI芯片供应来源多元化。

图片制作:匡达

界面新闻记者 | 彭新

据媒体报道,ChatGPT开发商OpenAI正探索制造自研人工智能芯片,并已开始评估潜在的相关收购目标。

报道称,OpenAI已经由去年开始讨论解决AI芯片成本昂贵、供应短缺等问题的多项解决方案,其中包括自研AI芯片,与英伟达在内的芯片供货商更紧密合作,推动AI芯片供应来源多元化。

目前,OpenAI已将获得更多AI芯片列为公司首要任务。其尚未决定是否继续推进自研AI芯片,但该决定若落成,将成为OpenAI的一项重大战略,并在芯片研发中投入巨额资金,每年成本或高达数亿美元,耗时超过数年,且最终也无法保证能成功研发。知情人士称,若走收购路线加快获取技术,OpenAI已经考虑对潜在收购目标启动尽职调查。

若OpenAI选择自研AI芯片,意味着其可能将加入互联网公司掀起的AI芯片自研潮。包括谷歌、Meta、亚马逊等互联网巨头因其庞大的业务需求纷纷下场造芯,一边自研芯片,一边采购英伟达的GPU组建庞大的数据中心。

谷歌早在2016年就推出为AI而生的TPU(张量处理单元)芯片,该芯片专门为其机器学习框架TensorFlow设计。谷歌TPU至今已经迭代到第四代,声称该芯片在性能胜过A100 1.2到1.7倍的同时,还大幅减少了耗电量。Meta在2020年就设计了第一代自研的AI推理芯片,并命名为MTIA(Meta训练和推理加速器),Meta称该芯片是为了自身业务背后的DLRM(深度学习推荐大模型)而设计。

实际上,若OpenAI选择以收购形式获取AI芯片技术,亚马逊的做法将是可借鉴方向。亚马逊2015年通过收购以色列芯片设计公司Annapurna Labs打入芯片行业,2018年11月,亚马逊推出基于Arm架构的首款服务器芯片Graviton,主打性价比,该产品目前已经迭代到第三代;亚马逊还在2019年、2020年分别发布了AI推理芯片Inferentia、训练芯片Trainium。 

不过,大公司多有自研芯片冲动,但英伟达GPU目前仍是企业用于AI应用的算力首选。 英伟达最大的优势,就是其GPU芯片因为在AI算力方面的性能优势,成为大模型训练和部署的核心部件。 市场调研机构Omdia数据显示,2022年,英伟达在全球数据中心AI芯片市场的份额超过七成,占据绝对优势。

OpenAI自身高度依赖英伟达A100、H100等GPU芯片进行AI训练与推理,据称ChatGPT背后的人工智能大模型就使用超过1万颗英伟达GPU进行训练。且随着ChatGPT引爆了生成式AI技术以来,对AI芯片的需求大幅提升,以加速训练和运行各种人工智能应用,使得英伟达GPU产能紧缺,出现“一卡难求”现象。

但英伟达GPU成本高昂,除芯片采购和训练的成本外,还包括运营成本。芯片行业调研公司SemiAnalysis首席分析师Dylan Patel曾估算,ChatGPT的运营成本为每天约70万美元或每次查询0.36美元。因此,OpenAI有充分动力推动寻求可替代英伟达GPU的AI芯片,以降低成本。

今年以来,市场就陆续有OpenAI推动AI芯片多元化的传言传出。今年4月,就有媒体报道称,微软早在2019年就开始开发内部代号为“雅典娜”的AI芯片,微软至少有300人在进行该芯片的开发工作。该报道还称,一些微软和OpenAI的员工已经开始测试并使用这些芯片,微软最快可以在明年让雅典娜芯片在自家和OpenAI内部广泛使用。

英伟达自身亦在努力解决GPU供应瓶颈,加快向OpenAI等客户供货。在8月底的财报会议上,英伟达CFO  Colette Kres就提到,英伟达配置了CoWos(一种先进半导体2.5D封装技术)封装的额外产能。她预计市场对于英伟达数据中心GPU的需求将延续至明年,“随着我们缩短供货周期并增加产能,未来几个季度的供应将继续增加。”此外,英伟达还推出了不受制于CoWos先进封装产能的L40S GPU,用于AI训练和推理,作为H100的“平替”。

未经正式授权严禁转载本文,侵权必究。

OpenAI

  • OpenAI遭投诉,涉嫌违反欧盟隐私法规
  • 专访阶跃星辰姜大昕:Scaling Law是通往AGI的必要非充分条件

评论

暂无评论哦,快来评价一下吧!

下载界面新闻

微信公众号

微博

ChatGPT开发商OpenAI探索自研芯片,已开始评估收购选项

OpenAI已经由去年开始讨论解决AI芯片成本昂贵、供应短缺等问题的多项解决方案,其中包括自研AI芯片,与英伟达在内的芯片供货商更紧密合作,推动AI芯片供应来源多元化。

图片制作:匡达

界面新闻记者 | 彭新

据媒体报道,ChatGPT开发商OpenAI正探索制造自研人工智能芯片,并已开始评估潜在的相关收购目标。

报道称,OpenAI已经由去年开始讨论解决AI芯片成本昂贵、供应短缺等问题的多项解决方案,其中包括自研AI芯片,与英伟达在内的芯片供货商更紧密合作,推动AI芯片供应来源多元化。

目前,OpenAI已将获得更多AI芯片列为公司首要任务。其尚未决定是否继续推进自研AI芯片,但该决定若落成,将成为OpenAI的一项重大战略,并在芯片研发中投入巨额资金,每年成本或高达数亿美元,耗时超过数年,且最终也无法保证能成功研发。知情人士称,若走收购路线加快获取技术,OpenAI已经考虑对潜在收购目标启动尽职调查。

若OpenAI选择自研AI芯片,意味着其可能将加入互联网公司掀起的AI芯片自研潮。包括谷歌、Meta、亚马逊等互联网巨头因其庞大的业务需求纷纷下场造芯,一边自研芯片,一边采购英伟达的GPU组建庞大的数据中心。

谷歌早在2016年就推出为AI而生的TPU(张量处理单元)芯片,该芯片专门为其机器学习框架TensorFlow设计。谷歌TPU至今已经迭代到第四代,声称该芯片在性能胜过A100 1.2到1.7倍的同时,还大幅减少了耗电量。Meta在2020年就设计了第一代自研的AI推理芯片,并命名为MTIA(Meta训练和推理加速器),Meta称该芯片是为了自身业务背后的DLRM(深度学习推荐大模型)而设计。

实际上,若OpenAI选择以收购形式获取AI芯片技术,亚马逊的做法将是可借鉴方向。亚马逊2015年通过收购以色列芯片设计公司Annapurna Labs打入芯片行业,2018年11月,亚马逊推出基于Arm架构的首款服务器芯片Graviton,主打性价比,该产品目前已经迭代到第三代;亚马逊还在2019年、2020年分别发布了AI推理芯片Inferentia、训练芯片Trainium。 

不过,大公司多有自研芯片冲动,但英伟达GPU目前仍是企业用于AI应用的算力首选。 英伟达最大的优势,就是其GPU芯片因为在AI算力方面的性能优势,成为大模型训练和部署的核心部件。 市场调研机构Omdia数据显示,2022年,英伟达在全球数据中心AI芯片市场的份额超过七成,占据绝对优势。

OpenAI自身高度依赖英伟达A100、H100等GPU芯片进行AI训练与推理,据称ChatGPT背后的人工智能大模型就使用超过1万颗英伟达GPU进行训练。且随着ChatGPT引爆了生成式AI技术以来,对AI芯片的需求大幅提升,以加速训练和运行各种人工智能应用,使得英伟达GPU产能紧缺,出现“一卡难求”现象。

但英伟达GPU成本高昂,除芯片采购和训练的成本外,还包括运营成本。芯片行业调研公司SemiAnalysis首席分析师Dylan Patel曾估算,ChatGPT的运营成本为每天约70万美元或每次查询0.36美元。因此,OpenAI有充分动力推动寻求可替代英伟达GPU的AI芯片,以降低成本。

今年以来,市场就陆续有OpenAI推动AI芯片多元化的传言传出。今年4月,就有媒体报道称,微软早在2019年就开始开发内部代号为“雅典娜”的AI芯片,微软至少有300人在进行该芯片的开发工作。该报道还称,一些微软和OpenAI的员工已经开始测试并使用这些芯片,微软最快可以在明年让雅典娜芯片在自家和OpenAI内部广泛使用。

英伟达自身亦在努力解决GPU供应瓶颈,加快向OpenAI等客户供货。在8月底的财报会议上,英伟达CFO  Colette Kres就提到,英伟达配置了CoWos(一种先进半导体2.5D封装技术)封装的额外产能。她预计市场对于英伟达数据中心GPU的需求将延续至明年,“随着我们缩短供货周期并增加产能,未来几个季度的供应将继续增加。”此外,英伟达还推出了不受制于CoWos先进封装产能的L40S GPU,用于AI训练和推理,作为H100的“平替”。

未经正式授权严禁转载本文,侵权必究。