正在阅读:

用AI功能要付费,这是手机厂商没告诉你的“秘密”

扫一扫下载界面新闻APP

用AI功能要付费,这是手机厂商没告诉你的“秘密”

AI大模型输出的AIGC内容无法享受到规模效应所带来的加成,它的边际成本和传统互联网产品截然相反。

文|三易生活

前有OPPO发出内部信称,2024年是AI手机元年,将通过AI把手机的体验重新做一遍,接下来是魅族方面宣布All in AI,将停止传统“智能手机”新项目,全力投入明日设备AI For New Generations,紧接着又是苹果放弃造车计划、全面拥抱AI。无论你是否认可,AI手机毫无疑问都将成为2024年智能手机圈的绝对C位。

不同于只是将旗下产品加了个“AI后缀”的玩法,作为这个行业的带头大哥,三星的AI手机并不止是说说而已。三星新款旗舰机型Galaxy S24系列主打的“Galaxy AI”,在海外获得了谷歌的Gemini nano大模型加持,在国内市场也接入了来自文心一言、WPS、美图秀秀等多个厂商的AI能力,其所提供的实时翻译、生成式编辑、写作助手、笔记助手、即圈即搜等AI功能目前也几乎都是独一份。

用Galaxy AI来赋能Galaxy S24系列,这就是三星讲出的AI手机故事,可此前他们并没有告诉大家,Galaxy AI不是免费的。日前有消息称,部分三星授权体验店已经收到关于Galaxy S24系列部分AI功能即将收费的通知,其中“笔记助手”这一功能仅可免费使用180天,后期则需要收费。

据称,有三星授权体验店的销售透露,“现在购买Galaxy S24的话,在2024年7月30日以前,首次领取WPS AI权益开始内的180天内可免费重复领取,在此期间可免费使用。领取成功后的有效使用期限是7天,全国的官方门店都是一样的要求。”

然而在今年1月18日三星方面发布Galaxy S24系列新机时,官方在新闻稿里却说的是,“直到2025年年底Galaxy AI功能将在受到支持的三星Galaxy设备上免费提供”。按照正常的旗舰机销售周期,2025年年末Galaxy S24系列大概率已经进入销售周期的尾声,并且消费者对于可能在两年后发生的收费不甚在意,但现在距离今年7月30日只有不到5个月的时间,所以“用Galaxy AI要付费”的感知,很快就被唤醒。

不过这一次的Galaxy AI的笔记助手收费,大概率并非三星的决策,更多的可能是来源于合作伙伴WPS的授意。而此次“变卦”的原因其实也不难猜,无非就是凭借着AI手机的概念,Galaxy S24系列卖得很火,以至于Galaxy AI的用户群体比预计更多,作为三星合作伙伴的WPS就需要用付费来拦截一些不必要的使用请求,以节省算力资源。

AI手机这个概念是不是伪命题先不说,毕竟各厂商都会有自己的不同看法,选择不同的技术路线也很正常,但用AI需要花钱的这件事,AI手机概念的鼓吹者应该提前给消费者打好预防针。在当下手机价格持续上涨的情况下,一款高端旗舰机可不便宜,用户在决定购买时,通常期望的是能够获得完整的、持续的软件支持。然而,如果手机的AI功能未来会转为收费,那么部分用户在购买时可能就会额外考虑这一因素。

事实上,目前几乎所有在宣传AI手机这个概念的厂商, 都有意无意地忽略了AI功能本身是要付费的。众所周知,英伟达靠着给AI厂商销售A100、H20等算力芯片赚得盆满钵满,由于算力是AI大模型的燃料,而AI大模型的算力成本则是由预训练成本和推理成本组成。其中,预训练成本很好理解,也就是从无到有打造一个AI大模型,教会大模型知识所需要的“教育成本”,而推理成本则是让已经训练出的大模型,输出用户所需结果的成本。

目前,AI行业使用的是词元(tokens)来作为成本衡量和计费的单位。比如,OpenAI的GPT-4 Turbo给出的价格,是输入1000个token需要0.01美元、输出内容是1000个token需要0.03美元,而一个汉字约等于2个token。也就是说,如果想要让ChatGPT给出一篇一万字文章,大概需要0.26美元、也就是1.85元人民币。

更重要的一点,是AI大模型输出的AIGC内容无法享受到规模效应所带来的加成,它的边际成本和传统互联网产品截然相反。AI大模型需要对用户的每个需求进行计算,也就是说随着用户规模的增加,如果技术力持续保持现状,那么OpenAI、百度、WPS为每一个token付出的成本实际上是不降反升的。据海外媒体的相关报道显示,微软之前推出的AI编程助手Github Copilot每月收费为10美元,但实际上每增加一个用户,微软每月就要亏损20美元。

这一趋势要到端侧大模型落地才能扭转,而相比于使用GPT-4 Turbo输出文字,用Midjourney、Stable Diffusion其实更便宜,原因就是这两款AI绘画工具只要硬件达标,它们可以部署在用户自己的电脑上,这样一来就只需要付电费就行了。同理,如果端侧大模型在手机端落地,用户使用的AI功能是由手机SoC提供算力、而非WPS部署的算力集群,此时运行手机AI功能的代价就只是更耗电而已。

那么问题就来了,受限于高通、联发科的芯片技术,目前智能手机上能够支持的端侧大模型最多只有100亿参数规模,还完全无法与文心一言4.0、GPT-4 Turbo、Claude 3比肩。所以这也就意味着在相当长的一段时间里,还需要云端提供算力的“AI手机”,用户在用AI功能时都是要付费的。即便不是像如今的三星一般直接向用户收费,可能也会把算力成本均摊到手机的成本里。

本文为转载内容,授权事宜请联系原著作权人。

评论

暂无评论哦,快来评价一下吧!

下载界面新闻

微信公众号

微博

用AI功能要付费,这是手机厂商没告诉你的“秘密”

AI大模型输出的AIGC内容无法享受到规模效应所带来的加成,它的边际成本和传统互联网产品截然相反。

文|三易生活

前有OPPO发出内部信称,2024年是AI手机元年,将通过AI把手机的体验重新做一遍,接下来是魅族方面宣布All in AI,将停止传统“智能手机”新项目,全力投入明日设备AI For New Generations,紧接着又是苹果放弃造车计划、全面拥抱AI。无论你是否认可,AI手机毫无疑问都将成为2024年智能手机圈的绝对C位。

不同于只是将旗下产品加了个“AI后缀”的玩法,作为这个行业的带头大哥,三星的AI手机并不止是说说而已。三星新款旗舰机型Galaxy S24系列主打的“Galaxy AI”,在海外获得了谷歌的Gemini nano大模型加持,在国内市场也接入了来自文心一言、WPS、美图秀秀等多个厂商的AI能力,其所提供的实时翻译、生成式编辑、写作助手、笔记助手、即圈即搜等AI功能目前也几乎都是独一份。

用Galaxy AI来赋能Galaxy S24系列,这就是三星讲出的AI手机故事,可此前他们并没有告诉大家,Galaxy AI不是免费的。日前有消息称,部分三星授权体验店已经收到关于Galaxy S24系列部分AI功能即将收费的通知,其中“笔记助手”这一功能仅可免费使用180天,后期则需要收费。

据称,有三星授权体验店的销售透露,“现在购买Galaxy S24的话,在2024年7月30日以前,首次领取WPS AI权益开始内的180天内可免费重复领取,在此期间可免费使用。领取成功后的有效使用期限是7天,全国的官方门店都是一样的要求。”

然而在今年1月18日三星方面发布Galaxy S24系列新机时,官方在新闻稿里却说的是,“直到2025年年底Galaxy AI功能将在受到支持的三星Galaxy设备上免费提供”。按照正常的旗舰机销售周期,2025年年末Galaxy S24系列大概率已经进入销售周期的尾声,并且消费者对于可能在两年后发生的收费不甚在意,但现在距离今年7月30日只有不到5个月的时间,所以“用Galaxy AI要付费”的感知,很快就被唤醒。

不过这一次的Galaxy AI的笔记助手收费,大概率并非三星的决策,更多的可能是来源于合作伙伴WPS的授意。而此次“变卦”的原因其实也不难猜,无非就是凭借着AI手机的概念,Galaxy S24系列卖得很火,以至于Galaxy AI的用户群体比预计更多,作为三星合作伙伴的WPS就需要用付费来拦截一些不必要的使用请求,以节省算力资源。

AI手机这个概念是不是伪命题先不说,毕竟各厂商都会有自己的不同看法,选择不同的技术路线也很正常,但用AI需要花钱的这件事,AI手机概念的鼓吹者应该提前给消费者打好预防针。在当下手机价格持续上涨的情况下,一款高端旗舰机可不便宜,用户在决定购买时,通常期望的是能够获得完整的、持续的软件支持。然而,如果手机的AI功能未来会转为收费,那么部分用户在购买时可能就会额外考虑这一因素。

事实上,目前几乎所有在宣传AI手机这个概念的厂商, 都有意无意地忽略了AI功能本身是要付费的。众所周知,英伟达靠着给AI厂商销售A100、H20等算力芯片赚得盆满钵满,由于算力是AI大模型的燃料,而AI大模型的算力成本则是由预训练成本和推理成本组成。其中,预训练成本很好理解,也就是从无到有打造一个AI大模型,教会大模型知识所需要的“教育成本”,而推理成本则是让已经训练出的大模型,输出用户所需结果的成本。

目前,AI行业使用的是词元(tokens)来作为成本衡量和计费的单位。比如,OpenAI的GPT-4 Turbo给出的价格,是输入1000个token需要0.01美元、输出内容是1000个token需要0.03美元,而一个汉字约等于2个token。也就是说,如果想要让ChatGPT给出一篇一万字文章,大概需要0.26美元、也就是1.85元人民币。

更重要的一点,是AI大模型输出的AIGC内容无法享受到规模效应所带来的加成,它的边际成本和传统互联网产品截然相反。AI大模型需要对用户的每个需求进行计算,也就是说随着用户规模的增加,如果技术力持续保持现状,那么OpenAI、百度、WPS为每一个token付出的成本实际上是不降反升的。据海外媒体的相关报道显示,微软之前推出的AI编程助手Github Copilot每月收费为10美元,但实际上每增加一个用户,微软每月就要亏损20美元。

这一趋势要到端侧大模型落地才能扭转,而相比于使用GPT-4 Turbo输出文字,用Midjourney、Stable Diffusion其实更便宜,原因就是这两款AI绘画工具只要硬件达标,它们可以部署在用户自己的电脑上,这样一来就只需要付电费就行了。同理,如果端侧大模型在手机端落地,用户使用的AI功能是由手机SoC提供算力、而非WPS部署的算力集群,此时运行手机AI功能的代价就只是更耗电而已。

那么问题就来了,受限于高通、联发科的芯片技术,目前智能手机上能够支持的端侧大模型最多只有100亿参数规模,还完全无法与文心一言4.0、GPT-4 Turbo、Claude 3比肩。所以这也就意味着在相当长的一段时间里,还需要云端提供算力的“AI手机”,用户在用AI功能时都是要付费的。即便不是像如今的三星一般直接向用户收费,可能也会把算力成本均摊到手机的成本里。

本文为转载内容,授权事宜请联系原著作权人。