英伟达卖软件,微软做芯片,大模式竞争格局改变
日期:2023-10-13 15:17:23 / 人气:217
编辑|李伟
头图来源|视觉中国
微软将在下个月(11月14日)的年度技术大会上正式推出其首款AI芯片。
这款专门为AI设计的芯片在功能上类似于英伟达的GPU芯片(H100),专门用于训练和运行大型语言模型数据中心服务器。
目前微软的数据中心服务器使用的是英伟达的GPU芯片。微软推出这款AI芯片的目的是为了尽快摆脱对英伟达GPU的依赖。
因为NVIDIA GPU的高昂价格已经让微软难以承受。从投入产出比(ROI)来看,微软的生成式AI产品亏损严重。
随着微软AI芯片的正式发布,其自身与OpenAI之间的竞争将变得更加积极和直接,而不是遮遮掩掩,仍然把半张脸藏在她的吉他后面不让我们看到。
微软的生成式人工智能产品亏损
GitHub Copilot是微软首款生成式AI产品(2022年推出),可以帮助开发者编写、优化和转换程序代码。因为它极大地缩短了开发者的编程时间,所以它现在拥有超过150万用户,其中大约一半直接在Copilot上编程。
微软对每个个人用户每月收费10美元,而企业版对每个账户每月收费20美元。GitHub Copilot为微软带来了超过1亿美元的年收入。
然而,生成式AI模式的高昂成本,即使对于年收入超过2000亿美元的微软来说,也是相当难以承受的。150万用户每月每用户10美元的Copilot服务费难以支撑Copilot运营的高成本。
据知情人士透露,今年年初,微软Copilot平均每个用户每月损失超过20美元,有些用户甚至造成高达80美元的损失。
亏损的原因是高成本,而造成高成本的一个关键因素是英伟达的GPU芯片。
通常像微软这样的AI巨头,通过数据中心训练运行自己的大模型,在云端交付(订阅付费)AI产品给用户。OpenAI的ChatGPT也是在微软的Azure云上训练、运行和交付的。
微软和OpenAI都一致认为,在大型模型的训练和运算上,如果完全依赖英伟达的GPU芯片,成本会高得令人望而却步。
因为特殊的AI操作,这些数据中心的服务器大多配备了英伟达的GPU芯片和8个这样的GPU,价格在20万美元左右。OpenAI的ChatGPT依赖于这些昂贵的NVIDIA芯片,在今年年初每天的运营成本高达约70万美元。
来源:视觉中国。
如果将其所有AI模型部署在Bing、Office 365和GitHub中,微软需要投入数百亿美元的硬件基础设施成本,其中AI芯片占了很大比重。
为了“弥补”投入与产出的差距,包括微软在内的各路AI玩家都使出浑身解数。微软和谷歌都在规划如何提高AI产品的定价。Zoom推出了简化版的AI产品,而Adobe则限制了每月的用户数量,并根据实际使用情况收费。
自研芯片,定价较高...这些都不是解决之道,而是AI商业化预期过高,但商业化模式依然模糊的现实困境。
如今,生殖式人工智能的商业化无法应用曾帮助谷歌、亚马逊和脸书获得独特优势的大规模网络效应。并不是用的人越多,成本越低。
每使用一个生成式AI产品,产品背后几乎所有的复杂计算都需要单独调用。用户和用户越多,支撑这些计算的硬件基础设施成本就越高,固定费用(费率)服务费自然很难抵消这些高昂的成本。
英伟达“咄咄逼人”
每一个自称拥有大AI模型的CEO,都在无时无刻不在抱怨拿不到足够多的英伟达GPU芯片。这些芯片优先部署在英伟达主要客户的数据中心服务器上,如微软、亚马逊和谷歌。
OpenAI的ChatGPT引发的生成式AI浪潮,使各种规模的公司对GPU芯片的需求急剧增加,从而将英伟达推向了前所未有的高度——除了与客户价值数百亿美元的新订单,英伟达的市值超过1万亿美元。
甚至有人说,淘金热中卖铲子的英伟达,现在也要“铲”淘金者了。
英威达曾经要求在自己的云服务提供商的大客户数据中心租用一台装有GPU芯片的服务器,交给大客户的竞争对手使用——微软、谷歌和甲骨文都同意了这个“不对等的提议”,但亚马逊AWS没有同意。
此外,在将自己的芯片交给初创云服务公司时,英伟达还要求这些初创云服务公司将其云客户“介绍”给英伟达。
英伟达的意图是沿着“GPU芯片-服务器-数据中心-云”的路径去接触更多的企业用户,与他们建立更紧密的客户关系,最终销售自己的AI相关软件。其中一些软件是专门为帮助企业客户管理和开发大型数据集而设计的,与微软的同类产品直接竞争。
目前使用英伟达AI软件构建大型模型的公司有Adobe、Getty Images和Shutterstock。
在英伟达最新的季度财报中,这家激进的公司表示,向参与开发AI或VR应用的公司出售软件可能会带来3000亿美元的潜在收入。
除了这种软件“批发”模式,Invista还是一个“私人裁缝”。通过(合作伙伴的,自己的)云,我们为一些具有强大业务专长的客户公司提供定制的生成式预培训模型(GPT),包括生物制药公司安进和保险公司CCC Intelligence Solutions。
英伟达对微软的威胁不仅仅是沙发边的高成本芯片,还有关系到未来业务增长的AI商业化收入。
生成式人工智能竞赛的下半场
在市场研究公司Gartner今年9月初发布的《2023新兴技术成熟度曲线》中,生成式AI目前正处于预期的扩张期,“其发展前景仍存在很大的不确定性。”Gartner研究副总裁梅丽莎·戴维斯(Melissa Davis)这样判断。
2023年新兴技术成熟度曲线。来源:Gartner
在业内人士看来,像OpenAI和Anthropic这样的生殖型AI创业公司的高估值,反映了市场对AI预期的高膨胀。据预测,未来企业会更严格地考虑生成性AI的成本,2024年企业对生成性AI的投入可能会减少。
当推出GPT-4的OpenAI在9月底与外部投资者讨论股票出售时,它将其估值定义为800亿至900亿美元,是今年年初的三倍。
在获得亚马逊40亿美元投资后,OpenAI最直接的竞争对手Anthropic计划从谷歌和其他投资者那里筹集20亿美元,估值为200亿至300亿美元。今年3月,其估值仅为40亿美元。
事实上,Anthropic是从OpenAI“衍生”而来的。2019年,OpenAI调整组织架构,在现有架构内成立“有限利润公司”,将运营利润目标放在技术研究之上,导致一批研究人员离职后成立了Anthropic。
但“殊途同归”,两家公司今年向投资者报出高估值的充分理由是对自身商业营收的信心。
Anthropic预计今年年底其收入将达到2亿美元。作为先行者,OpenAI已经开始真正赚钱了。
GPT-4发布后,OpenAI的年收入现在是10亿美元,而ChatGPT发布前一年(2022年11月)的收入是2800万美元。
微软AI商业产品的高亏损,OpenAI和Anthropic对营收增长的高预期,NVIDIA对自身业务边界的拓展,其实都是AI大模型竞争格局的变化。
从之前的“芯片-算法-训练数据”三位一体,所有生产投入(生产工具和生产资料)的辛苦和奇迹,成为AI模型商业化的迫切形势,促使各路玩家追求投入产出比,即芯片效率比、模型算法优化、产品商业化时的10亿用户。
对于“十亿用户”来说,先发优势可能会起到关键作用。
尽管OpenAI在ChatGPT首次推出后的一个月内就吸引了1亿用户,但微软、谷歌和亚马逊已经在在线办公、搜索和购物等垂直领域积累了10亿用户。高价值的OpenAI和Anthropic需要更加努力。
新闻热线&投稿邮箱:tougao@iceo.com.cn”
作者:顺盈注册登录平台
新闻资讯 News
- 光伏制造要限产,这次的“自律”...12-16
- 信用卡大变局:“瘦身”与机制改...12-16
- 专访|《不讨好的勇气》导演董润...12-16
- 第三批发射成功,“千帆星座”在...12-16