谁是AIGC的“大玩家”?
提纲挈领的技术架构:基建、模型及应用
我们关注到,生成式AI领域出现了技术分工的早期阶段。
数百家创业公司正冲进来,开发基础模型,构建AI原生应用,建设基础设施或工具等等。
通常,热门技术被市场采用前,就被过度炒作透支了。但生成式AI的繁荣来自真实的市场收益,以及真实的公司推动。以人工智能驱动的文本转图像模型Stable Diffusion和自然语言对话模型Chat GPT为代表的这类模型,正获得爆发性的用户增长;同时很多应用在发布一年内,营收就超过了1亿美金。AI模型在一些任务中的表现已经超过人类好多个数量级了。
因此,有足够的信号显示,AI领域正在发生大规模的变革。但最关键的问题是: 在生成式AI市场中价值将在何处出现?
我们通过与大量生成式AI公司交流发现, 基础设施服务商 可能是最大赢家,获得最多的财富。 应用公司 虽然增长十分迅速,但他们仍在为留存率、产品差异化和毛利率挣扎。而尽管 模型提供商 决定了这个市场是否存在,但多数还没达到大型商业化规模的门槛。
换句话说,训练了生成式AI并且将它们部署到实际app中的公司创造了最大价值,但没有获得最大价值。
预测这个产业未来的利益分配会如何演变并不容易。但我们认为关键是甄别到底哪些因素可以实现差异化,哪些又可以成为壁垒。这将对市场结构(比如横向和纵向的公司竞争格局)和长期价值驱动力(比如利润率、留存率)产生极大影响。
遗憾的是,除了此前业已形成的传统优势,我们还没在当前的技术分工中找到任何结构性的优势壁垒。

【来源:Matt B., Guido A., & Martin Casado (2023, January 23). Who owns the Generative AI platform? Andreessen Horowitz. Retrieved January 30, 2023, from https://a16z.com/2023/01/19/who-owns-the-generative-ai-platform/ 】
通过“应用-模型-基建”的分析框架,目前整个生成式AI可以分为3层:
- 应用层 ,通常基于自有的模型或依赖第三方的API,将生成式AI模型集成到面向用户的产品。
- 模型层 ,通过专用API或开源检查点(需要一个托管方案),赋能AI产品。
- 基础设施层 ,为生成式AI模型执行训练或调用请求,比如云平台和硬件生产商。
应用:可开启规模化之路,但用户留存和产品差异化依然在挣扎
在之前的技术周期中,传统的观点是,如果要建立一个独立的大型公司,就必须有C端或B端客户。这容易让我们认为生成式AI领域最大的公司也将是面向终端用户的应用公司, 但事实未必如此 。
可以肯定的是,由于智能生成内容非常新颖,具有多种应用场景,生成式AI应用程序的增长是惊人的。在图片、文字、代码生产三个领域,其年化收入均已经超过1亿美元。
然而,仅靠增长还不足以建立基业长青的软件公司——重要的是,增长必须是有利可图的。
从某种意义上说,用户一旦注册,就会产生利润(高毛利率),并长期留在这里(高留存率)。在缺乏强大的技术差异化的情况下,2B和2C应用程序通过网络效应、数据存储或构建日益复杂的工作流来获取长期的客户价值。
但在生成式AI领域,这些假设并不一定成立。
由于模型推理的成本不同,不同应用公司的毛利率区别很大:少数公司高达90%,但更多情况下只有50% -60%。“漏斗”头部的公司增长非常惊人,但目前投放效率和留存率已经开始下降,这种获客策略是否具有可扩展性还不确定。
该领域的应用都大同小异,因为它们依赖于相似的底层AI模型,也没有发展出竞争对手难以复制的网络效应或数据和工作流。
因此,现在还不确定销售应用程序是否是构建长期生成式AI业务的唯一途径或最佳途径。随着竞争加剧和模型效率的提高,利润率应该会提高;随着AI观光客们离开,产品留存率也应该会增加。
也有观点认为,更垂直的应用将在差异化方面有优势,不过这仍待观察。
展望未来,生成式AI应用公司还会面临如下难题:
- 垂直整合(“模型+应用”) 。 将AI模型作为一种服务来消费,允许应用开发者在小团队中快速迭代,并随着技术的进步替换模型提供商。也有开发者认为产品就是模型,从头开始训练模型是建立壁垒的唯一方法——即通过不断地对专有产品数据进行再训练,但这是以更高的资本要求和更不灵活的产品团队为代价的。
- 构建功能vs.做应用 。 生成式AI产品可以有许多不同的形式:桌面应用、移动应用、Figma/Photoshop插件、Chrome插件,甚至Discord机器人。在用户已经习惯的场景集成AI产品很容易,因为UI通常只是一个文本框。那么其中哪些会成为独立公司,哪些会被巨头收购呢?
- 管理技术成熟度曲线 。 目前还不清楚当前这批生成式AI产品的用户流失是注定的,还是由于行业处于早期导致的“假象”,或者,用户对生成式AI的兴趣是否会随着技术成熟度曲线的回落而下降。这些问题对应用公司具有重要影响:包括何时加速融资、如何积极投入获客、优先考虑哪些用户、何时确认PMF等等。
模型:模型提供商虽然发明了生成式AI,但仍未达到较大的商业规模
如果没有Google、OpenAI和Stability这些公司出色的研究和工程工作,我们说的生成式AI就不会存在。通过新颖的模型架构和扩展训练的规模,人们才都能受益于当前大型语言模型和图像生成模型。
然而,与这些应用的使用量和热度相比,模型相关的收入仍然相对较少。
人工智能文本转图像模型Stable Diffusion获得了爆炸性的社区增长,这是用户界面、托管产品和Fine-tuning方法构成的生态系统共同支持的结果。不过,其所属的公司Stability把提供免费调用作为其业务的核心原则。
在自然语言模型中,OpenAI的GPT-3/3.5和ChatGPT占主导地位。但到目前为止,已经降过一次价的OpenAI构建的杀手级应用还相对较少。
但这都有可能是暂时的。Stability是一家新公司,目前并不急于盈利。而随着更多杀手级应用程序的建立,尤其是模型能力如果能顺利整合到微软的产品矩阵中,OpenAI也有潜力发展出庞大的商业图景,在NLP领域中大获其利。鉴于这些模型的巨大使用量,大规模的收入可能已经不远。
但他们也面临强大的竞争对手。作为开源发布的模型可以由任何人托管,包括不承担耗费千万甚至上亿训练成本的外部公司。现在还不清楚是否有闭源模型能长期保持优势。
由OpenAI 前核心员工组成的 AI 创业公司Anthropic、自然语言处理平台Cohere和前谷歌研究人员创立的Character.ai等人工智能公司,也在构建大型语言模型(LLMs)。他们的模型使用相似的架构、在相似的数据集(即互联网)上进行训练,性能已经接近OpenAI。Stable Diffusion的例子也表明,如果开源模型达到了足够的性能水平基准,取得了社区支持,那么闭源的替代方案可能很难与之竞争。
也许,对于模型提供商来说,最清晰的结论是, 商业化会和托管绑定 。 对于闭源API(比如Open AI)的需求在快速增长,开源模型的托管(如Hugging Face和Replicate)也在逐渐成为方便分享和集成模型的枢纽。甚至在模型生产者和消费者之间出现了一些间接的网络效应。有一个强假设是,模型提供商有可能通过模型微调和托管能力与B端客户达成合作来盈利。
除此之外,模型提供商还面临着许多棘手问题:
- 同质化 。 人们普遍认为,随着时间的推移,人工智能模型的性能将趋于一致。但是和应用开发者交流后,我们发现差异化会持续存在。图片和文字生产领域都有强大的头部玩家,只是他们的优势不是基于独特的模型架构,而是基于高资本投入、专用的产品互动数据和稀缺的AI人才。这会是长期优势吗?
- 被替代的风险 。 依靠模型提供商是应用公司起步和发展业务的有效途径。但是,一旦达到一定规模,应用公司就有动力建立、托管自己的模型。许多模式提供商的客户分布高度集中,少数应用带来了大部分收入。如果这些客户转向内部AI开发时,会发生什么?
- 钱重要吗? 生成式AI的前景非常大,但也可能非常有害,以至于许多模型提供商已经成为公益公司(B corps),或者发行有限投资回报的股权(译者注:如微软投资OpenAI的案例),或者用其他方式明确地将公共利益纳入其使命。这并没有妨碍他们的融资。这里有个问题是,模型提供商是否真的想要盈利、以及他们是否应该盈利。
基建:基建服务商无处不在,并收割成果
生成式AI几乎在方方面面都需要使用云托管的GPU/TPU。无论是模型提供商/研究实验室去训练、调用、微调,还是应用公司进行两者的某种组合——算力(FLOPS)始终是生成式AI的命脉。
最具颠覆性的计算技术的进展受到大规模计算的约束,还是第一次。
因此,生成式AI领域的大量资金最终流向了基础设施服务商。粗略估计,应用程序公司将大约20-40%的收入用于调用模型和每个客户的微调,这些费用通常会直接支付给云服务商;或者支付给第三方模型提供商,而模型提供商再把大约一半的收入花在云服务上。因此,我们有理由猜测,如今生成式AI总收入的10-20%会流向云服务商。
在此基础上,训练自己模型的创业公司已经筹集了数十亿美元的风险投资——其中大部分(早期甚至高达80-90%)也花在了云服务商身上。许多科技上市公司每年都与云服务商或硬件制造商合作,在模型训练上花费数亿美元。
对于这样一个新兴行业而言,这着实是一大笔钱,而其中大部分都花在了三巨头上:亚马逊 AWS 、谷歌 GCP 和微软 Azure。这些云服务商每年保持超千亿美元的资本支出,确保他们拥有最全面、最可靠、最具成本竞争力的平台。特别是在生成式AI领域,它们也从供应限制中受益,因为它们可以优先获得稀缺的硬件(如Nvidia A100和H100 GPU)。
但有趣的是,实质性竞争正在出现。像Oracle 这样的挑战者已经通过大笔资本支出和促销措施进入了市场。一些初创公司,如Coreweave和Lambda Labs,通过提供专门针对大型模型开发商的解决方案迅速成长。它们在成本、可用性和个性化支持等方面展开全面竞争,还公开了更细粒度的资源服务(即容器 Container),而大型云服务商由于GPU虚拟化的限制,只提供虚拟机实例。
而迄今为止生成式AI领域的最大赢家——英伟达,就藏在这一切背后。该公司在2023财年第三财季报告了38亿美元的数据中心GPU收入,其中有相当一部分用于生成式AI应用。英伟达通过数十年对GPU架构的持续投入、强大的软件生态系统,以及在学术界的深度应用,已经建立了坚固的护城河。最近的一项研究发现,Nvidia的GPU在研究论文中被引用的次数是顶级AI芯片初创公司的90倍。
其他硬件选择也确实存在,包括谷歌的TPU ,AMD Instinct GPU,AWS Inferentia和Trainium芯片,以及来自Cerebras、Sambanova和Graphcore 等初创公司的AI加速器。英特尔也带着高端Havana芯片和Ponte Vecchio gpu进入了这个市场。但到目前为止,这些新芯片还没能占据重要的市场份额。两个值得关注的例外是谷歌和台积电,前者的TPU在Stable Diffusion社区和一些大型GCP中有一定吸引力;后者则生产了上述所有芯片,包括英伟达的GPU(英特尔使用自己和台积电的晶圆厂制造其芯片)。
换句话说,基础设施服务商处于一个有利可图且持久稳固的位置。它们需要回答的关键问题包括:
- 如何防止跨云迁移 。 无论你在哪里租英伟达的 GPU都是一样的,大多数AI工作负载是无状态的,也就是说,模型推理不需要附加额外的数据和存储(除了模型权重本身)。这意味着AI计算任务可能比传统应用程序计算任务更容易跨云迁移。在这种情况下,云服务商如何提高粘性,防止客户转向最便宜的选择?
- 如何在芯片短缺结束后生存 。 云服务商和英伟达本身的高定价,主要是由性能最良好但供应又稀缺的GPU支撑的。一家供应商告诉我们,A100自上市以来,其指导价一直在涨,这对计算硬件来说是极其少见的。当这种供应限制最终通过增加生产、采用新的硬件平台而弱化时,将对云服务商产生什么影响?
- 挑战者们的云能成功吗? 我们坚信,垂直云能通过提供更专业的服务,从三巨头手中夺取市场份额。到目前为止,在人工智能领域,挑战者们通过适度的技术差异化和英伟达的支持,已经获得市场吸引力。对于英伟达而言,现有的云服务商既是最大的客户,也是新兴的竞争对手。长期的问题是,这是否足以克服三巨头的规模优势?
所以,我们将从哪里创造价值?
我们还不知道。但根据目前所掌握的生成式AI的早期数据,结合早期AI/ML公司的经验,我们的直觉如下:
现在,在生成式AI领域还没有出现任何系统性的护城河 。 应用产品由于使用相似的模型而缺乏差异性;模型在类似的数据集和类似的架构上训练,长期差异不明确;云服务商运行相同的GPU,也缺乏深度技术差异;甚至硬件公司也在同一家晶圆厂生产它们的芯片。
当然,还有标准的护城河:规模护城河(“我有/能比你筹集到更多的资金!”)、供应链护城河(“我有GPU,你没有!”)、生态系统护城河(“每个人都已经在使用我的软件!”)、算法护城河(“我们比你更聪明!”)、分销护城河(“我有更强的销售团队和更多的客户!”)和数据护城河(“我在互联网上爬的数据比你多!”)。但这些护城河都不可能长期持续。现在判断更强更直接的网络效应能否会在任何一层玩家占据上风都还为时过早。
根据现有的数据,我们还不清楚生成式AI领域是否会出现长期的赢家通吃的情况。
虽然这很奇怪,但这是个好消息。这个市场的潜在规模很难把握——它介于所有软件和所有人的努力之间,所以我们预计会有很多、很多的参与者,在各个层面上进行良性竞争,最终是市场和用户决定了最佳的产业结构。如果终端产品的主要区别是人工智能本身,那么垂直类产品可能会胜出。而如果人工智能是一个更大的、长尾的功能集的一部分,那么平台型产品将更有优势。当然,随着时间的推移,我们会看到更多传统护城河的建立,甚至是新型护城河的出现。
无论如何,可以肯定的是生成式AI改变了游戏规则。所有人都在实时学习这些规则,大量价值将被释放,科技领域也将因此变得非常不同。让我们静待花开。