历史押韵:从加州淘金热到AI浪潮,为何「卖铲人」总是最大赢家?

最新一代的GPU再度成为市场上备受青睐的对象,哪怕手里攥着现金,也不一定能够抢到货,整个AI行业好像都在为这几家芯片领域的巨头忙碌奔波。

芯片短缺的背后

全球范围内的AI企业,都在竞相争夺高端GPU,特别是英伟达的H100系列与B200系列。在2023年的时候,这些芯片的交付周期长达半年时间。就连特斯拉、微软等行业巨头,都得提前数月进行预订。这样的现象,是由于AI模型参数量呈现出爆炸式增长所导致的。从GPT-3的1750亿,发展到如今的万亿级模型。算力需求每一个季度就会翻上一番。

芯片制造自身同样存在着瓶颈,台积电的CoWoS先进封装产能严重匮乏,在2024年预计缺口会达到30%,三星与英特尔即使加快追赶步伐,然而短期内难以扭转局面,这致使整个AI产业陷入到“有算法却没芯片”的尴尬状况,众多初创公司不得不把大部分融资用于支付算力费用 。

卖铲人的商业智慧

通过历史来瞧,在1849年的加州淘金热里面,真正实现致富的是那些售卖铲子、牛仔裤以及地图的商人,李维·斯特劳斯凭借帆布工装裤创建起了牛仔帝国,然而多数的淘金者却落得血本无归的下场,这样的模式在当今的科技领域仍旧是有效的,提供基础设施的企业往往能够获取最为稳定的收益 。

加密货币范畴之内,币安、Coinbase等之类的交易平台,不管市场处于牛市或者熊市的状况,均能够持续实现盈利。在2023年的时候,币安单单是交易手续费这一项,所获取的收入就超过了120亿美元。这些交易平台并不需要去预测哪一个代币将会出现暴涨的情况,只要市场当中存在着交易方面的需求,它们就能够做到稳稳赚取利润而不会出现亏损 。

算力供应商的垄断

英伟达借由CUDA生态打造出极为高的竞争壁垒,全球有超400万开发者依赖CUDA平台,迁移至其他架构得重写所有代码,这种依赖性使得英伟达能够保持高达73%的毛利率,远远高于AMD的47%以及英特尔的40%。

芯片设计企业除外,整个算力供应链,都在从中受益,台积电的那些先进制程订单,已排到了2025年,SK海力士的HBM内存产能,全部都被预订了,就连发电企业,都开始专门去为AI数据中心建设供电设施,美国多家电力公司,在2024年计划新增50亿美元投资,用来升级电网。

创业者的两难处境

创业者在AI应用领域面临着严峻的挑战,2023年的时候,全球新增添的AI初创公司数量超过了1.2万家,然而其中七成把大部分资金都投入到购买算力方面,好多团队不得不采取接受算力供应商的股权投资这种方式,以此来换取芯片优先供应权,这样做进一步地削弱了创业公司曾经具备的独立性。

与此同时,模型迭代的速度使得创业者应接不暇,今天才完成基于GPT – 4的应用开发,明天或许就需要适配新版模型了,这种不确定性致使应用层企业难以构建起持久的竞争优势,大部分利润最终都流向了底层算力提供商 。

投资者的机会选择

有这样一种情况,是针对于普通投资者而言的,那就是直接去押注AI应用公司,这种行为所存在的风险程度是极高的。然而呢,要是去投资算力供应链,却相对来说是比较稳妥的。在2023年的时候,出现了这样的现象,英伟达的股价上涨幅度达到了239%,台积电的股价上涨幅度为65%,这两个上涨幅度都要远远高于AI应用类公司的平均涨幅。上述所描述的这种趋势,在2024年的时候仍旧是在持续的。

不同于上市公司,算力租赁变成新兴投资途径。美国好些基金公司特意设立算力投资基金,买下GPU后租给AI企业,年化收益率高于20%。此模式本质上依旧是“卖铲子”思维的拓展,不过降低了个人投资者的参与门槛。

行业的未来走向

正在努力打破垄断的是开源模型 ,带动开源社区发展的是Meta的Llama系列 ,2023年全球出现了200多个重要开源模型 ,这些模型在特定任务上已颇接近闭源模型水平 ,并且运行成本要低得多 ,这或许会逐步改变算力市场的格局 。

新兴的芯片企业也在寻觅突破口,谷歌的TPU芯片性能持续提升,亚马逊的Trainium芯片性能同样不断提高,预计到2024年将会抢占15%的训练市场份额,虽说短期内难以撼动英伟达的地位,不过多元化的芯片架构为行业带来了更多的选择空间。

在这一场关于AI的竞赛里头,你更为看好哪一个环节所具备的长期价值呢?是那持续进行创新的芯片巨头,又或者是寻觅体现差异化突破的应用公司呢?欢迎你来分享你的见解,要是觉得这篇文章存在价值,请点赞予以支持并且转发给更多的朋友。

© 版权声明

相关文章