发布日期:2024-08-11 11:55 点击次数:169
AGI 到底有多大是今天最大的非共识。
作者丨李广密 李双星
本篇研究是拾象团队过去半年关于 AI 投资思考总结,在一二级融合的视角来回答“今天应如何参与 AI投资”这一问题。AI 不仅是一级市场科技投资投资的核心,在二级市场上,也已经成为驱动科技股增长的力量。在每一轮技术革命早期,初创团队追寻新技术下最原生的创新,而大公司最先补捉到价值。
拾象推出 AGIX Index 通过追踪这些大公司受益于 AI 的进度,来更量化地反映出 AI 的发展趋势。AGIX Index 首先从上千家美股上市科技公司中层层筛选至 50 家左右,随着行业发展调整数量和权重,帮助市场感受 AI 价值在不同领域和板块之间的流动。
iPhone 在 2008 年上市当年,Apple 公司的股价从 8 美元涨到了 10 美元,今天,Apple 的股价现在的股价在 230~240 美元之间。16 年的时间里,Apple 公司的股价涨了 15~16 倍。当一个大的科技革命到来的时候,长期的投资回报是非常可观的,考虑到我们现在其实还处于 AI 革命的早期,所以现在是参与 AI 投资最好的时间。这一点这也是为什么我们坚信英伟达估值远没有饱和,将达到至少 5 万亿美元市值的原因,除了英伟达之外,在这篇研究中,我们还对 Amazon、Apple、博通以及 Servicenow 等 AGIX Index 覆盖的重要公司进行了基本面分析。
01
为什么要坚定下注 AI
投资逻辑1:
相信 Power Law
过去10年,1%的美股头部科技公司贡献了美国科技股99%的回报。2013年,美股大概有 1,700 家科技公司,当时的总市值为4.2万亿美元,现在美股科技公司的总市值涨到了 20 万亿美元,但头部的 1% 差不多是由大概 10 家公司贡献的,从 2 万亿涨到 18 万亿美元,基本上相当于这头部的十几家公司贡献了涨幅的 99%,这些公司无疑都抓住了移动互联网和云计算这两波关键的技术变革。这也决定了拾象的策略是:只专注于下注大赛道下的头部公司,且下注比较重。拾象在一级市场也已经投了一批最优秀的头部独角兽公司,它们的总估值加起来超过了 6000 亿美元。
毫无疑问,AI 领域一定会诞生下一代头部科技公司,power law 也在 LLM 领域被验证。
投资逻辑 2:
AI-native 是未来 10 年的科技投资范式
复盘过去 2 年 LLM 领域的发展,AI 一定会是接下来科技投资的核心驱动力。
ChatGPT 发布以来,很明显 AI 驱动了美股科技股的增长,Mag 7 在 2023 年的增长其实是超过了 S&P 500 的:Mag 7 的每一家公司都有自己的 AI 布局,且有极高潜力充分受益于这波 AI,尤其是英伟达。
我们也对比了几个指数,从 ChatGPT 发布以来,AI 含量越高的指数增长就越优秀。哪怕把 QQQ 和纳斯达克 100 的 IT 板块单独拆分出来,这些指数的表现也会更好。
我们最近有一个很强的体会是:今天我们很难判断 AI 创业公司能否颠覆巨头。比如,手机还是我们未来 3-4 年里最核心的设备,今天很多的 AI 消费设备是替换不了手机的。其次, AI 创业公司还是比较烧钱的,没有以前广告平台的商业模式好,而且巨头的卡位也很好。
因此,我们认为第一波叙事受益的还是巨头,二级市场成熟的科技公司机会很大,从今天的 AI 投资叙事来看,大基建逻辑下的头部公司是最值得配置,新一代 AI 唱主角的公司的序幕还没有正式展开,为了更好地量化这种趋势,我们针对 AGI 做了一个追踪指数 AGIX Index ,ChatGPT 发布以来,相比于其他的几个科技指数,它的表现也是最好的。我们也希望 AGIX 能够成为大家冲浪未来 AGI 黄金十年的工具。
投资逻辑 3:
AI 会带来商业模式的重构
过去两年,拾象团队专注在大模型这一个环节做了很多研究,我们在大模型研究上的投入至少已经达到了 1 万小时。最近几个月我们也在做大模型应用场景的调研,我们有一个很强的感受就是:硅谷的很多一级 AI 公司都是在 AI feature 方面进行创新的,但很少有公司做到了完整的产品商业闭环,而有可能是在给老公司打样。
就连 OpenAI 这样的大公司也都在巨头的阴影之下:GPU 受限于英伟达,infra 基建受限于微软,GPT 企业级市场也要靠微软的销售,到了 to C 端其实就是 iPhone 上的一个 feature。因此,我们认为在 AGI 链路中,ToC 的很多果子会被 Apple 摘走,而 ToB 的很多果子则会被微软摘走。
我们特别喜欢几个例子:
• Adobe 从转云之前只是一个当年从一个几十亿美金的传统软件公司,但转云之后,它的商业模式、市场规模、增速都有变化,并且一跃成为了一个差不多 3000 亿美金的公司;
• 海康威视在上一波计算机视觉的变革中,从卖设备转为卖系统,商业模式变得更加 recurring,利润率和估值倍数都变高了;
所以,我们相信 AI 肯定也会带来类似的故事,但这个大幕还没有真正展开,我们很期待 AI 能改变更多传统行业公司的商业模式。
02
AI投资的关键判断
判断 1 :
我们并不知道 AGI 到底有多大
现阶段大家还没有对 AGI 的定义和理解达成一个共识,我们听过的最好的一个定义是:AGI 能在 90% 的行业,超过 90% 的专家,完成 90% 有经济价值的工作。其实这三个 90% 还是很激进的,但它代表了一种愿景。
另外,AGI 不完全是一个商业问题,它还兼具了科学发现的属性。它的背后是永无止境的研究发现精神,不断地探索新的能力边界。更抽象地来说,AGI 是怎么用能源和芯片来产出智能?未来各大公司比拼的就是智能产出的效率和能力到底有多高,是否可以无限产出几亿的新劳动力?
从历史上看,科技进步是创造增量价值最关键的要素。有一个有意思的现象是:历史上每一波技术变革的头部公司市值都会比上一波头部公司的市值再加一个 0。10 年前,投中一个 10 亿美金估值的独角兽就很厉害,但今天,很多公司半年内就成为了独角兽、甚至一出生就是10 亿美金估值。2010 年前后 Apple 的市值也才 2000 多亿美金,那个时候,我们根本不会想象到全球还会有万亿美金的公司,就像我们今天也不会想到未来可能会出现 10 万亿美金的公司。
在 2016 年的 AI 投资热潮中,英伟达从 200 亿美金涨到了千亿美金市值,但是我们也无法想象英伟达今天可以达到 3 万亿美元这么大。
所以,今天 AI 领域最大的一个非共识就是:其实我们并不知道 AGI 到底有多大。之前软件产品都是按照人头数定价的,比如一个人 20 美金,但未来可能会按照结果产出来定价,比如 AI 帮我的工作创造的增量价值是 1 万元,那 AI 技术拿走其中的 5-10% 是很合理的,其实现在电商和广告平台已经在按结果付费了。我们认为,未来的工作任务很可能是按结果付费的,这就相当于在增量的 GDP 里面抽税了。
判断 2:
AI 是拉动未来 15 年全球增长的关键力量
AI 和 AGI 一定是未来 10-15 年 GDP 的最强拉动力。结合之前 Sam Altman 的观点,我们也有一个预测:AI 有机会在 10-15 年内让全球的 GDP 翻倍,从今天的 100 万亿美元涨到 200 万亿美元,但今天 100 万亿的 GDP 中和 AGI 浪潮直接相关的可能还不到 0.1%,离解锁 90% 还有很远。
另外一个计算方法是:大模型赋能或颠覆的其实是 “知识工作者” 这个群体,简单地说就是全球每天在办公室工作的 10 亿白领。
从历史上看,农业的机械化已经让 90% 的农民不用再种地了,我们认为这一波 AI 技术基本上能够让这些白领 90% 的日常工作内容实现自动化。坦白来讲,绝大部分知识工作者的内容也是相对简单、机械的重复,所以,就像自动驾驶在很多情况下的安全水平已经超过司机的平均水平那样,如果可以“造出” 3 亿的白领,那未来电费和芯片的成本就可以替代掉每个白领 3 万多美金的年薪,也就是 10 万亿美元级别的收入,如果要对应到市值,这个数字还要再乘以 10。
主观上,我们更期待的是 AI 能创造出李白和杜甫。平均每 1000 万人中,可能会有一个像李白、杜甫这样的天才,而 AI 也是一个概率模型,随着模型能力解锁、如果能从根本上提升 AI 的审美和创造水平,就能更批量地创造出李白和杜甫了,那这将成为一个新文化和创意涌现的时代。
判断 3:
LLM 正处于大基建初期
很多人关心现在 AI 处在什么阶段,拾象团队一个很深的体会是:全球 AI 大模型目前还处在大基建的初期,也是人类 AGI 基建的早期阶段。
为什么基建很重要?过去中国的 4G、5G 和智能手机都是一种基建,只有在电信基建完成后,才有了短视频和移动支付应用的大爆发;公路、铁路基建带来了 电商和快递大爆发;城市化基建带来了外卖、本地生活消费的大爆发。
也有人会问 AGI 应用为什么还没有大爆发,我们的答案也很清晰:因为算力的基建还不够,算法和数据一直在等算力基建。整个 2023 年全球 GPU 的消耗时间,如果按照 2 亿人的基数算,平均每人每天只能算 1 分钟,我们相信它在未来很有可能会像短视频一样渗透到 30-50 亿人,每人每天消耗 1 小时的算力,所以我们目前还处于 AGI 大基建的早期阶段,而 AI 是一个供给驱动型的市场。
今年,硅谷的一线大模型公司已经拥有了 3.2 万张 H100 充分互联的 GPU 集群,再加上它们部署的小集群,年底的 GPU 总量已经超过了 10 万张,在明年的竞争格局中,第一梯队的入场门票就是 10 万张卡充分互联的单体集群,这个数字一点也不夸张,而且是一个单体的充分互联集群。极有可能在 2027-2028 年,会有 2-3 家公司建造出 1000 亿美元的超级计算机,这个超级计算机所产生的影响和曼哈顿计划、登月计划一样。
很多人都很关心这个计算集群的投入产出会是什么?它的产出结果其实就是无限的智力和能力提升或者是更高级的生产力,随之也会对全球地缘政治产生非常大的影响。鸦片战争的本质就是工业社会从高维度碾压低维度的农业社会,新旧世纪交替时的海湾战争也是信息化社会碾压了传统的工业化部队。AGI 今天就到了这样一个新的技术革命转折点,它的影响幅度可能会超过以往的所有技术革命。AI 的进步速度很快,过去一年中 AI 的进步速度超过了人类历史几千年的发展。
今天很多人也在讨论 scaling law 会不会持续,模型会不会继续变大?我们的观点是目前 scaling law 还没有失效,边际收益也没有递减,所以模型在未来几年中会继续变大。今天最大的模型有 1-2 万亿参数,未来可能会走向百万亿参数,和人脑神经元相当。
模型变大的同时,大家还低估了一个趋势,那就是模型变小的速度也很快,OpenAI 刚发布了 GPT-4o mini 模型,单位参数小模型的知识密度也在快速提升,可能在一年内大家就能看到手机和电脑端侧可以跑一个 GPT-4 能力水平的模型。
端侧小模型的趋势也引出了我们的另一个关键判断:除了英伟达代表的数据中心基建,Apple 等手机厂商和手机产业链代表的消费端侧基建也是大基建的一大主题,和数据中心一样重要。
无论是数据中心基建,还是 Apple 手机端侧基建,几乎 100% 的高端芯片都产自台积电,因此台积电将会连续受益于这两波基建浪潮。
判断 4 :
AGI 基建是工程问题,
通过资金投入和时间可以解决
AGI 基建是工程问题,人工智能行业没有解决的问题比解决的问题还要多,因为科学问题往往不是能够立刻看清的,但 AGI 大基建是可以通过投入资金和时间来解决的。
拿 GPT-4 的训练来举例。现在训练出一个 GPT-4 最少也要 8000 张 H100 的有效算力,接近万卡集群。万卡集群是一个标配,如果自己买卡,每张 H100 的售价接近 3 万美金,再加上周边设备,仅硬件成本就需要 3 亿美金。当然也可以租,如果租 H100 一年,需要差不多 1.5 亿美金。
为什么万卡集群工程的难度很大?这个和 GPU 的特点有关,传统 CPU 是串行计算的,一个 CPU 坏了是不会影响到其他 CPU 做任务的。但 GPU 是并行计算的,1 万张卡里 1 张坏了或者 1 张的处理速度慢了,剩余卡的任务进度也会慢下来,这就需要我们快速定位出故障的卡,这件事很难,而且万卡集群基本上每天都会坏,每天都有故障率,因为本身 GPU 的故障率就很高。
第二就是能源上的问题,每张 H100 的功耗是很高的,差不多要 1000 瓦。假设 GPT-4 用 8000 张 H100 训练 100 天,对应就需要 2600 万度电,这意味着三峡一天的发电量,或上海一天用电量的 5%。此外,模型训练对电力的波峰波谷需求很明显,有些任务很耗算力自然对电力消耗也很大,如果规划不好可能会影响到居民用电。之前大家都没预料到 AI 会发展这么快,而重新建造一个电站往往要 2 年左右的建设周期,而且很多地区都有能源环保政策,因此修建电站会比我们想象中还要慢。
我们一直在谈论 1 万张卡的用电量,10 万 H100 集群一年的用电量大概是 12.4 亿度,这大概是整个上海一年用电量的 0.8-1%。现在 AGI 数据中心主要是在美国本土,美国一年的总用电量在过去 20 年里一直都比较稳定,大概是 4 万亿度,其中数据中心可能要用 2000 亿度,也就是 5% 左右。但媒体预测,到 2028 年,美国本土的数据中心用电量会增至 6700 亿度电,也就是在 5 年内涨 3 倍,从 5% 涨到 16%,这对制造和基建能力明显退化的美国来说,其实是一个很大的挑战。
判断5:
未来 2-3 年能看到 Coding 领域 AGI
拾象团队经常说的一点还有 “AGI 不是一蹴而就的”,它的关键词是 “渐进式解锁”,就像前面提到的,画一条登山路线图,模型能力每增长一点,就会解锁一些新场景,产生一些新应用。
目前来看,搜索是 LLM 初期最大的 Killer App。GPT-4 出来已经一年多了,但 AI 应用还没有大爆发,从结果上来看是比较无聊的。但如果抛开 ChatGPT 这种大模型公司的应用,硅谷主流 VC 投资的、已经跑出来且发展到一定估值的,我可能只能想到 Perplexity 一家。
但如果拉开时间维度,我们认为未来 2-3 年有机会看到 Coding 领域的 AGI ,也就是一个做各种任务都非常不错的程序员。因为软件的逻辑更清楚,更容易有从 0 到 1 的反馈。有一个很好的比喻是:过去互联网是搜索网页的信息,叫搜索引擎,但未来 coding 可能叫任务引擎,用来解决有经济价值的任务。
目前我们用的软件是由产品经理定义出头部需求后,再由一个很大的开发团队去开发执行。和拍电影一样,需要导演先发出一个定义,再由整个团队合作来拍。未来,长尾的需求或个性化需求是不需要团队负责开发的,AI 组合各种 Agent 就可以解决。这个场景在历史上已经多次重复实现过了,比如拍电影成本很高,但在短视频爆发后,每个人都可以拍自己的电影。
在今年年初发布的总结中,我们其实也提出到了 “大模型是一个新时代的摩尔定律”,其中分为两条主线:第一条主线就是智能能力的进化,每 1-2 年模型水平就会提升一代;第二条主线是模型的成本会非常快地下降,每 18 个月就会下降 10 倍以上。现在很多开发者在创业的时候,都是用的最好的模型来做 PMF,但很快他们就可以用更便宜的模型来降低成本了,再发展一到两代就很有可能会带来更多 AGI 应用的爆发。
03
如何在二级市场
捕获 AI Alpha?
当一个大的科技革命到来的时候,长期的投资回报是非常可观的:iPhone 在 2008 年上市,Apple 当年的股价从 8 美元涨到了 10 美元,16 年过去后,Apple 现在的股价在 230~240 美元之间。16 年的时间里,Apple 公司的股价涨了 15~16 倍。考虑到我们现在其实还处于 AI 革命的早期,所以现在是参与 AI 投资最好的时间。
最近这几周,硬件板块出现过一些回调,也因此市场上开始讨论接下来要如何布局 AI 投资的问题。对于这次回调背后的原因,我们整体上认为有两方面:
• 在逻辑趋势上,市场上有相当一部分观点开始担心 AI 的货币化;
• 另一个很重要的点就是美国进入了一个偏风格轮动的阶段。
从基本面的趋势角度来讲,我们认为其实并没有特别大的变化。以 Meta 为例,在它基于 GPU 算法的广告模型中,客户每投入 1 美元,就可以创造 3-4 美元的收入,所以这个 GPU 的推荐广告算法带来的收入端增益其实是非常不错的。我们之前也测算过微软的 GPU 回本周期,大概是 3 年左右,也就是说每年大概能带来 30% 现金层面回报,从大的互联网公司角度来说,这个投资回报率还算不错,这个是无需质疑的,这也是为什么这些公司今年都在不断地上调资本支出的指引。在我们和 ServiceNow 以及其他公司的调研和交流中,我们也能很深切地体会到 AI 投入的 ROI 是非常高的。
但从企业用户角度,他们采用 LLM 的瓶颈其实并不是因为 ROI 的问题,而是用模型时需要确保在基础设施、网络、客户隐私以及准确度上符合要求,企业用户采用 LLM 很多时候普遍会考虑三个问题:
• 准确率高不高?
• 数据安全性问题能不能得到解决?
• 应用场景上会不会有各方面合规的要求?
其实现实角度,美国很多企业已经开始在内部部署 LLM 了,比如内部的 IT 答疑系统,如果是一个大型企业,假如有一个 IT 问题,在过去处理这个问题可能需要 5 个工程师把所有的问题问清楚后,再去找到系统的问题并进行修复,但用了 LLM 之后就完全替代了这 5 个工程师的人力。
随着下半年模型的能力会进一步发展,尤其是在逻辑推理能力、多模态能力、agent 能力上都会有进一步的发展。模型能力的进步也会解锁更多的应用场景,我们相信企业也在不断地尝试各种场景,预计明年会看到更多应用端的出现。所以从基本面角度来讲,我们认为 AI 还是在发展的,我们也对明后年非常期待。
短期来讲,可能会出现板块轮动的现象,包括美国大选等外部事件带来的不确定因素等都会成为波动的原因,所以,我们的观点是基本面还是在发展,短期的这些因素更多的还是市场因素,是非基本面的因素。
在二级投资中,拾象选择将精力集中在 5 条投资主线中,分别是算力、云基础设施、端侧、互联与软件。结合我们的调研与研究,我们也会根据 AI 领域的进展来动态地调整我们在这五个方面的布局。
当前我们认为算力与云基础设施仍然是制约 AI 大发展的瓶颈,算力的需求仍然非常强劲,因此我们在算力与云基础设施上的布局相对更重一些。作为对比,AI 对软件的影响不是非常明确,因此我们暂时对软件的布局会相对轻一些。但预计在未来 2 年,我们能够看到端侧的应用与 AI 软件侧的进步都会越发明显,因此我们可能会在未来两年中进一步增加端侧和软件侧的布局。
投资主线 1:
世界需要更多算力,
廉价的算力永远是稀缺品
前面我们提到,目前全球平均有两亿人每人每天会使用一分钟 GPU time,如果沿着这个思路去想,假设未来有 20 亿人每人每天使用一小时 GPU time,那对算力的需求可能会增长 100 倍甚至 1000 倍。
有一类主流观点认为:算力在等待模型进步,市场的发展需要看到应用端的爆发,但我们认为这个观点本末倒置了,在拾象团队的视角中,模型一直在等待更廉价的算力,廉价的算力永远是稀缺品。
算力成本越低,经济可行的算法会越多。以 GPT 的发展为例,GPT-5 需要 5 万张 H100 集群训练 6 个月,所以当前每一代模型如果要训练成功,需要 6-9 个月,模型的迭代速度非常慢,制约模型发展的最主要瓶颈其实就是算力。但如果我们用下一代英伟达 B100 的卡去训练 GPT-5,它的训练时间可能会大幅缩短,只需要 1-2 个月,那模型的迭代速度就可以大幅度提升。
中长期看,我们看到有 3 个方面的因素会进一步拉动算力的需求。
1. 我们仍然处于 scaling law 的早期,模型的能力还是会随着模型参数的增加而提高。OpenAI、微软与 Anthropic 等头部公司的高层曾在访谈中多次提到:scaling law 远远没有触及边界,他们的产品仍在你追我赶的过程中。算力军备竞赛仍然在如火如荼地进行。
2. 多模态模型,尤其是上周 GPT-4o mini 的发布,会进一步解锁更多应用场景,例如随身携带摄像头,提供实时的 AI 助手功能等。多模态模型也可以进一步地替代人工成本较高的职位,例如医生出诊、律师咨询、销售等,这些职位以后都将有可能被 AI 所取代,这样 AI 所带来的经济价值也会越来越高。
3. 我们可以有一些大胆的假设,当前每年全球国防开支约为 24000 亿美元,如果大模型能够进一步解锁图像与视频领域的新能力,假设每年有 3~5% 的国防开支用于 AI 或信息相关投资,就有 1000 亿美元的边际增量。
综合各方面因素,我们认为世界仍然需要更多的算力。
Top Pick:英伟达(NVDA)
英伟达仍是我们目前在算力这个投资逻辑中最为看重的一支股票,虽然它的股价已经涨了很多,但我们认为估值远远没有饱和,目前英伟达的市值已经达到了 3 万亿美元,但我们对英伟达的心理价位至少是 5 万亿美元左右。
市场上会有观点认为,因为竞品的快速追赶,英伟达护城河与此同时也在不断变窄,但拾象的判断是:推理对系统要求更高,英伟达系统的护城河其实是越来越宽的,这是英伟达实现 5 万亿的前提。
我们对英伟达看多有三方面原因:
• 从市场规模来讲,我们认为整个加速芯片市场会进一步扩大,有机会达到 3000-4000 亿美元的规模;
• 英伟达拥有从芯片、互联到软件三位一体的竞争优势。在短期内,我们看不到英伟达有任何的竞争对手;
• 英伟达有非常完善的产品矩阵。英伟达在今年的展览会上明确宣布了它在 2024 年下半年、2025 年以及 2026 年的产品路线图。我们能看到它正在从卖芯片逐渐转向发展成熟的系统和软件,不仅路线图明确,产品力也在逐年提高。
在此前面看多英伟达的基础上,关于“为什么英伟达至少可以达到 5 万亿的市值”,我们的逻辑是:
未来 5 年之后,数据中心的基础设施将达到 2 万亿美元的市场规模,这里的 2 万亿指的是整个 IT 基础设施的规模,即同时涵盖了 CPU 和 GPU,现在存量的数据中心规模大概在 1 万多亿,每年有大概 2000-3000 亿的增量,5 年后就会达到 2 万亿美元左右的规模。
在数据中心规模达到 2 万亿后,就会出现:现在硬件的使用周期一般是七年左右,如果以 7 年作为一个替换周期,那实际上每年的替换率有 15%。正常情况下,每年的增长大概是高单位数,也就是 7-8% 左右,所以 15%的替换周期加上高单位数的自然增长,那每年就会有近 20% 的替换加增长的一个市场空间,随之也会带来一个 4000 亿的 Capex 的空间。
过去的每个时代,最头部的企业都占到了 70-80% 的价值量,并且今天来看英伟达的护城河非常宽、也很值得市场的信任,所以我们认为英伟达仍旧可以占到 75% 的价值量,也就是说,它可以达到 3000 亿美元的收入体量。
目前英伟达的净利润率是 45-46%,随着规模扩大,它的经营杠杆会进一步体现,所以我们认为它有机会达到 50% 的利润率,也就是 1500 亿的数据中心盈利。
数据中心之外,再叠加上比如自动驾驶,gaming,以及它在帮很多企业开发的数据中心业务等等,我们认为英伟达肯定是可以达到 5 万亿的。值得强调下英伟达在自动驾驶上的布局,英伟达可能是除了 Tesla 之外在自动驾驶上投入第二大的公司,我们认为这一点其实是被市场忽略了。
投资主线 2:
AI 对云厂商的盈利拉动开始显现
云厂商能最直接受益于大模型进步与应用。我们已经能看到 AI 对云厂商的收入拉动在逐步增加:过去四个季度中,AI 对微软的边际贡献分别是 1%、3%、6% 和 7%,在很多 CIO 调研中也能明显感受到全球头部企业在云上的投资意愿是在不断增加的,2025、2026 年在云上的投资意愿都显著高于 2024 年,也因此,我们对几大云厂商在未来几年的收入都是非常乐观的。
Top Pick: Amazon(AMZN)
Amazon 是四家云厂商中我们目前最喜欢的一家,并且我们认为市场其实低估甚至忽略了 AWS 受益于 GenAI 的程度,也因此我们看好 AWS 的长期增长潜力。
拾象团队对于 Amazon 的投资逻辑,主要基于以下两点。
• 首先,如前面所提到的,AWS 作为云厂商也是 LLM 的重要分发渠道,其中,AWS 和 Anthropic 的合作虽然不能 100% 看作 Azure 和 OpenAI,但也是相当深度的合作。Anthropic 最新发布的 Claude 3.5 系列模型的表现数据很惊艳,从市场反馈来看,Claude Sonnet 3.5 是一个和 OpenAI GPT-4o 不相伯仲的一个模型;
• 第二,因为 Amazon 收入中很重要的一部分来源于零售以及广告,而今年和明年零售和广告业务会进入一个快速复苏和增长的环节,
总结来说,无论是在近期零售与广告的复苏,还是中长期在大模型的布局与云服务上,我们都非常看好亚马逊。所以,现在这四朵云中,我们的首选是亚马逊。
更进一步,我们可以把 AWS 和 Azure 进行对比,来感受为什么 AWS 的实际表现可能比市场认知中要更强。
和 AWS 相比,微软更擅长为大企业和政府服务,它和 OpenAI 绑定更深。但是我们也能看到它和 OpenAI 之间彼此有一定提防的,比如 OpenAI 其实并没有把某些交互的 API 权限开放给微软 Azure,但 AWS 对中小企业更友好,尤其对 start-up 更友好。
从模型能力的差异来看,两者可以说是齐头并进,在某种程度上,虽然 Anthropic 的每一代模型虽然可能比 OpenAI 稍微晚几个月,但其实它的效果在很多方面,尤其是在长文本的阅读能力、作图能力等上都略高于 OpenAI,所以我们认为亚马逊和微软在能力上并没有绝对的差异。
甚至和 AWS 相比,微软更封闭一点,因为它的目标是通过 AI 来推动其他产品的销售,比如推动 Office365 和 Windows 的销售,所以微软的主观性更强,有更强的主观控制的 tendency。而 Amazon 就更开放一些,如果我们相信 AI 会产生一个新的独角兽或者产生一个新的颠覆式的公司,那么这个公司很有可能最早是 AWS 的客户。
也因为市场对微软的共识太强了,这就导致它的 PE 的 multiple 很高,可能有 35 倍左右。但因为对 Amazon 的预期不太高,甚至觉得它会因为 AI 受损,所以 multiple 并不高,这也是一个非常大的区别。
投资主线 3:
端侧应用开始进展
To C 端,今年是 AI phone 的元年。2008 年,我们看到的是 smart phone 开始取代过去的 feature phone,随着 Apple 在今年的 WWDC 上推出的 Apple Intelligence,我们认为今年进入了 AI phone 的时代。在企业端,在很多 survey 中都能看到,企业高管们对端侧的 AI 都是非常看重的,也都非常愿意进一步投资端侧的 AI 应用。
Top Pick: Apple(AAPL)
在端侧的布局上,我们目前的首选就是 Apple,我们认为 Apple 最关键的价值在于,因为它在软硬件上布局足够全面,所以能够把控整个流量的入口,Apple 是 AI 时代 ToC 端当之无愧的最大受益者。
先从入口角度,除了 OpenAI 的 GPT 系列模型外,Apple 还在和很多家 LLM 公司接触,它选择的是一个所谓的热插拔的策略,也有报道说它在和 Google 谈新的合作,在 WWDC 上,我们也能看到 Apple 很明确地表示要把流量入口抓在自己手里。
AI Chatbot 对于 Apple 来说一定是一个相对比较大的应用,但是在系统级的层面上,它一定、并且也会牢牢地把所有的流量入口、分发权以及 APP 的调用权控制在了自己的手里。这也是我们为什么非常喜欢 Apple 的原因:在 AI 时代,它仍然是最能占据流量入口和心智的卡位。
我们对这次 WWDC 最大的感受也是:Apple 非常有机地把 AI 结合到了 iOS 系统中,我们甚至可以说,一方面是 Apple 深度地拥抱 AI,另一方面 AI 也在某种程度上在重构 Apple。可以想象一下,未来 AI 时代的手机入口可能不再需要点击屏幕上的一个个 APP,Siri 变成了一个全能的 Agent,因为它的权限很大,可以把各种应用都调用起来、完成复杂任务和交互。
举个例子,我们可以让 Siri 帮忙查询一班明天北京到上海的飞机,根据我目前的日历行程,也许一个上午 10 点从北京机场飞到浦东机场的机票会更合适,目前可能我们还需要到几个 APP 中自己搜、比价,但在可预见的未来里,这件事可能会变成通过我们和手机的交互,让手机帮我们实现这个操作。
如果看 Apple 在 LLM 模块化上的思考,即在云端以三个不同大小的模型来实现复杂程度不同的任务上,也能感受到 Apple 接下来的潜力。
此外,我们认为 iCloud 作为 Apple 的服务端,它的增长潜力远远被市场低估了。Apple 目前的手机销量慢慢进入了 2 亿 的相对平稳期,LLM 首先会改善这个情况,但更重要的是随之而来的隐私刚需也会带动 iCloud 这个“个人云”的收入提升。Apple 服务端的渗透率目前只有 10%,如果随着未来 AI 功能的加入,用户订阅 iCloud 的比例增长,那么每一个点的渗透率的提升都会给 Apple 贡献 3-4 个点的 EPS (Earnings Per Share)增速。所以我们认为 Apple 在未来的 3-4 年将会进入一个超级换机周期,同时它的服务端也将会有很大的收入增长的可预见性,所以在端侧,我们现在的首选是 Apple。
投资主线 4:
存储与互联的超级周期仍在展开
下一代大模型的训练是以 10 万张卡互联作为基础的,当下按照训练 GPT-5 的需求来看,我们目前能够利用的集群规模在 3-4 万张卡的水平,而下一代模型的入场门槛就要到十万张卡,整个规模都要进一步地大幅度拓展。而且 scaling law 仍在快速推进中,对模型的参数以及数据的带宽都会有进一步的要求。此外,随着 LLM 的进一步普及,我们也会创造出更多的数据,比如说今年的 Sora 模型会不断加快视频的产生速度,可以想象,未来几年视频的数据会爆炸式地增长,这就会对数据的存储、互联、交互都会提出更高的新要求。
Top Pick:博通 (AVGO)
在互联与存储的环节,我们现在的首选是博通。博通可以说是在互联中最具有战略意义的公司。
之所以看重互联环节是因为它属于数据中心中除了计算之外的,第二大支出项目。以 Meta 为例,它的 2.4 万张卡集群中,复用率占了 70% ,互联占了 25% 左右,所以互联在整个数据中心基建中具有非常重要的作用。
我们喜欢博通的另一个原因是:博通是定制化芯片的最主要、最大的生产商。博通与 Google 已经合作了六代定制芯片 TPU,今年将开始研发第七代 TPU。我们可以看到,像 Meta 和字节也都是到博通做的定制化芯片。所以,除了英伟达,对很多大型互联网公司来说,必不可少的另外一家硬件公司就是博通。
投资主线 5:
按席位的 SaaS 模式转变为按计算量的
Token-as-a-Service 模式
在一开始的投资判断中,我们也提到 LLM 会革新商业模型,我们认为在 SaaS 领域这个趋势是一定会发生的,过去 Seats-based 的软件模式有可能会转变成 Token-as-a-Service 的模式。
过去软件是按照人头收费的,因为每一个生产力的单元都是员工,所以软件最主要的增长方式是服务更多的员工,但是进入 AI 时代后,业务或者生产力的增长点可能不在员工数,而是变成 LLM 数,也就是说未来企业的生产力将不再由员工数来决定,而是由企业有多少个 LLM,LLM 能产生多少个 token、它的计算量有多大。这些因素会成为未来企业盈利增长最主要的模式。
所以我们现在思考的一个问题就是:整个软件的模式会不会出现一个翻天覆地的变化?按照人头、席位数的模式会不会被以计算量为服务模式的软件公司所取代?
最近有一篇关于 Salesforce 的研究中写到, AI 会降低 Salesforce 10% 的席位数,我们认为这则消息证实了我们的一个猜想:未来的软件模式将由席位数逐渐转变成 token 数,不过可能有更贵的 token,也可能有更便宜的 token,比如说模型好的公司可能 token 的价格就会更高。我们会沿着这个思路去做相应的投资布局。
Top Pick: ServiceNow(NOW)
当前我们在软件方面最喜欢的公司是 ServiceNow,我们认为 ServiceNow 目前是在海外 SaaS 公司中最明确的 AI 收益标的。目前来说,帮助企业部署 AI、部署 LLM 的公司非常少,而 ServiceNow 是我们目前看到的能帮助企业部署 AI 的有限的几个公司中最好的一家。
ServiceNow 主要业务是为企业 IT 自动化提供各种服务,经过这么多年的发展已经成为很多大型公司的长期合作伙伴,对很多公司内部的 IT 系统和数据系统都非常熟悉,所以在 AI 时代,如果很多公司想部署 LLM ,首先找到的合作伙伴就是 ServiceNow。因此,从去年开始 ServiceNow 就在很多场合提到它的订单非常强劲,无论是基于 LLM 能力的 Now Assist 服务,还是提供的解决企业数据、企业内搜索等方面的服务,都受到了很多企业客户的好评,相关需求也很多。
在 LLM 的实施过程中,很重要的一点就是企业内部搜索,ServiceNow 在这方面做得是最好的,比如很多时候大家诟病 LLM 在应用过程中的一点是模型会在应用过程中产生一些幻觉,幻觉主要有两个解决方案:RAG,以及企业内的图谱搜索,ServiceNow 在这两方面都推出了相应的服务,所以 ServiceNow 是企业在部署 LLM 时很重要的一个合作伙伴。
Now Assist 是 ServiceNow 过去 20 年里所有产品中增长最快的一个,这件事其实表明了两点:第一,企业部署 LLM 的需求非常强劲。第二,企业对 ServiceNow 服务是认可且非常信任的。
因此,我们认为,无论是订单、现金流、所处的位置,还是横向拓展的能力,ServiceNow 现在都属于 AI 时代第一批最受 AI 收益的标的,也是我们目前在软件领域最喜欢的一个标的。