昨天(美国时间10月29日),很多人都在说见证历史。英伟达市值突破5万亿美元,全世界仅此一家。
5万亿美元,什么概念?
如果对比市值,相当于7个腾讯,13个阿里,26个拼多多。
如果折现,能买下全球前十的芯片公司后,还能剩下不少。
如果刮彩票,天天刮,天天中,一天一亿美元,大约要137年。
但英伟达的市值增长,比刮彩票还要快。2023年5月,破万亿。9个月后,破2万亿。3个月后,破3万亿。从3万亿到4万亿,用了410天。而从4万亿到5万亿,只用了113天。同时,英伟达CEO黄仁勋也身价暴涨,成为全世界第八有钱的人。
你看,前后不到3年,英伟达就创造了新的历史。真的,真的让人震撼不已。
震撼之余,一个巨大的困惑随之而来:
既然AI芯片这行业这么赚钱,为什么我们好像只看到英伟达在赚钱?那些本该瓜分这块大蛋糕的对手呢,又在哪儿?
带着这些疑惑,我做了些研究。越来越有种强烈的感觉。
英伟达能有今天的成就,不是偶然。而是一家企业,用近20年时间,从零构建起坚实的护城河,成为全球第一的史诗故事。
看懂英伟达的故事,或许也能给很多企业家和创业者,一些启发和思考。
就让我们先从那个最基础的问题开始。
01
英伟达到底有没有对手?
有。非常多。而且,个个都是顶尖高手。
放眼望去,我们至少可以数出三位重量级的“竞争对手”。
比如,AMD。它和英伟达在半导体领域,是几十年的老对手。论技术、论经验,都绝对是最有资格和英伟达掰腕子的玩家。
比如,英特尔。它是曾经的“芯片霸主”。制造能力强,客户基数大。
比如,谷歌。它几乎有无限的资源,和世界顶尖的AI团队。而且,还在研发自己的专用AI芯片。
你看,这三家巨头,哪个的名头不是响彻全球?
但是,这也让问题变得更尖锐了:牌桌上明明都是高手,但筹码,却似乎都在一个玩家手里。
到底是为什么?
02
为什么好像英伟达“一家独大”?
先说答案,因为英伟达用一套系统,以极高的“迁移成本”,牢牢锁住了它的客户。
你可能会说,那是因为英伟达的芯片,最快最好。
嗯,通常来看,“英伟达的GPU芯片最快最好”,很符合大众的直觉。但实际上,这个回答不够严谨。
什么意思呢?我想请你跟我一起开个脑洞,想象这样一个场景。
AMD的CEO,苏姿丰。走进了OpenAI的办公室,给CEO萨姆·奥特曼,提出了一个非常诱人的提议。AMD有一款全新的GPU芯片,比英伟达的B200,性能高出30%,价格还便宜一半。
如果你现在是萨姆·奥特曼,这份“订单”,你签还是不签?
要我猜,大概率,萨姆·奥特曼不一定会签。至少他会非常、非常地犹豫。
为什么呢?一个更便宜、更高效的选择摆在眼前,都不能让他心动呢?
因为价格只是整个环节里一小部分。在商业技术投资里,要从TCO框架(总体拥有成本)考虑。不光包括最直接的标价,还有各种间接和隐藏成本。
如果光比较价格,AMD优势很大。
比如英伟达的高端芯片A100、H100,单个成本25000美元到40000美元,而AMD高端芯片价格在25000美元左右。
但更重要的,是隐藏成本。它们才是影响OpenAI决策的关键因素。
假如,OpenAI真的从英伟达换到了AMD,会发生什么?
直接说结论,最主要的人力成本、代码迁移成本、运营成本,和机会成本,都会大幅增加。而任何一项变化,都可能直接决定生死。
你想想,换了平台,那上千名顶尖工程师怎么办?他们过去十多年的经验,难道要一夜清零,从头再学吗?这得是多大一笔培训账?还有那数百万行代码,怎么办?那可不是简单的“复制粘贴”啊。
可能,你会问,这换个平台能有多难呢?我不太懂专业技术,请允许我试着打个比方来解释一下。这就像你要把南方的荔枝种到北方。不是说你挖走就行,还要做大量的研究、测试,花上大量的时间。AI就是这样,而最后能不能成,还说不准。
另外,换平台期间,意味着要同时运营维护两套完全不同的平台。这里面的成本,很可能翻倍上涨。
最要命的,也是最大的风险,是机会成本太高。
AI这个赛道,分秒必争。如果为了换个平台,而导致研发落后,或是模型发布晚了几个月。那么,很可能就从行业领导者变成追随者。这里面,还没算上迁移出问题的情况。完全不敢想象。
所以,在把各种直接成本、间接成本相加后,就达成了“锁定供应商”的结果。
说白了,就是我从软件到硬件,全部跟你牢牢绑定。长远看,反而是AI公司的最优解,因为它在未来的合同时间内,不用为硬件担忧。
现在,再回头看AMD那份“性能高30%,便宜一半”的订单,还觉得香吗?
答案是否定的。硬件上省下的几百万美元,比起可能高达数十亿美元的迁移成本和潜在战略风险,微不足道。
到这,你应该发现了,英伟达真正锁住客户的,并不是它的硬件。而是一个看不见摸不着的“牢笼”。
那就是被称为“英伟达护城河”的CUDA。
03
被叫作“英伟达护城河”的CUDA,是什么?
CUDA全名叫Compute Unified Device
Architecture(统一计算设备架构)。说白了它是一套让程序员更好用英伟达GPU的编程工具。
对于不太懂技术的人来说,这部分有点复杂。下面我尽量简单说清楚。
要理解CUDA,得先知道什么是“编程模型”。
我打个比方。
过去的计算机,主要靠CPU(中央处理器)运算。CPU像一个米其林三星大厨。手艺高超,什么菜式都能做。但问题是,他一次只能炒一道菜。如果遇上饭点高峰期,爆单是常有的事。
这叫“串行计算”。程序编程必须按顺序执行,上一个任务完成才能做下一个,适合逻辑直观、小规模的任务。遇到复杂的任务,效率就会不足。
而GPU(图形处理器)不同,它不像大厨,而像一个拥有成千上万个小工的“超级厨房”。每个小工负责的东西不一样,可能A切菜,B洗菜,C炒菜,D甜品……最后汇总到超级厨房。如果要给一万斤土豆削皮,那个大厨可能要削到手断,而这边上万个小工可以同时开工,瞬间完成。
这叫“并行计算”。能同时处理多个任务,整体缩短时间,大大提高运行效率。
但是,这里还有个问题。
这成千上万个小工,虽然人多力量大,但是他们很“笨”。必须要有人告诉他们,A你去切菜,B你去洗菜,C你去炒菜……否则,厨房会乱成一团。说白了,必须要有一个统一的指挥,能命令那些小工高效协作干活。
而英伟达的CUDA,就是那个总指挥。有自己的一套指挥语言,精准协调每个核心,完成任务。
做个类比,就像一台相机,硬件非常厉害。想要用好,你要懂光圈、快门、ISO等专业知识,对大多数人来说,门槛太高了。于是,厂商想出了“智能场景模式”,比如运动模式、延时模式等等。你拿到相机,再也不用懂那些专业知识,只要会按一个键,就能拍出好照片。
CUDA就是GPU的“智能场景模式”。开发者不用专门研究GPU的架构,也能高效完成编程任务。简单来说,就是让更多人能用上GPU的强大算力。
2006年,CUDA的问世,直接改变了英伟达的命运。
以前,GPU主要被看作用来渲染画面的“游戏显卡”。CUDA出现后,显卡就能被用在科学运算、物理模拟等领域。
这就意味着,以后的客户不光是游戏公司,各种搞科学研究、技术研发的,都可以服务。
黄仁勋的心里坚定着一个想法:使用CUDA的人越多,这项技术成为标准的速度就越快,就越可能找到新的应用。
于是,英伟达在过去近二十年里,专心做了一件事:围绕CUDA建立了一个庞大、繁荣的生态系统。
跟竞争对手相比,英伟达做这件事,早了将近十年。
如果说,英伟达的GPU是AI时代的“电脑主机”。那么,CUDA就是AI时代的“Windows系统”。
想想看,几十年来,为什么技术上可能更优秀,还免费的Linux,始终不能在个人桌面市场撼动Windows的统治地位呢?
答案,不是系统本身,而是生态。
因为Windows上那个庞大的应用生态太强大了。从微软的office,到Adobe,再到各种行业专用的软件,都跟整个生态密不可分。试想一下,一家需要用到很多专业软件的企业,在买Windows许可证,和重新培训员工的成本之间,会做怎样的选择呢?答案,不言而喻。
CUDA,就是这样,它有着无比庞大的应用生态。对很多企业和个人来说,这是必选项,
有过统计,到目前,全球有超过450万开发者在用CUDA开发。而在2020年的时候,这个数字还是180万。CUDA工具包每月的下载量,高达数十万次。
现在,我们再来复盘下整个逻辑:开发者使用CUDA,创造更多项目和应用,推动CUDA成为行业标准,高校教授CUDA,毕业生掌握技能,企业把CUDA列为招聘条件,更多开发者学习CUDA。
到这,你应该看明白,CUDA为什么能成为英伟达的护城河?因为布局够早,逐渐产生强大的生态惯性。而这也是竞争对手无法撼动。
你看,企业真正的护城河,往往是靠标准、习惯和社区共同搭建。
如果我们现在再回头看AMD给OpenAI的那份提议,你就会发现,压根就不是成本问题。说白了就是风险太大,根本没必要换。
现在,大家是不得不用。而在一开始,英伟达面临的却是“没人想用”。
04
一场无人看好的“豪赌”,成就今天的英伟达
2006年,CUDA问世后,无人在意,硅谷和华尔街都不看好。
到了2008年,受到金融危机的影响,英伟达股价曾暴跌80%以上,市值40亿左右。就连英伟达内部,都对CUDA的未来存在分歧。是不是所有GPU都要支持CUDA?
同时,研发CUDA付出的代价也很大。
英伟达第一款支持CUDA的GPU,是G80。为了开发这款芯片,英伟达花了整整4年时间,成本高达4.75亿美元,占了那4年总研发预算的三分之一。
这还只是“一个”支持CUDA的GPU。
那时候,真的是生死存亡之际。
怎么办?
黄仁勋想了个办法:砸钱。重点往学校和科研机构砸钱。
他通过捐钱、捐设备的方式,让CUDA进入高校,先培养教育和科研领域的用户。另外,还在全球设立各种CUDA研发中心、教学中心、开设教学课程等。那时候,每年砸在CUDA上的研发成本有5亿美元之多。
尽管费尽人力、物力、财力,CUDA在很长一段时间内都不被看好。2013年初,很多投资分析师都认为,只有放弃CUDA,回归PC游戏核心业务,英伟达股价才能涨。甚至,有人质疑,黄仁勋这CEO还能不能干了。
现在来看,英伟达的CUDA,就是在赌。何况,他还赌对了。
为什么CUDA能从无人看好,变成香饽饽?因为学过CUDA的毕业生毕业进了科技企业,CUDA的社区资源和代码库越来越丰富。到2015年,全球已经有800家大学开设CUDA课程。随着时间推移,CUDA的使用场景,从高校普及到了医疗、商用等更多场景。
至于跟人工智能领域“牵手”,可以说,纯属“巧合”。
2012年,斯坦福大学发起的一场全球性AI图像识别竞赛上,多伦多大学的一个三人小组,交出了一个叫AlexNet的AI神经网络,赢得冠军。而且,准确率比第二名高出41%。
怎么做到的?这个团队说,用的是2块NVIDIA GTX 580
GPU,而他们也是整个比赛里,唯一一个用CUDA训练神经网络的队伍。
那时候,谷歌也注意到这个团队。他们发现,AlexNet之前只用两块GPU显卡,得到的效果跟谷歌用16000个CPU训练出来的几乎相同。
很快,整个行业都意识到,GPU是支撑AI的最佳硬件。而英伟达,很可能将成为AI发展的关键。
现在我们都看到了,英伟达确实成了AI发展的最大核心。
05
英伟达的对手们,一点办法都没有吗?
一旦理解了CUDA,再看英伟达的那些竞争者,就会发现,他们的每一步都被英伟达死死限制。
我举几个例子。
比如AMD,它选择开源。
它研发了一个名为ROCm的开源平台,目标就是取代CUDA。但是没,它就像是“AI时代的Linux”,免费,开源,有技术潜力,更便宜。但对用户来说,迁移成本太高。
比如英特尔,它选择细分赛道。
英特尔很聪明,直接承认英伟达在AI高端市场遥遥领先。所以,英特尔把它的Gaudi系列芯片,定位在企业级推理和中小型模型训练这些细分市场。但这也意味着,英特尔放弃了AI芯片市场里最赚钱的部分。
比如谷歌,它选择正面硬刚。
Investopedia有过报道,英伟达在卖GPU中的毛利率大约为80%,业内叫它“英伟达税”。为了不交高溢价,谷歌从2015年开始自研,内部使用名为TPU的算力生态。相比之下,TPU跟谷歌内部平台深度绑定,影响不了英伟达的地位。
所以你看,那些巨头对手们,都不是简单的比拼性能,而是拼战略。都在想办法绕过CUDA,绕过英伟达。
但至少目前看来,无人能撼动。
所有挑战者都在绕着山走,这本身,就是对这座难以攀登的高山,表达最崇高的敬意。
最后的话
呼。说完了。英伟达从无人看好,走到今天的万众瞩目。这一路,真的让人无比震撼。
我看到网上有人表示担心:英伟达涨这么高,太夸张了,会不会是泡沫?它会不会是第二个思科。
这里简单提一下,2000年有个互联网泡沫时期。当时的思科是互联网硬件供应商,最高时,估值超过其远期市盈率的150倍。但在泡沫破灭后,一落千丈。
实际上,他们有根本差异。
思科面对的是“一次性”的建设市场。当早期互联网完成“铺设管道”,思科的增长自然停止。而英伟达面对的,是一个不断增长的市场。至少在现在看来,AI还在成长,那么这场“军备竞赛”还看不到终点。
更重要的是,英伟达的客户,是微软、谷歌、Meta等全世界最不差钱的巨头。对他们来说,购买英伟达的芯片,不是选择,而是在AI时代活下去的必需品。
这说明,英伟达有着一个需求持久、客户稳定、护城河更深的长期市场。
当然,未来会发生什么,我们谁也无法预料。可能某一天,突然有种新的算法出现,可能让GPU也变得不重要,从而改变整个游戏规则也说不准。
但至少在当下,我们可以从英伟达身上,学到非常重要一课。
你的护城河,是什么?
不是在纠结,“我的产品是不是比对手更好、更快、更便宜?”而是要问:“我的产品,有没有一个让客户离不开的生态系统?”
其实,英伟达的五万亿美元市值,就是对这个问题最响亮的回答。
它证明了那个在商业世界,最简单,也最重要的核心逻辑。
最深的护城河,不是用价格和性能堆出来,而是要让你变得无可替代。
祝你,早日找到你的护城河。