谷歌TPU掀桌子:成本仅英伟达1-5,A股“卖铲人”赢麻了

这么说吧,前段时间华尔街那帮西装革履的精英们,又开始扯着嗓子喊“AI泡沫”了,搞得人心惶惶。

就在这节骨眼上,你猜谁出来砸场子了?

谷歌。

没错,就是那个我们天天用它搜索,却总感觉它在憋大招的谷歌。

这次,它直接扔出来两张王牌——Gemini 3.0大模型和全新的TPU芯片,简直就是“全栈为王,谁与争锋”的架势。

这操作骚就骚在,它不仅没理会那些泡沫论,反而用行动证明:哥不仅继续玩,还要玩得更大。

就像一场牌局,所有人都觉得要洗牌了,谷歌直接 all-in,还翻出了对手没见过的底牌。

这张底牌的核心技术,就是藏在它第七代TPU里的“OCS”,一个听起来就很玄学的玩意儿。

我们先暂停一下,把镜头摇到任何一个大型数据中心。

你想象一下,那里面成千上万台服务器跟疯了一样7x24小时连轴转,散发出的热量能把鸡蛋烤熟。

耗电量更是个天文数字。

这就是AI算力的代价,也是英伟达GPU卖得比黄金还贵的原因。

所有数据在处理时,都得在光信号和电信号之间反复横跳,这个过程叫“光电转换”。

就像一个极其繁忙的交通枢纽,每辆车(数据)都得停下来、安检、再出发,又慢又耗能。

现在,谷歌的OCS(光学电路交换)技术出来,直接把这个枢纽给端了。

[1] 它搞了个骚操作:光信号来了?

行,别停,我直接给你搭个光学立交桥,咻一下,你就到目的地了。

[1] 全程光信号自己跑,压根就没电信号什么事儿。

这就好比取消了所有红绿灯和收费站,数据一路狂奔,时延低到吓人,功耗和成本更是哗哗地往下掉。

[2][3] 数据显示,用了OCS之后,谷歌网络的吞吐量提了30%,功耗降了40%,资本开支愣是省了30%。

[4] 这哪是技术升级,这简直是开挂啊。

正因为这么猛,谷歌TPU的成本才能做到只有隔壁老黄(英伟达)GPU的大概五分之一,你说狠不狠?

连Meta这种级别的巨头都坐不住了,开始考虑把自家的AI业务部分搬到谷歌的TPU上跑,这等于直接去挖英伟达的墙角。

这背后其实是谷歌的一盘大棋。

它从十年前被逼无奈搞自研TPU开始,就不是为了跟谁比单卡性能,而是要建立一套自己的规则。

一种“芯片-网络-模型-应用”的全栈垂直整合生态。

说到这,可能有人要问了,这跟我们有啥关系?

关系大了。

在这场神仙打架中,有一群中国厂商,正悄悄地站在了胜利的天平上。

他们就是光模块制造商。

这帮兄弟可以说是中国制造业里“泥潭里摸爬滚打”出来的典型。

从400G到800G,再到现在的1.6T、3.2T,他们跟着全球最顶尖的需求一路升级打怪,手里的技术全是真金白银砸出来的硬功夫。

过去,他们是英伟达供应链里的重要一环;现在,谷歌搞起了OCS新架构,他们又无缝衔接。

毕竟,不管你数据怎么跑,都离不开光模块这个“码头”。

而谷歌这套新玩法,对光模块的性能要求更高,工艺更精密。

放眼全球,能稳定、大规模、高良率地玩转这活儿的,还得是这帮中国老师傅。

就拿中际旭创来说,它已经是谷歌800G光模块的第一大供应商,份额占了七成,1.6T更是独家供应,订单直接排到了2027年。

这哪是合作,这简直是深度绑定。

谷歌的TPU卖得越火,它的订单就越接到手软。

还有像赛微电子,独家给谷歌代工OCS里最核心的MEMS芯片,技术壁垒高到没朋友。

这帮“卖铲人”的逻辑就是这么朴实无华:管你们谁去淘金,我这铲子,谁都得用。

所以你看,谷歌这一套组合拳打下来,不仅让华尔街的“AI泡沫论”听起来像个笑话,还顺带把一条全新的产业链给带火了。

它并不是要单纯地替代谁,更像是在开辟一片新战场,一个效率更高、成本更低的战场。

在这片新战场上,游戏规则变了,以前那种靠堆砌昂贵硬件的路子,可能真要走到头了。

而那些手里有真功夫、能跟上技术迭代的中国厂商,无疑将是这波红利最大的受益者之一。

至于未来AI的算力世界会是谷歌和英伟达双雄争霸,还是会有新的挑战者入局?

这谁也说不好。

但有一点是肯定的,这场围绕着光与电的战争,才刚刚拉开序幕。

那些认为AI只是昙花一现的人,恐怕要失望了。

人家不仅没泡沫,甚至还准备开一场更盛大的party呢。