请您留言

爱游戏ayx站点注册

爱游戏ayx站点注册:藏在AI背后的神秘芯片!谷歌闷头造10年直接改写算力格局

来源:爱游戏ayx站点注册    发布时间:2026-04-21 02:49:15

ayx爱游戏app平台 产品特性

爱游戏ayx手机登录:

  咱们要聊的这颗芯片,说出来你可能不信,它跟咱们平时聊的那些不一样,既不会让数码圈疯着开箱,也不会让游戏圈急着跑分,更没人会问它能不能玩黑神话。

  要是把现在的AI世界比作武林,那谁都想手握最厉害的武器,站稳脚跟,过去几年,GPU价格疯涨、经常断货,主要是因为它是所有人都抢的“屠龙宝刀”,谁手里多,谁就能在AI圈说了算。

  可谷歌偏不按常理出牌,非要自己造一把“倚天剑”,这家靠广告赚钱的软件公司,花了十几年时间啃芯片这块硬骨头,甚至官宣要放弃英伟达的GPU订单,用TPU来支撑传闻多年还没落地的苹果汽车项目,这操作确实够惊艳。

  很多人都会问,谷歌放着现成的芯片不买,非要自己砸钱搞研发,图啥?TPU比CPU、GPU到底强在哪?咱们普通人能用得上吗?谷歌手握这把“倚天剑”,是不是已经成了AI圈的新霸主?今天咱们就顺着这颗神秘芯片,聊聊谷歌的AI布局。

  哈喽,大家好,小观这篇评论,主要解析谷歌自研TPU芯片的崛起逻辑,对比其与英伟达GPU的优劣势,解读AI算力格局变化与科技巨头的底层话语权争夺。

  懂行的都知道,一个能躺着赚钱的公司,突然去碰自己不擅长的领域,要么是这行巨赚钱,要么是被逼得没办法,谷歌当年搞芯片,就是后者。

  时间拉回2013年,那时候大模型还没影子,人工神经网络刚火起来,走进了大公司的视野,谷歌内部特别兴奋,他们的谷歌大脑团队,做了个特别有名的“谷歌猫”项目,把海量高清视频喂给神经网络,到最后,这模型居然自己学会了识别猫。

  就是这一下,很多人第一次意识到,只要数据够多、算力够猛,机器真能从一堆乱糟糟的像素里,琢磨出点门道来,谷歌大脑的负责人贾斯汀琢磨,能不能把这技术用到实际业务里,比如语音搜索。

  他们做了个测算,要是用户每天只用3分钟语音搜索,谷歌当时的数据中心算力就得翻倍,为了一个不知道能不能赚钱的新功能,让公司砸几十上百亿扩建数据中心,怎么算都不划算,但贾斯汀看的更远,他知道要是AI以后真成了全部的产品的底层能力,现在这点成本,只是冰山一角。

  要是还沿着CPU的通用计算路子走,未来的成本只会指数级暴涨,说白了谷歌就是发现,现有计算架构已经跟不上AI的脚步了。

  于是他们同时干了三件事,一是花4400万美元,力压百度,收购了比“谷歌猫”强太多的AlexNet团队,这可是AI教父杰弗里・辛顿的团队,二是疯狂给英伟达下订单买GPU,毕竟当时GPU是跑神经网络最顺手的现成工具,三是偷偷搞起了自己的AI芯片,也就是TPU。

  当时很多人都觉得,这就是个玩票项目,因为贾斯汀给芯片团队定的目标,简直离谱:从零开始,性能要比GPU高10倍,工期只有15个月,懂芯片研发的人都知道,这根本就是不可能完成的任务,换谁都得犯愁。

  大多数公司搞AI芯片,思路都是照搬GPU,多堆核心、提升带宽、拉高频率,拼并行能力,但谷歌看得明白,跟着英伟达的路子走,永远只能做个次品,生态不如人家,量产不如人家,纯属白费功夫,所以他们的思路很简单:不做第二个GPU,要做就做不一样的。

  最后没想到谷歌还真用一年多时间,造出了第一代TPU,而且之后十几年一直在迭代升级,虽说造芯片又费时间又费钱又费力,但这把“倚天剑”,确实没白造。

  打个比方,CPU就像全能特级大厨,啥菜都会做,但做起来慢,GPU就像一群普通厨师,全能不行,但让他们切一万个土豆,比CPU快多了,而TPU从一开始就不是为了全能,它是专门的AI芯片,也就是特定应用集成电路。

  这东西听起来玄乎,原理其实很简单,传统CPU算一次加法,得从内存里取一个数,算完存回去,再取下一个,就像厨师切一道菜,就得跑回冰箱拿一次食材,而TPU的脉动阵列,就像一条生产线,数据像波浪一样在计算单元里流转,上一层算完直接传给下一层,不用停顿,也不用频繁去内存里取数据。

  这种设计不用单个计算单元多强,只要所有单元节奏同步,不浪费一点算力,这就是TPU能效比超高的关键,第一代TPU在谷歌内部部署后,立马扛起了RankBrain等业务的推理任务。

  根据谷歌官方数据,第一代TPU在推理任务上,比当时的GPU快15至30倍,能效比高30至80倍。它也证明了一点,在通用计算之外,专用架构又重新站了起来。

  熟悉半导体历史的人都知道,行业里有个“日本周期”,也叫“钟摆效应”,这个行业从来不是一味追求“越通用越好”,而是在通用和专用之间来回摇摆,通用架构够强、够便宜、生态够成熟,大家就用通用方案,省事又安全。

  可一旦某个新应用需求爆发,通用架构扛不住了,专用架构就会冒出来,性能能提升几十上百倍,等这个专用场景成熟了,需要兼容更多功能,通用方案又会卷土重来。

  CPU、GPU、ASIC这些,看似不同的门派,其实都在被这个“钟摆”推着走。而TPU,就是AI时代,这个“钟摆”偏向专用计算的代表性产物。

  第一代TPU成功后,谷歌就开启了迭代之路,早在2014年,第一代TPU还在流片的时候,谷歌就意识到,推理问题解决了,训练很快会成为新的瓶颈,TPU的技术负责人当时就说,问题已不是单颗芯片能不能加速,而是得重新设计一整套训练机器。

  这说明谷歌的思路已经变了,不再把TPU当成服务器里的一张加速卡,这也是微软当时的思路,而是把它当成构建AI超级计算机的基本单元,2017年,第二代TPU问世,最大的变化就是加入了训练能力,正式进军AI训练领域。

  训练对数据吞吐的要求,比推理高太多,既要读参数、读激活值,还要处理梯度和中间状态,只有少数的内存带宽,计算单元就会“饿肚子”,就像厨师炒饭的速度,赶不上人吃的速度。

  这东西特别关键,谷歌发现,训练任务不一定需要FP32那么高的精度,但要是像传统FP16那样砍掉指数位,又有可能会出现数值不稳定的问题,于是他们搞了个折中方案,保留和FP32差不多的动态范围,牺牲一点尾数精度。

  这个设计后来影响极大,现在BF16已经成了AI训练的行业标准,大幅度降低了大模型的训练成本。

  单颗TPU在超大规模模型训练中不够看,所以得把几百颗、上千颗TPU,用低延迟、高带宽的方式连起来,让它们协同工作,这和后来英伟达、华为搞的超节点思路,不谋而合,当年的第二代TPU机群,能实现256颗芯片协同,总算力达到十几个PetaFLOPS级别。

  到这一步,谷歌已经不只是在做AI芯片,而是在搞AI超算了,第三代TPU继续提升HBM容量、扩大规模,Pod能容纳1024颗芯片,总算力突破100个PetaFLOPS。因为功耗太高,谷歌还专门给它装了水冷系统。

  第四代TPU引入了光路交换,通过芯片上成千上万个微小镜子组成的阵列,动态改变连接拓扑,就像把固定的高速公路网,改成了能根据车流量实时调整的智能路网,灵活性拉满,扩大规模时基本上没有性能损耗。

  2023年,谷歌把第五代TPU分成了两个方向:V5E和V5P,V5E主打效率和性价比,每美元性能提升两倍多,适合超高的性价比推理和中等规模训练,面向云上客户和成本敏感型工作,V5P主打性能,HBM容量拉满到95GB,支持8960颗芯片联合作战,专门用来训练Gemini这样的超大规模模型。

  说到这肯定有人会问,TPU这么猛,为什么最火的还是英伟达的GPU?普通人一提AI芯片,想到的都是H100、B200、CUDA、NVLink,没人提TPU?

  咱们算笔账就知道,十年前投10万美元到谷歌,现在能拿到70万美元,已经很可观了,但要是投给英伟达,现在能拿到2000万美元,直接实现财富自由,TPU这么强,为什么没让谷歌成为AI霸主?核心原因有两个。

  第一个原因很直接,TPU一开始就不是用来卖的,就像谷歌自家藏经阁里的秘籍,别人明白它厉害,但根本摸不到。

  虽说现在谷歌也把TPU放到云上卖,但开放的节奏、程度,还有获取难度,和英伟达完全没法比,英伟达从根上就是“卖铲子”的,核心就是给市场提供芯片和服务。

  第二个原因更关键就是软件生态,英伟达能成功,不只是因为GPU性能强,更因为全球的工程师,都愿意围着它写代码,黄仁勋当年不惜降低利润,甚至亏本,也要把每一颗英伟达GPU和CUDA绑定。

  CUDA搞了几十年,已经成了AI开发者的“普通话”,想在GPU上写个新算子,有大把的库可以用,上手特别容易,而TPU的开发环境,就像个黑盒子,它的编译器XLA虽然能自动优化算子、自动分片,但操作太复杂。

  更有意思的是英伟达慢慢的开始抄TPU的后路了,去年,英伟达完成了历史上最大规模的收购,把一家叫Brooklyn的芯片初创公司买了下来,而此公司的创始人约翰逊・罗斯,正是TPU的创始灵魂人物。

  Brooklyn的芯片架构,说白了就是TPU脉动阵列的加强版,TPU的架构优势,正在被英伟达慢慢瓦解。

  不过故事并没有朝着“黄仁勋一统江湖”的方向发展,从去年开始,慢慢的变多的公司开始转向TPU。

  估值超过8000亿美元的AI巨头Anthropic宣布,2027年要投入上百亿美元,采购100万块TPU,Meta官宣,要投10亿美元买TPU,苹果的AppleIntelligence模型,据传也完全靠TPU训练和部署。

  这说明TPU已经从当年的试水备胎,成长为百亿美元量级业务的核心,这一些企业选TPU,不是因为信仰谷歌,而是在AI浪潮里,必须有英伟达之外的备选方案,才能活下去。

  现在聊AI,看到的都是ChatGPT、Gemini、豆包这些越来越智能的应用,但真正决定这些应用能不能大规模落地、能不能降价、能不能稳定运行、能不能持续升级的,从来不是屏幕上的界面,而是背后的芯片、编译器、互联技术、机房,还有把这么多东西整合起来的系统能力。

  谁的系统更强,谁就能在AI圈占据更多优势,这也是为什么现在的顶级科技公司,越来越像现代重工业企业,不管是英伟达的AI工厂、华为的昇腾,还是谷歌的TPU,都是复杂的系统工程。

  这些系统的核心,就是顶级科技公司对AI底层话语权的争夺,而TPU就是谷歌在这场争夺里的核心筹码,不管最后谁能赢,甚至有没有绝对的赢家,最终受益的都是咱们普通人,AI应用会越来越便宜,越来越懂我们的需求,这就足够了。

  特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

  美伊停火到期前48小时“极限博弈”:伊朗手握海峡“核按钮”,特朗普威胁炸桥炸电厂

  世锦赛战报:16强决出5席!中国2胜2负1领先,世界亚军4-10一轮游

  宁波男子收到陌生账号转账8万余元,三天后奢侈品牌商家找来:员工误将其收款码给客户

  小米18 Pro Max:骁龙8 Elite Gen6 Pro+6.9寸直屏,外围全面增强

  REDMI 显示器 G Pro 27U 2026轻体验:电竞利器 桌面上的“小钢炮”

  轻薄本秒变性能怪兽!技嘉AORUS RTX 5060 Ti AI BOX显卡坞推荐

  华为MateBook 14发布:支持小艺Claw Beta,6599元起

  南方电网招了7308人,华南理工485个,这所学校把南网变成了自家后院


上一篇: 2026半导体各细分前Top5龙头名单真正有实力的全在这 (收藏)

下一篇: 存储涨价只是开始半导体“隐形黑马”已经暴涨60%