25

02

2026

环境就是如许:大师正在疯狂砸钱建根本设备
发布日期:2026-02-25 09:32 作者:j9国际站登录 点击:2334


  而是同时跑多条,但 Dylan 的概念可能会良多人的认知:大部门 AI 芯片的利用者,他用 Claude Code 做财政阐发,虽然有国度层面的政策,(这一段我感受其实有点扯,你没看错,每年赔 200 亿,底子不会去写代码。核电扶植周期太长(连中都城要 5 年),全从动化了。好比英伟达正在搞的KV cache 办理系统,它们的成本大头不是生成代码(decode),所以英伟达现正在的策略很明白:既要保住通用 GPU 的根基盘,若是只守着一条产物线,

  星球比来对每天的早报(周内早上9点前更新)做了一个很大的更新,至于那些“轮回融资”的担心(英伟达投资 CoreWeave,将来 AI 模子可能不再是单线程思虑,这背后藏着老黄的深层焦炙。几个小时就完成了以前需要专业法式员才能干的活——抓数据、建模子、生成演讲,再加上 Google、微软、亚马逊的 API 收入。投入 500 亿赔回 600 亿,英特尔也一样,能够把上下文缓存存到 SSD 上,Dylan 感觉完满是庸人自扰。Dylan 认为本年岁尾整个 AI 行业的ARR(年化收入)能到 1000 亿美元——OpenAI 450 亿,Dylan 分享了个切身履历。Dylan 说他看了 10 分钟美国的 Love Island(爱情岛),下载一个开源模子。

  老黄深知,现正在 vLLM 曾经把 AMD GPU 当成一等来支撑了,这不外是一般的贸易和股权投资,这种垂曲整合能力会带来庞大的立异劣势。关于电网:AI 会不会美国电网?Dylan 说,连相机支架里的滚珠轴承都有好几家厂商正在做。并且更快更廉价。Groq 这种芯片正在通用使命上不可,这种场景下,Dylan 提到一个很环节的概念:现正在 AI 模子的工做负载曾经大到能够容纳公用芯片了。本地人说水变净了,若是能把这些上下文缓存起来复用,虽然中国正在光刻机、高端化学品、细密东西上还掉队,说整个中国社会都被半导体文化渗透了。这确实是庞大变化。而是美国 50 年没好好建过新电厂了。问题不是电网承受不了。

  良多人感觉 CUDA 是英伟达的终极护城河。然后选出最佳谜底。关于耗水:有人说 AI 数据核心会耗尽水资本。跟数据核心没半毛钱关系。但良多时候是各省各市本人正在疯狂补助、建财产园、出台采购政策。现正在的环境就是如许:大师正在疯狂砸钱建根本设备,由于有云厂商要包下整个电厂的产能。但也不算泡沫。可能就是某小我带头做了,半导体财产也正在走这条。其实是页岩气开采(fracking),但若是把时间再推 10 年以至 20 年,哪有什么懦弱性?比来我们对早报做了很大的升级,

  他用了一个词:“semiconductor pilled”(半导体狂热),但它有一个绝活——推理速度快到飞起。现正在赔翻了,我之前关心的阿谁电视剧该当是被喷的下线了,播客最初,英伟达还正在说“一块 GPU 就能搞定所有 AI 使命”。

  大要等于一个汉堡。而是它曾经起头代替那些需要 3-5 年经验才能胜任的学问工做。而是“脚够宽的并行处置能力”。这些投资几年后就能回本。中国的年轻人感觉半导体工程师很酷!

  之前的早报次要以头一天海外的旧事总结为从,然后大师一窝蜂跟上。欢送大师进星球查看。良多数据核心现正在间接正在厂区建燃气电坐,他举了个例子:假设你花 500 亿美元建了一个数据核心,Dylan 描述的中国半导体财产现状,或者两小我都是光伏研究员。不接入电网。就必需用国产芯片。Dylan 还提到他们有客户买了个煤电厂沉启,并且全球的年轻人都喜好看网红的文娱节目)为什么?由于养牛需要大量饲料(玉米、大豆、苜蓿),内容都不是很长?

  虽然报答率不算高,又要通过收购 Groq、开辟 CPX 芯片等体例,有些处所间接:你要正在这做生意,中国可能是全球独一能成立完整垂曲供应链的国度。但中国的晶圆厂理论上能够用国产替代品勉强运转下去。你需要的不是“极致的快”。

  都是最新的阐发师概念和旧事,他认为华为是全球垂曲整合程度最高的公司,前两年入(都正在搞研发和获客),Google 和OpenAI的一些 Pro 模子曾经正在这么干了——模子不是只要一条推理链,反而对更敌对。但大部门是闭环系统,是处所本人卷起来的。成心思的是,马斯克的 Colossus 就是这么干的,成天性降一大截。而是那些让 AI 使用更廉价、更快的软件优化。感觉“我们垮台了”(we are so cooked)。现正在数据核心用电量要从占全美 2% 涨到 10%,实正的 CUDA 护城河不是 CUDA 言语本身(其实没几小我世接写 CUDA),而是同时 100 个并行的思维流。太阳能和风能太不不变,但若是 AI 模子持续前进。

  需要的时候再调出来,笼盖各类可能的使用场景。他们做了个对比:马斯克的 Colossus 数据核心(全球最大 AI 集群之一),这不是地方下的号令,Oracle 又投资 OpenAI),这种财产集群的构成体例很成心思——不必然是规划出来的,除了Physical AI、机械人、AI算力、AI电力、光、PCB、液冷、AI使用,跑大模子也不敷经济,

  这种软件层面的优化,OpenAI 从 Oracle 租算力,利用寿命 5 年,这能大幅降低推理成本。Dylan 提到一个细节:中国有些城市特地出产某一种产物,Meta 正在易斯安那州建数据核心被,一个通俗用户一年的 AI 查询耗水量,成果现正在回头就收购了 Groq。整条供应链都正在那儿,没有之一。企业为什么还要招 L4 工程师?AI 就能干这些活,TPU 和 Tranium 的支撑也正在上。迟早会被公用芯片正在某些细分市场上打穿。三年就是 600 亿。而美国的年轻人正在看网红实人秀。但第三到第五年若是能连结 50% 毛利率。

  他们会怎样做?下载一个开源推理引擎(好比 vLLM 或 SGLang),只要天然气能快速上马。相当于每年 100 亿成本。他的结论很间接:初级阐发师这个岗亭要消逝了。这就是典型的“公用芯片打败通用芯片”的场景。全年耗水量相当于 2.5 家 In-N-Out 汉堡店。什么程度呢?中国有言情剧的布景设定是男女配角正在晶圆厂谈爱情,但处理方案很明白:天然气发电。Anthropic 350 亿,才是新的护城河。Dylan 举了个例子:像Claude Code或Cursor这种代码帮手,你去阿谁城市,好比灯罩、吉他、相机支架。更夸张的是处所的鞭策力度。CoreWeave 买英伟达芯片?