@WinForKakei: 我拿腾讯举个例子吧,腾讯25年capex比指引还要低,去年的业绩会讲的很清楚了,就是因为买不到N卡(AI chips supply constrain)又不愿意买国产卡。 当然今年妥协了,昆仑芯也开始订购上了,其实马化腾并不像大家说的那么…
摘要
The article discusses Tencent's AI capex constraints due to NVIDIA chip shortages and its recent shift to using Kunlun chips, analyzing the company's valuation and strategic positioning in the AI landscape.
相似文章
@dongxi_nlp: 好有价值的文章,最后的 6 条 take away 值得思考。 其中最后两条: 5. 数据行业远未发达。 Anthropic 和 OpenAI为单个环境花费1000万美元以上,而中国 AI 实验室基本上是“自建而非购买”心态。 6. 无数…
文章总结了AI数据行业的现状,指出数据行业尚未成熟,Anthropic和OpenAI为单个环境花费超过1000万美元,而中国AI实验室倾向于自建而非购买;此外,许多实验室虽能使用华为芯片但仍渴望更多英伟达芯片。
@CNET:Nvidia GTC 2026,黄仁勋谈“AI原生”投资
Supermicro 与 NVIDIA 发布交钥匙“AI Factory”参考架构,整合 Blackwell GPU、认证服务器、网络、存储与部署服务,让企业更快搭建集群级 AI 基础设施。
AI淘金热进入最危险阶段
谷歌通过向外部客户开放TPU并瞄准推理市场,正激进挑战英伟达在AI芯片领域的霸主地位,或将重塑全球AI经济格局。
@CNET:NVIDIA GTC 主题演讲中,CEO 黄仁勋谈到我们正面临的推理拐点
NVIDIA CEO 黄仁勋在 GTC 主题演讲中指出 AI 推理正处于拐点;Supermicro 正与 NVIDIA 合作,基于 Blackwell 平台交付一站式“AI 工厂”基础设施方案。
@LinQingV: 之前做LLM推理芯片架构探索的时候,我把四大AI推理ASIC公司的架构都翻过一遍。Groq、SambaNova、Tenstorrent、Cerebras。前三家的思路虽然各有侧重,但底层逻辑都在同一个框架里:片上大SRAM + dataf…
The article analyzes the AI inference ASIC architectures of Groq, SambaNova, Tenstorrent, and Cerebras, highlighting Cerebras's unique wafer-scale engine design. It discusses the benefits of deterministic latency and high bandwidth for LLM inference, while noting challenges like yield, cost, and KV cache bottlenecks.