3D 堆叠 DRAM 内存,日本 Preferred Networks 启动新一代 AI 处理器开发
11 月 19 日消息,日本 AI 芯片“独角兽”企业 Preferred Networks(注:以下简称 PFN)当地时间本月 15 宣布其新一代 AI 推理处理器 MN-Core L1000 已启动开发,目标 2026 年交付。
PFN 表示 MN-Core L1000 是其 MN-Core 系列 AI 处理器在的最新产品,针对大语言模型等生成式 AI 推理场景进行了优化,有望实现 10 倍于 GPU 等传统处理器的计算速度。
MN-Core L1000 采用了独特的思路来解决目前 AI 加速器领域普遍面临的逻辑计算单元与数据存储单元间的带宽瓶颈问题:其直接在处理器上方堆叠 DRAM 内存。
相较 2.5D 封装 DRAM 内存的现有 HBM 方案(被用于英伟达、AMD 等的 AI GPU),3D 堆叠 DRAM 内存可实现更短的逻辑-存储物理间距,同时信号走线也更为直接,拥有更高带宽上限。
而与 Cerebras、Groq 采用的 SRAM 缓存方案相比,3D 堆叠 DRAM 内存则可实现更大的存储密度,能更好满足大型模型的推理需求,同时减少对昂贵的先进制程逻辑警员的面积占用。
总而言之,PFN 认为其 MN-Core L1000 采用的 3D 堆叠 DRAM 内存技术兼具了 HBM 方案的高容量和 SRAM 方案的高带宽两大优势,此外其计算单元的高能效也化解了 3D 堆叠 DRAM 带来的热管理问题。
PFN 今年 8 月同日本金融巨头 SBI Holdings 就其下代 AI 半导体的开发和产品化组建了资本和商业联盟。
而在略早一些的 7 月,三星电子宣布得到了 PFN 的 2nm 先进制程 I-Cube S 先进封装“交钥匙”整体代工订单。不过从 PFN 的表述来看,MN-Core L1000 采用的先进封装更类似三星的 X-Cube 而非 I-Cube。