Nvidia 是全球领先的半导体芯片开发商之一,于 8 月 7 日发布了 其最新芯片,旨在为高级人工智能 (AI) 系统提供动力。
该公司表示,其下一代 GH200 Grace Hopper 超级芯片是首批配备 HBM3e 处理器的芯片之一,旨在处理“世界上最复杂的生成人工智能工作负载,涵盖大型语言模型、推荐系统和矢量数据库”。
Nvidia 首席执行官黄仁勋 (Jensen Huang) 在一次主题演讲中评论说,它正在给处理器带来“提升”,并且:
“该处理器专为横向扩展全球数据中心而设计。”
虽然GH200具有与H100相同的通用处理单元(该公司最高端的芯片,也是世界顶级芯片之一),但它配备了141GB的高级内存和72核ARM中央处理器,这至少是比之前的芯片强大三倍。
Nvidia 的最新芯片专为推理而设计,推理是训练人工智能模型后使用它们的两个主要组成部分之一。推理是指模型用于生成内容、进行预测并不断运行。
黄说,“几乎任何”大型语言模型(LLM)都可以通过该芯片运行,并且它将“疯狂地推理”。
“大型语言模型的推理成本将大幅下降。”
Huang 表示,GH200 将于 2024 年第二季度上市,并应在 2023 年底提供样品。
这一发展正值 英伟达的市场主导地位受到竞争对手公司竞相创造最强大产品的新型半导体芯片的挑战之际。
目前,它在人工智能芯片市场的份额超过80%,市值一度突破1万亿美元。
5月28日,英伟达推出全新AI超级计算机为开发者创造 ChatGPT 风格的继任者,微软、Meta 和谷歌旗下 Alphabet 等大型科技公司预计将成为首批用户。
然而,6月14日,AMD(AMD)发布了其即将推出的AI芯片的信息拥有挑战Nvidia主导地位的能力和能力。AMD 芯片将于 2023 年第三季度上市。
最近,8 月 3 日,芯片开发商 Tenstorrent 在三星和现代领投的一轮融资中获得了 1 亿美元,旨在实现芯片市场多元化。