Nvidia 推出 Blackwell B200,专为 AI 设计的“全球最强大芯片”
  三个点 2024年03月19日 808 0

据报道,B200 晶体管芯片可将 AI 成本和能耗降低 25 倍

周一,Nvidia发布了Blackwell B200 核心芯片,这是该公司最强大的单芯片 GPU,拥有 2080 亿个晶体管。Nvidia 声称,与H100相比,这款芯片可以将使用 AI 的成本(例如运行ChatGPT)和能耗降低 25 倍。该公司还发布了 GB200,这是一款结合了两个 B200 芯片和一个 Grace CPU 的“超级芯片”,性能更佳。

img

这一消息是英伟达年度 GTC 会议的一部分,该会议本周在圣何塞会议中心举行。英伟达首席执行官黄仁勋周一下午发表了主题演讲。黄仁勋在主题演讲中表示:“我们需要更大的 GPU。”他说,Blackwell 平台将允许训练万亿参数的 AI 模型,相比之下,今天的生成式 AI 模型将显得简陋。作为参考,OpenAI 于 2020 年推出的 GPT-3 包含 1750 亿个参数。参数数量是 AI 模型复杂度的粗略指标。

Nvidia 以大卫·哈罗德·布莱克威尔 (David Harold Blackwell)的名字命名 Blackwell 架构,他是一位专门研究博弈论和统计学的数学家,也是第一位入选美国国家科学院的黑人学者。该平台引入了六项用于加速计算的技术,包括第二代 Transformer Engine、第五代 NVLink、RAS Engine、安全 AI 功能以及用于加速数据库查询的解压缩引擎。
img

预计亚马逊网络服务、戴尔科技、谷歌、Meta、微软、OpenAI、甲骨文、特斯拉和 xAI 等几家大型组织都将采用 Blackwell 平台,而 Nvidia 的新闻稿中则充斥着马克·扎克伯格和萨姆·奥特曼等科技公司 CEO(Nvidia 的主要客户)对该平台的称赞。

GPU 曾经仅用于游戏加速,但现在特别适合 AI 任务,因为它们的大规模并行架构可以加速运行当今神经网络所需的大量矩阵乘法任务。随着 2010 年代新深度学习架构的出现,Nvidia 发现自己处于利用 AI 革命的理想位置,并开始设计专用 GPU,专门用于加速 AI 模型。

Nvidia 对数据中心的关注使该公司变得非常富有和有价值,这些新芯片延续了这一趋势。Nvidia 的游戏 GPU 收入(上个季度为 29 亿美元)与数据中心收入(184 亿美元)相比相形见绌,而且这种趋势没有停止的迹象。

兽中之兽

上述 Grace Blackwell GB200 芯片是新款 NVIDIA GB200 NVL72 的重要组成部分,这是一款多节点、液冷数据中心计算机系统,专为 AI 训练和推理任务而设计。它结合了 36 个 GB200(总共 72 个 B200 GPU 和 36 个 Grace CPU),通过第五代 NVLink 互连,将芯片连接在一起,以成倍提高性能。

img

Nvidia 表示:“与相同数量的 NVIDIA H100 Tensor Core GPU 相比,GB200 NVL72 对于 LLM 推理工作负载而言,性能提升了 30 倍,成本和能耗降低了 25 倍。”

这种加速可能会在运行当今的 AI 模型时节省金钱和时间,但它也将允许构建更复杂的 AI 模型。生成式 AI 模型(如支持Google Gemini和AI 图像生成器的模型)以计算量巨大而闻名。计算能力的短缺被广泛认为阻碍了 AI 领域的进步和研究,对更多计算的追求导致 OpenAI 首席执行官 Sam Altman 等人物试图促成交易以创建新的芯片代工厂。

虽然 Nvidia 宣称 Blackwell 平台的性能非常出色,但值得注意的是,随着组织开始自行实施和使用该平台,其实际性能和技术采用情况仍有待观察。英特尔和 AMD 等竞争对手也在寻求从 Nvidia 的 AI 市场分一杯羹。

Nvidia 表示,基于 Blackwell 的产品将于今年晚些时候通过各合作伙伴推出。

最后一次编辑于 2024年03月20日 0

暂无评论

三个点
作者其他文章 更多