Nvidia 征服最新 AI 测试

多年来,Nvidia 一直在许多机器学习基准测试中占据主导地位,如今又获得了两项殊荣。 MLPerf人工智能基准测试套件有时被称为“机器学习的奥运会”,它发布了一套新的训练测试,以帮助在竞争计算机系统之间进行更多、更好的同类比较。MLPerf 的新测试之一涉及微调 大型语言模型,即采用现有的经过训练的模型,并使用专业知识对其进行进一步训练,以使其适合特定用途。另一种是 图神经网络,一些文献数据库、金融系统中的欺诈检测和社交网络背后的一种机器学习。 即使有计算机的加入和参与, 谷歌的 和 英特尔 人工智能加速器、由 Nvidia 的 Hopper 架构 再次占据主导地位。一个包含 11,616 个 Nvidia H100 GPU 的系统(迄今为止最大的集合)在九项基准测试中均名列前茅,并在其中五项(包括两项新基准测试)中创下纪录。 “如果只是用硬件来解决问题,那并不意味着一定会取得进步。” —Nvidia 的 Dave Salvator 11,616-H100 系统是“我们迄今完成的最大系统”, 戴夫·萨尔瓦托,Nvidia 加速计算产品总监。它突破了 GPT-3 训练试验 不到 3.5 分钟。相比之下,512-GPU 系统大约需要 51 分钟。(请注意 GPT-3 这项任务并不是一次完整的训练,训练可能需要数周时间,花费数百万美元。相反,计算机会在完成之前约定的时间点对具有代表性的数据进行训练。 与 Nvidia 最大的竞争对手相比 GPT-3 去年,一台 3,584 H100 计算机,3.5 分钟的结果代表了 3.2 倍的改进。你可能只是从这些系统的大小差异中就能预料到这一点,但在人工智能计算中情况并非总是如此,Salvator 解释道。“如果你只是用硬件来解决问题,那并不是一定会有所改进,”他说。 Salvator 表示:“我们基本上实现了线性扩展。他的意思是,两倍的 […]