Linux中國

Nvidia 悄悄推出更快、更低功耗的 Tesla GPU 加速器

Nvidia 上周舉行了 Supercomputing 19 大會,不出意外的是公布了很多新聞,這些我們將稍後提到。但被忽略的一條或許是其中最有趣的:一張更快、功耗更低的新一代圖形加速卡。

多名與會者與多個新聞站點發現了這點,Nvidia 向我證實這確實是一張新卡。Nvidia 的 「Volta」 這代 Tesla GPU 加速卡在 2017 年就已淘汰,因此升級工作應該早已過期。

V100S 目前僅提供 PCI Express 3 介面,但有望最終支持 Nvidia 的 SXM2 介面。SXM 是 Nvidia 的雙插槽卡設計,與 PCIe 卡不同,它不需要連接電源。SXM2 允許 GPU 通過 Nvidia 的 NVLink(一種高帶寬、節能的互連)相互之間或與 CPU 進行通信,其數據傳輸速度比 PCIe 快十倍。

藉助此卡,Nvidia 聲稱擁有單精度 16.4 TFLOPS,雙精度 8.2 TFLOPS 並且 Tensor Core 性能高達 130 TFLOPS。這僅比 V100 SXM2 設計提高了 4% 至 5%,但比 PCIe V100 變體提高了 16% 至 17%。

內存容量保持在 32 GB,但 Nvidia 添加了 High Bandwidth Memory 2(HBM2),以將內存性能提高到 1,134 GB/s,這比 PCIe 和 SXM2 都提高了 26%。

通常情況下,性能提升將同時導致功率增加,但在這裡,PCIe 卡的總體功率為 250 瓦,與上一代 PCIe 卡相同。因此,在相同功耗下,該卡可額外提供 16-17% 的計算性能,並增加 26% 的內存帶寬。

其他新聞

Nvidia 在會上還發布了其他新聞:

  • 其 GPU 加速的基於 Arm 的高性能計算參考伺服器的新參考設計和生態系統支持。該公司表示,它得到了 HPE/Cray、Marvell、富士通和 Ampere 的支持,Ampere 是 Intel 前高管勒尼·詹姆斯(Renee James)領導的一家初創公司,它希望建立基於 Arm 的伺服器處理器。
  • 這些公司將使用 Nvidia 的參考設計(包括硬體和軟體組件)來使用 GPU 構建從超大規模雲提供商到高性能存儲和百億億次超級計算等。該設計還帶來了 CUDA-X,這是 Nvidia 用於 Arm 處理器的 CUDA GPU 的特殊版本開發語言。
  • 推出 Nvidia Magnum IO 套件,旨在幫助數據科學家和 AI 以及高性能計算研究人員在幾分鐘而不是幾小時內處理大量數據。它經過優化,消除了存儲和 I/O 瓶頸,可為多伺服器、多 GPU 計算節點提供高達 20 倍的數據處理速度。
  • Nvidia 和 DDN (AI 以及多雲數據管理開發商)宣布將 DDN 的 A3ITM 數據管理系統與 Nvidia 的 DGX SuperPOD 系統捆綁在一起,以便客戶能夠以最小的複雜性和更短的時限部署 HPC 基礎架構。SuperPOD 還帶有新的 NVIDIA Magnum IO 軟體棧。
  • DDN 表示,SuperPOD 能夠在數小時內部署,並且單個設備可擴展至 80 個節點。不同的深度學習模型的基準測試表明,DDN 系統可以使 DGXSuperPOD 系統完全保持數據飽和。

via: https://www.networkworld.com/article/3482097/nvidia-quietly-unveils-faster-lower-power-tesla-gpu-accelerator.html

作者:Andy Patrizio 選題:lujun9972 譯者:geekpi 校對:wxy

本文由 LCTT 原創編譯,Linux中國 榮譽推出


本文轉載來自 Linux 中國: https://github.com/Linux-CN/archive

對這篇文章感覺如何?

太棒了
0
不錯
0
愛死了
0
不太好
0
感覺很糟
0
雨落清風。心向陽

    You may also like

    Leave a reply

    您的電子郵箱地址不會被公開。 必填項已用 * 標註

    此站點使用Akismet來減少垃圾評論。了解我們如何處理您的評論數據

    More in:Linux中國