當前位置: 主頁 > 新聞 >
 

NVIDIA 宣布在 Microsoft Azure 雲端服務平台推出具擴充性的 GPU 加速超級電腦

本文作者:NVIDIA       點擊: 2019-11-19 09:31
前言:
全新 Microsoft Azure NDv2 超大規模執行個體可擴大到數百個互連的 NVIDIA Tensor Core GPU 上,處理複雜的 AI 與高效能運算應用
2019年11月19日--NVIDIA (輝達) 今天宣布推出一款在 Microsoft Azure 雲端環境中執行的全新類型 GPU 加速超級電腦。
 
 
Azure 為因應最苛刻的 AI 與高效能運算應用,以最大規模部署旗下全新 NDv2 執行個體,使其躋身全球最快超級電腦之一,而 NDv2 執行個體靠著單一 Mellanox InfiniBand 後端網路即可串連高達 800 個 NVIDIA V100 Tensor 核心 GPU。使得客戶能夠首次在辦公桌上按照需求來租用整個 AI 超級電腦,享受在公司內部要花上數個月來部署大規模超級電腦才能獲得的同樣效能。
 
NVIDIA 加速運算部門副總裁暨總經理 Ian Buck 表示:「到目前為止,唯有全球最大型的企業和組織才能取得超級電腦這項資源來處理 AI 及高效能運算作業。Microsoft Azure 的新產品讓更多人可以取得 AI 這項基本工具,以解決世界上部分最棘手的問題。」
 
Microsoft Azure 運算部門副總裁 Girish Bablani 補充道:「各地雲端運算的發展勢如破竹,客戶都想找更強大的服務。Microsoft 與 NVIDIA 聯手讓客戶能夠立即取得強大的超級運算能力,這是過去想都想不到的,開啟了創新的新紀元。」
 
顯著的效能與成本優勢
適用於處理複雜 AI、機器學習及高效能運算作業負載的新產品,與傳統的 CPU 運算產品相比,可以提供顯著的效能及成本優勢。需要快速解決問題的 AI 研究人員,能夠快速啟動多個 NDv2 執行個體,只要幾個小時便能完成訓練複雜的對話型 AI 模型。
 
Microsoft 與 NVIDIA 的工程師在預先發佈的叢集版本上使用 64 個 NDv2 執行個體,只花了約三小時便完成訓練熱門的對話型 AI 模型 BERT,其中有部分利用了 NCCL 的多 GPU 優化、NVIDIA CUDA X™ 函式庫與高速 Mellanox 互連技術。
 
客戶還能獲得使用多個 NDv2 執行個體來運行複雜 HPC 作業負載像是 LAMMPS 的優點。LAMMPS 是一種熱門的分子動力學應用程式,用在藥物開發和發現等領域模擬深入到原子層級的材料。對於深度學習等特定類型的應用項目,單一 NDv2 執行個體可以在不使用 GPU 加速技術的情況下,以傳統 HPC 節點難以望其項背的速度更快提供結果。這種效能表現能夠以線性方式擴大到 100 個執行個體,以處理大規模模擬作業。
 
所有 NDv2 執行個體皆受益於 GPU 優化的 HPC 應用程式與機器學習軟體,還有來自 NVIDIA NGC 容器 registry 與 Azure Marketplace 的 TensorFlow、PyTorch 及 MXNet 等深度學習框架。該 registry 還提供多個 Helm chart 以便在 Kubernetes 叢集上輕鬆部署 AI 軟體。
 
供應時程與訂價
NDv2 目前提供預覽版本。一個執行個體搭配 8 個 NVIDIA V100 GPU 可以組成叢集並擴大規模,以滿足各類作業負載需求。更多資訊請瀏覽 Microsoft Azure 官方網站。
 
掌握NVIDIA最新動態
 請訂閱NVIDIA官方部落格或追蹤Facebook、Twitter、LinkedIn與Instagram。瀏覽 NVIDIA 相關影片及圖片,請至YouTube或Flickr。
 
關於NVIDIA (輝達)
 NVIDIA (輝達)自1999年發明GPU起,成功促進PC電競市場的成長並重新定義現代電腦顯示卡產品,掀起電腦平行運算革命。近年來GPU深度學習也促發被視為下一個運算時代的AI ,透過GPU以類人腦方式運作於電腦、機器人與自駕車等,來感知並解讀真實世界。欲瞭解更多資訊,請瀏覽http://nvidianews.nvidia.com/

 

 

電子郵件:look@compotechasia.com

聯繫電話:886-2-27201789       分機請撥:11