當前位置: 主頁 > 新聞 >
 

NVIDIA 攜手 Red Hat 共同加速企業級 AI 應用

本文作者:NVIDIA       點擊: 2019-05-17 12:25
前言:
NVIDIA 的加速運算平台與 Red Hat OpenShift 4 協助用戶針對 AI 與 資料科學領域的 Kubernetes 在地部署
2019年5月17日--NVIDIA (輝達) 與 Red Hat 於 Red Hat Summit 宣布結合 NVIDIA GPU 加速運算平台以及 Red Hat 最新發表的 OpenShift 4,協助用戶針對人工智慧 (AI) 與資料科學領域的 Kubernetes 在地部署。
 
Kubernetes 管理工作以往需耗費 IT 管理者大半天的時間,如今不到一小時就能完成。對許多企業來說,透過 GPU 加速的 AI 與資料科學計畫將能更快上線且更加輕鬆。
 
更完善的 GPU 加速運算、更簡單的部署程序
這項合作是基於許多企業仰賴 AI 與資料科學將巨量資料轉化為可供參考使用的情資,然而有意義的 AI 與資料分析需借助 GPU 運算的力量,以加快企業 IT 軟體堆疊的運作。從 NVIDIA 驅動程式、容器執行階段到應用程式框架,每個層面的軟體都必須最佳化。
 
NVIDIA CUDA平行運算架構 以及 CUDA-X 加速函式庫至今已廣獲超過 120 萬開發者使用,用以加速包含 AI、高效能運算以及虛擬桌面基礎架構 (VDI) 等各種領域的應用。此外,由於 NVIDIA 的架構可以通用在從筆電、資料中心到雲端等任何想得到的運算裝置上運行,因此在 GPU 加速應用程式上投入的資源為合理的投資。
 
不過,加速 AI 與資料科學的工作負載只是第一步。對於許多 IT 組織來說,要把完成最佳化的軟體堆疊直接部署在超大規模的 GPU 加速資料中心,不僅費時且往往成效不彰,而這就是 NVIIDA 與 Red Hat 聯手合作的原因。
 
Red Hat 的 OpenShift 是領先業界的企業級 Kubernetes 平台。OpenShift 4 的強化讓用戶比以往更容易在叢集環境中部署 Kubernetes。特別是 Red Hat 在 Kubernetes Operators 所挹注的投資,讓許多資料中心的日常管理與應用程式的生命週期管理都能自動化,進而降低管理工作的複雜度。
 
NVIDIA 持續開發自己的 GPU operator 工具,讓 IT 管理者透過 shell 指令自動完成許多管理工作,如安裝裝置的驅動程式、確保資料中心所有節點的 GPU 容器執行時間都妥善設定以及監控各個 GPU。
 
透過 NVIDIA 與 Red Hat 的合作,用戶設定好叢集之後,只須執行 GPU operator 工具,便能針對叢集中所有運行節點加入必要的關聯性以簡化整個程序。如同啟用新的雲端資源一樣,企業可以輕鬆地使用 GPU 加速資料中心叢集以及透過 OpenShift 4 運作系統。
 
預先了解並參與早期試用計畫
Red Hat 與 NVIDIA 邀請共同用戶參與完整的早期試用計畫。欲進一步瞭解,請至網站登記。
 
掌握 NVIDIA 最新動態
 請訂閱 NVIDIA 官方部落格或追蹤  Facebook 、Twitter、LinkedIn 與Instagram。瀏覽 NVIDIA 相關影片及圖片,請至 YouTube 或 Flickr。
 
關於NVIDIA (輝達)
 NVIDIA (輝達)自1999年發明GPU起,成功促進PC電競市場的成長並重新定義現代電腦顯示卡產品,掀起電腦平行運算革命。近年來GPU深度學習也促發被視為下一個運算時代的人工智慧,透過GPU以類人腦方式運作於電腦、機器人與自駕車等,來感知並解讀真實世界。欲瞭解更多資訊,請瀏覽
http://nvidianews.nvidia.com/

電子郵件:look@compotechasia.com

聯繫電話:886-2-27201789       分機請撥:11