NVIDIA執行長黃仁勳表示,AI 正首次改寫過去 60 年來的運算模式,從雲端延伸到本地資料中心,帶動架構全面變革。透過與全球領先伺服器供應商合作,RTX PRO 伺服器將成為企業與工業 AI 的標準平台。

NVIDIA RTX PRO 伺服器將 GPU 加速應用擴展至資料分析、模擬、影像處理與渲染等傳統 CPU 型工作負載,相較純 CPU 的 2U 系統,效能最高可提升 45 倍、能源效率提升 18 倍,並降低總持有成本。對於在空間、耗能與冷卻條件受限的資料中心,這款新系統可大幅提升運算密度與 AI 部署能力,成為打造「AI 工廠」的核心基礎架構。

技術規格方面,RTX PRO 6000 Blackwell 採用第五代 Tensor 核心與第二代 Transformer 引擎,支援 FP4 精度,推論效能最高較上一代 L40S GPU 提升 6 倍;第四代 RTX 技術則將渲染效能提升至 4 倍。多使用者環境可透過 NVIDIA 多執行個體 GPU(MIG)技術,將單顆 GPU 分割為最多四個獨立執行個體,兼顧安全性與彈性部署。

針對物理 AI 與機器人應用,RTX PRO 伺服器支援 NVIDIA Omniverse 函式庫與 NVIDIA Cosmos 世界基礎模型,可加速數位孿生建模與大規模合成資料生成,模擬速度較 L40S GPU 提升至 4 倍。此外,也整合 NVIDIA Metropolis 平台的最新藍圖,包括視訊搜尋與摘要功能、視覺語言模型與合成資料擴充,提升空間安全性與生產力。

所有 RTX PRO 伺服器均通過 NVIDIA AI Enterprise 認證,並適合部署 AI 推理代理模型,例如剛發布的 Llama Nemotron Super,在單顆 RTX PRO 6000 GPU 上以 NVFP4 技術執行,其性價比最高可達 H100 GPU 的 FP8 技術 3 倍。Blackwell 平台結合 CUDA-X 程式庫、生態系超過 600 萬名開發者與近 6,000 個應用,將效能延伸至數千顆 GPU。

全球系統製造商 Cisco、Dell、HPE、Lenovo 與 Supermicro 將推出多款 NVIDIA 認證的 RTX PRO 伺服器,其他合作夥伴還包括研華、安提國際、Aivres、永擎電子、華碩、仁寶、鴻海科技集團、技嘉科技、英業達、神雲科技、微星科技、和碩、雲達科技、緯創資通與緯穎。客戶即日起可透過上述系統製造商與通路夥伴訂購 RTX PRO 伺服器,目前採八顆 RTX PRO 6000 GPU 配置的 4U 機型已開放選購,2U 主流機型則預計於今年稍晚上市。