最新AI運算加速GPU顯示卡硬體規格價格比較表選擇指南
| NVIDIA GPU | Tensor 核心 | CUDA 核心 | 電源 | 新台幣價格 |
| H200-NVL-141G | 528 | 16896 | 600W | 148萬 |
| RTX-PRO6000-96G | 752 | 24064 | 600W | 38萬 |
| RTX-5090-32G | 680 | 21760 | 600W | 11萬5千 |
| RTX-5080-16G | 336 | 10752 | 360W | 4萬9千 |
| RTX-5070TI-16G | 280 | 8960 | 300W | 3萬5千 |
| NVIDIA GPU | FP64 | FP32 | FP16 | 寬度 | 散熱 |
| H200-NVL-141G | 30.16 | 60.32 | 241.3 | 2 | 被動無風扇 |
| RTX-PRO6000-96G | 1.968 | 126 | 126 | 2 | 2 風扇 |
| RTX-5090-32G | 1.637 | 104.8 | 104.8 | 3 或 4 | 3 風扇 |
| RTX-5080-16G | 0.8793 | 56.28 | 56.28 | 3 | 3 風扇 |
| RTX-5070TI-16G | 0.6866 | 43.94 | 43.94 | 3 | 3 風扇 |
AI 運算主要會用到 Tensor 核心, Tensor 核心越多, AI 運算速度越快。
一般 AI 運算主要是用 FP16 半精度或是 BF16。
Tesla 系列顯示卡的優勢在於 FP64 雙精度浮點數,特別適用於天文物理模擬及有限元素法模擬。
由於 AI 訓練所需的記憶體越來越大,建議購買記憶體 32GB 以上的顯示卡為宜。
建議選擇優先順序:
1. 記憶體越大越好
2. Tensor 核心越多越好
3. 寬度越薄越好,佔用插槽數越少越好。
不常用於 AI 運算的 GPU 顯示卡沒有收錄到此常用比較表。
歡迎聯絡我們訂購,可配合學校報帳及公開招標。


 提供線上估價-320.jpg)



