%PM, %08 %961 %2017 %22:%Okt

Nvidia Tesla V100 Gpu Mendapat Dukungan Luas Sebagai Vendor Server Beban Kerja AI (Artificial Intelligence)

Written by Wiji Noviasih Mahasiswi STTNF
Rate this item
(0 votes)

Vendor server utama berada di belakang akselerator GPU Tesla V100 Nvidia dalam sebuah langkah yang diharapkan dapat membuat kecerdasan buatan dan beban kerja mesin belajar lebih utama.

Dell EMC, HPE, IBM dan Supermicro menggariskan server pada akselerator GPU terbaru Nvidia, yang berbasis pada arsitektur Volta dari pembuat chip grafis. GPU V100 Nvidia memiliki lebih dari 120 teraflops kinerja yang mendalam per GPU. Throughput tersebut secara efektif mengambil batas kecepatan dari beban kerja AI (Artificial Intelligence).

Dalam sebuah posting blog, IBM Brad McCredie, wakil presiden dari pengembangan sistem kognitif Big Blue, mencatat bahwa Nvidia dengan V100 serta teknologi NVLINK PCI-Express 4 dan Memory Coherence membawa "bandwidth internal yang belum pernah terjadi sebelumnya" ke sistem yang dioptimalkan dengan AI.

Sistem berbasis V100 meliputi:

  • PowerEdge R740 Dell EMC, yang mendukung hingga tiga GPU V100 untuk PCIe dan dua sistem akhir yang lebih tinggi dengan R740XD, dan C4130.

  • HPE's Apollo 65000, yang akan mendukung hingga 8 V100 GPU untuk PCIe, dan sistem DL380 ProLiant yang mendukung hingga tiga GPU V100.

  • Sistem Daya IBM dengan prosesor Power 9 akan mendukung beberapa GPU V100. IBM akan meluncurkan sistem berbasis Power 9 akhir tahun ini.
  • Supermicro juga memiliki serangkaian workstation dan server yang dibangun dengan V100.
  • Inspur, Lenovo dan Huawei juga meluncurkan sistem berbasis V100.

 

Sistem Daya IBM dengan prosesor Power 9 akan mendukung beberapa GPU V100. IBM akan meluncurkan sistem berbasis Power 9 akhir tahun ini.

Read 1304 times Last modified on %AM, %09 %315 %2017 %06:%Okt