Die ersten Rechenkarten mit Volta-GPUs wurden von Nvidia-Chef Jensen Huang an Forscher im Bereich der synthetischen Intelligenz übergeben. Somit können diese nun die neuen Technologien für ihre Forschungsarbeiten nutzen.
Diese ersten 15 Exemplare sollen den Startschuss darstellen für kommende Auslieferungen ? diese hatte Nvidia zur Vorstellung der Volta-GPUs (März 2017) für das dritte Quartal des Jahres angekündigt. Dann soll ebenfalls der Deep-Learning-Server DGX-1 mit acht Tesla V100 erhältlich sein ? für 149․000 US-Dollar.
15 Forscher erhielten eine Tesla V100.
Bild: Nvidia
Volta-GPU mit bis zu 120 TFlops
Volta ist Nvidias neueste GPU die vor allem auf Berechnungen im Bereich der künstlichen Intelligenz beziehungsweise des Deep Learnings zugeschnitten ist. Die unter dem Codenamen GV100 laufende GPU besteht aus 21⸴1 Milliarden Transistoren und wird vom taiwanischen Auftragsfertiger TSMC gefertigt (12-Nanometer-FFN). Nvidia bringt auf einer Chipfläche von stattlichen 815 mm² 5120 Shader-Rechenkerne unter die Berechnungen mit einfacher Genauigkeit (15 TFlops, 30 TFlops bei FP16) durchführen die 2560 Double-Precision Einheiten schaffen theoretisch 7⸴5 FP64-TFlops. Die PCIe-Karte erreicht im Vergleich zur SXM2-Variante aufgrund der etwas niedrigeren Taktfrequenz (1370 statt 1455 MHz) eine etwas geringere theoretische Rechenleistung (14 bzw․ 7 TFlops)
Überdies enthält Volta 640 Deep-Learning-Spezialeinheiten die sogenannten Tensor Cores ? jeder Streaming-Multiprozessor enthält acht Tensor Cores. Sie erreichen sowie beim Training als auch beim Inferencing von neuronalen Netzwerken eine Rechenleistung von bis zu 120 TFlops, also 120 Billionen Operationen pro Sekunde ? sind allerdings nur eingeschränkt programmierbar.
HBM2-Speicher mit 900 GByte/s, L1-Cache mit 14 TByte/s
Ein Chip mit so hoher Rechenleistung erfordert auch hohe Transferraten ? dafür soll High Bandwidth Memory 2 sorgen der auf der Tesla V100 900 GByte/s erreicht. Bei der Speichergröße bleibt Nvidia wie schon beim Vorgänger Tesla P100 bei 16 GByte. Theoretisch sei aber ein Speicherausbau auf 32 GByte möglich, ebenso wie Jonah Alben auf der GPU Technology Conference 2017 gegenüber heise online erklärte. Außerdem habe Voltas L1-Cache im Vergleich zum Pascal-Chip der Tesla P100 eine um den Faktor 4 geringere Latenz und erreiche einen Durchsatz von zirka 14 Terabyte/s.
Spieler-Grafikkarten mit Volta-GPU und bis zu 336 Textureinheiten werden zum derzeitigen Stand nicht vor 2018 erwartet.
Kommentare