NVIDIA

NVIDIA pokazała GPU za 399 000 USD, ale w Wiedźmina na nim nie pograsz

Kamil Pieczonka
NVIDIA pokazała GPU za 399 000 USD, ale w Wiedźmina na nim nie pograsz
17

Jeszcze kilka lat temu NVIDIA wykorzystałaby GPU Technology Conference (w skrócie GTC) do prezentacji nowego układu graficznego, który byłby obiektem pożądania szerokiego grona graczy. To co pokazano na wczorajszej konferencji dobitnie pokazuje, że obecnie zainteresowania graficznego giganta są w całkiem innym miejscu i trudno się temu dziwić. Każda firma ma jeden nadrzędny cel, zarabiać pieniądze, a te pieniądze są właśnie na rynku profesjonalnym.

Jen-Hsun Huang podczas prelekcji na GTC opowiadał przez blisko 1.5h o najnowszych produktach jakie NVIDIA wprowadzi do sprzedaży w najbliższych miesiącach. Żaden z nich nie jest przeznaczony dla graczy, więc jeśli liczyliście na premierę GeForxe GTX 2080, to możecie już teraz przestać czytać. Nie oznacza to jednak, że wykład był nudny, jest wręcz przeciwnie.

NVIDIA DGX-2 - GPU za 399 000 USD

Sprowadzenie DGX-2 do poziomu GPU jest może nieco na wyrost, ale sam Jen-Hsun Huang tak własnie zapowiedział ten produkt. Jest to najnowszy klaster obliczeniowy stworzony przez NVIDIA, który posłuży przede wszystkim specjalistom od uczenia maszynowego i rozwoju sztucznej inteligencji. Biorąc pod uwagę, że zainteresowanie tymi technologiami przez gigantów rynku jest ogromne, to trudno się dziwić firmie z Santa Clara, że chce ten popyt wykorzystać, oferując odpowiednie rozwiązanie.

DGX-2 to nic innego jak 16 układów obliczeniowych Tesla V100 w nowej wersji, wyposażonej w 32 GB pamięci HBM2 każdy, współpracujących z dwoma procesorami Intel Xeon Platinum, nawet 1.5 TB pamięci RAM oraz 30 TB (z możliwością rozszerzenia do 60 TB) pamięci SSD NVMe. Co jednak bardziej istotne, dzięki łączności NVLink2 i nowo zaprezentowanej technologii NVSwitch, całość tworzy jeden wielki układ obliczeniowy wyposażony w 81920 procesorów CUDA i 512 GB pamięci HBM2 o sumarycznej przepustowości 14.4 TB/s. Dzięki NVSwitch każde GPU ma bezpośredniego połączenie z dowolnym innym układem z przepustowością 300 GB/s, to 20 razy więcej niż oferuje obecnie interfejs PCI Express 16x.

Wydajność: 2 peteflopsy

Taki układ daje prawo nazwania DGX-2 klastrem petaflopowym, choć chodzi tu tylko stricte o wydajność 10240 rdzeni Tensor, zoptymalizowanych właśnie pod kątem obliczeń związanych z uczeniem maszynowym. W takich tematach produkt NVIDIA osiąga wydajność na poziomie 1920 TFLOPs, co pozwala na wytrenowanie zaawansowanej sieci neuronowej FAIRSeq pod kątem tłumaczeń w zaledwie 2 dni, podczas gdy DGX-1 bazujący na poprzedniej generacji układów Volta potrzebował na to 15 dni. Aby mieć jeszcze lepszą perspektywę, wytrenowanie AlexNet, jednego z pierwszych systemów uczenia maszynowego, zajmowało 5 lat temu na dwóch kartach GeForce GTX 580 około 6 dni, DGX-2 wykona to samo zadanie w... 18 minut.

Jak przystało na sprzęt o tego typu wydajności ma on spore zapotrzebowanie na energię, jest to niemal dokładnie 10 000 W, co jednak według NVIDIA i tak jest wartością kilkukrotnie mniejszą, niźli energia potrzebna do zasilenia klastra obliczeniowego o podobnych możliwościach stworzonego na bazie CPU. System DGX-2 będzie dostępny w sprzedaży już w kwietniu, a jego cena została ustalona na 399 000 USD. To chyba dobitnie pokazuje dlaczego NVIDIA woli inwestować w tego typu rozwiązania niż w karty graficzne. W dużym uproszczeniu, pojedyncza karta Tesla V100 sprzedawana jest w takim zestawie za 25 000 USD. Karty graficzne przeznaczone na rynek konsumencki nawet po ostatnich podwyżkach nie kosztują więcej niż 2000 USD.

NVIDIA Quadro GV100

Tak jak wspominałem, NVIDIA nie pokazała żadnego GPU dla Kowalskich i Smithów, ale układ graficzny Volta trafił wreszcie do segmentu profesjonalnego pod postacią Quadro GV100. Jest to praktycznie identyczna karta jak Tesla V100 użyta w DGX-2, czyli układ wyposażony w 5120 procesorów CUDA, 640 rdzeni Tensor oraz 32 GB pamięci HBM2. Ponadto do dyspozycji mamy 320 jednostek teksturujących oraz 128 jednostek ROP, a całość taktowana jest zegarem 1450 MHz. Jest to też pierwszy układ, który będzie obsługiwał sprzętowo efekty ray-tracingu (śledzenie promieni  światła). Technologia ta została pokazana kilka dni temu i ma zrewolucjonizować realizm w grach i efektach specjalnych w filmach. Jeśli macie ochotę wsadzić tego potworka do swojego komputera to przygotujcie się na wydatek blisko 9000 USD.

źródło: NVIDIA

Autonomiczne pojazdy nie tak szybko

NVIDIA skupia też sporo swojej uwagi na motoryzacji. Dostarcza tam przede wszystkim swoją platformę DRIVE, która pozwala na stworzenie autonomicznych pojazdów, oferując moc obliczeniową potrzebną do przetwarzania ogromnych ilości danych dostarczanych przez różnego rodzaju czujniki. Niestety rzeczywistość nie jest taka różowa, według ostatnich doniesień, autonomiczny samochód Ubera, który śmiertelnie potrącił kobietę w zeszłym tygodniu, bazował właśnie na platformie NVIDIA. Nie wiadomo czy wykorzystane były też algorytmy firmy z Santa Clara, ale sam Jen-Hsun Huang przyznał na konferencji, że technologia ta wymaga jeszcze dopracowania. Przez najbliższe 2-3 lata firma skupi się przede wszystkim na trenowaniu swoich systemów, a wydatnie pomogą w tym takie platformy jak DGX-2.

źródło: AnandTech

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu