Zbliżamy się do końca mojego małego cyklu, który sukcesywnie ewoluował. W dzisiejszym odcinku przyszła kolej na pamięci, dysk oraz grafikę. Podejrzewam, że tutaj nikogo właściwie nie zaskoczę swoimi wyborami. Postawiłem bowiem na pewniaki.
Składam komputer – część czwarta. Pamięci, dysk i karta graficzna
Nie pierwszy raz podkreślam, że ostatniego peceta składałem tuż po pierwszej komunii świętej. Właściwie nie ja, bo poprosiłem o pomoc kogoś z rodziny. Mój wymarzony sprzęt miał Celerona 500 MHz, 64 MB pamięci RAM, dysk 10 GB i kartę pamięci Riva TNT 2. Z czasem umieściłem tam GeForce 2 MX, a także rozbudowałem RAM do 192 MHz. Udało mi się też podkręcić CPU o zawrotne 100 MHz (biorąc pod uwagę jego bazowe taktowanie, to wcale nie mało). Komputer jednak się w końcu zestarzał, a ja od tamtej pory przeskakiwałem już tylko z laptopa na laptopa.
Wróćmy jednak do mojej, powstającej w bólach platformy testowej. Pierwszy odcinek okazał się lekkim falstartem, bo wybrana przeze mnie obudowa była zbyt wąska i nie pozwalała na umieszczenie solidnego coolera. Finalnie wybór padł zatem na Corsaira 740 Air, który jest prawdziwą lodówką. W międzyczasie zmieniał się też sam format tekstów. Chciałem pisać osobno o każdym komponencie, co było po części wynikiem mojej ekscytacji całym procesem. Szybko jednak sprowadziliście mnie na ziemię i tym samym każda kolejna część zyskiwała na objętości.
Pamięć – Corsair Vengeance RGB DDR4 4 x 8 GB
Udało mi się zmienić obudowę, więc w kwestii coolera poszedłem na całość i postawiłem na prawdopodobnie jeden z najbardziej wydajnych modeli na rynku - Noctua NH-D15 (o czym szerzej w poprzedniej odsłonie cyklu). Miałem już wówczas pamięci RAM, więc mogłem je zmierzyć i sprawdzić, czy będą kompatybilne z takim chłodzeniem procesora (D15 ma specjalne wycięcia na wysokie kości RAM, a moje mierzą aż 44 mm). Sęk w tym, że moje Corsair Vengeance były wyposażone w diody LED (Wincyj LED-ów, jak to skwitował mój znajomy), które zostały praktycznie całkowicie zasłonięte przez cooler. Efekciarskie oświetlenie poszło zatem na marne.
Skłamałbym jednak (i naraził się na lincz), pisząc, że postawiłem na te kości z powodu światełek. Corsair Vengeance RGB to pamięci DDR4 taktowane z częstotliwością 3000 MHz, co powinno w zupełności wystarczyć do komfortowej pracy i zabawy, a przy tym nie stanowić wąskiego gardła dla procesora. Na cały zestaw składają się cztery moduły po 8 GB, a więc w sumie 32 GB. Ich opóźnienia wynoszą 15-17-17-35.
Producent podkreśla też, że moduły są doskonale zaprojektowane pod kątem podkręcania. Ich bazowe napięcie wynosi 1,35 V. Obsługują profil Intel XMP 2.0. Oprócz tego każdy moduł posiada u góry nakładkę wykonaną z anodyzowanego aluminium. Ma to pomagać w bardziej skutecznym odprowadzaniu ciepła (i pełnić rolę estetyczną).
Wszystko to dopełnia oprogramowanie Corsair Link, za pomocą którego mogę monitorować temperaturę oraz stan pamięci, a także modyfikować podświetlenie (co, jak już ustaliliśmy, okazało się zbędne - widać jedynie niewielką poświatę). Benchmarków jeszcze nie przeprowadzałem - podzielę się nimi z Wami podczas testowania całej platformy.
Panuje przekonanie, że dobrze wyglądające komponenty raczej nie należą do tych najwydajniejszych (i odwrotnie). W przypadku opisywanych pamięci producent jednak zrezygnował z jakichkolwiek kompromisów. Diody LED nie wymagają podłączania żadnych dodatkowych kabli. Natomiast same kości mają wyśrubowane parametry oraz overclockingowy potencjał. Dzięki wsparciu dla XMP wykorzystanie go, jest bardzo proste i przystępne.
Cieniem na te wszystkie zalety pada cena kości. Za opisywane przeze mnie 32 GB trzeba zapłacić w Polsce ok. 1300 zł. Wersja taktowana wyżej (3333 MHz) kosztuje już ponad 1500 złotych. Widać zatem wyraźnie, że jest to produkt adresowany do raczej wąskiej grupy odbiorców, którzy szukają niebanalnego i efektownego wyglądu połączonego z topową wydajnością. Vengeance RGB bez wątpienia spełniają oba te warunki.,
Dysk – Samsung Evo 960 1 TB
Początkowo byłem kompletnym laikiem, jeśli chodzi o dobór dysku. Chciałem postawić na prostego SSD mocowanego przez złącze SATA. I działałoby to pewnie w porządku. Nie to jednak było moim zamiarem, a stworzenie maszyny możliwie najmocniejszej pod kątem różnych zastosowań. A dysk się przydaje m.in. podczas montażu wideo i pracy na dużych plikach. Zresztą nie tylko, bo wysokie transfery to również krótsze ekrany ładowania w grach i ogólna poprawa wydajności. Głupio, gdyby wąskim gardłem dla mojej bestii był właśnie ten element.
Krótki research uświadomił mnie, że absolutnym topem są aktualnie nośniki NVMe montowane w złączach M.2 wykorzystujących magistralę PCI-E. Dla porównania interfejs SATA III pozwala nam na uzyskanie maksymalnej przepustowości rzędu 570 MB/s, a w przypadku M.2. transfery mogą sięgać kilku gigabajtów.
Wybrany Samsung 960 Evo o pojemności 1 TB nie jest najszybszym dyskiem Samsunga – przebija go model Pro, który jest jednak zauważalnie droższy (różnica w możliwościach, moim zdaniem, nie jest na tyle duża, aby usprawiedliwić przekraczający 500 zł skok cenowy). Oba nośniki wykorzystują interfejs PCI-E 3.0 x4 i oparte zostały na kontrolerze Samsung Polaris. Ich sercem są kości 3D TLC V-Nand (te samsungowskie znacząco różnią się od zwykłych kości TLC stosowane przez innych producentów). Model 960 Evo 1 TB posiada 1024 MB cache i ma osiągać prędkości 1900 MB/s przy zapisie oraz 3200 MB/s przy odczycie (odpowiednio 360 000 i 380 000 IOPS 4K). Jak to wygląda w praktyce?
Dodatkowym atutem takiego dysku jest estetyczny wygląd. Wszystko sprowadza się do wpięcia go do jednego z dwóch slotów M.2. (musi wspierać długość 2280) na mojej płycie głównej. Żadnych kabli, żadnych dodatkowych mocowań i podprowadzania zasilania. To oznacza, że cyrkulacja powietrza wewnątrz jest lepsza, a nośnik zajmuje zdecydowanie mniej miejsca. Cudo!
Tutaj dodam jeszcze, że w drugim ze slotów mam dysk Intel Optane 16 GB. Po co? Właściwie sam nie wiem – nośnik wpadł mi w ręce przypadkowo i kurzył się w kartonie. Pomyślałem, że to dobry moment, by go wykorzystać. Warto zauważyć, że nie notuje on wyższych prędkości (900 MB/s odczyt i 145 MB/s zapis) od mojego 960 Evo, a więc nie mam z niego praktycznie żadnych korzyści. Ma jednak zauważalnie niższe opóźnienie (6 mikrosekund odczyt i 16 mikrosekund zapis), a to może już coś zmieniać. Niestety nigdzie w sieci nie znalazłem testów porównujących wpływ Optane na platformy z szybkimi SSD, zatem będę musiał sprawdzić to sam w wolnej chwili.
Karta graficzna – AORUS GeForce GTX 1080 Ti
Przechodzimy do komponentu, który budzi ostatnio ogromne kontrowersje. Ceny kart graficznych rosną w zatrważającym tempie. Moja przyjechała do mnie jeszcze przed całą tą aferą. Wyprodukowany przez Gigabyte model Aorus to jedno z najlepszych wcieleń 1080 Ti na rynku. Od referencyjnego modelu różni się wyższym bazowym taktowaniem rdzenia (1569 MHz vs. 1480 MHz). Oczywiście na tym nie koniec, bo maksymalne TDP karty sięga 375 W, a więc aż 150 proc. Względem modelu referencyjnego. Potencjał overclockingowy jest zatem ogromny. Dołączone przez producenta oprogramowanie pozwala nam jednym kliknięciem przełączyć się w tryb OC, w którym rdzeń pracuje za częstotliwością 1594 MHz. Póki co większych taktowań nie próbowałem.
Karta posiada podświetlenie RGB Fusion, co właściwie jest standardem w tym segmencie. Producent zadbał też o chłodzenie, które stanowi autorski system WindForce składający się z trzech wentylatorów. Dotąd opinie na temat tego rozwiązania Gigabyte’a były różne. W tym przypadku sprawdza się jednak ono doskonale i sprawnie utrzymuje temperatury w ryzach – przy maksymalnym obciążeniu na ustawieniach fabrycznych czujniki ani razu nie wskazały więcej niż 70 stopni. Aorus jest stosunkowo cichy, choć przy maksymalnym obciążeniu potrafi dać się we znaki i wówczas słychać te trzy wentylatory. Na szczęście możemy dość kompleksowo skonfigurować ich zachowanie za pomocą aplikacji Aorus Graphics Engine.
Zestaw złącz robi wrażenie i zadowoli pewnie każdego. Składają się na niego DVI-D, 2x HDMI 2.0 oraz 3x DisplayPort 1.4. Maksymalnie do karty podłączymy cztery ekrany. Dużym plusem jest dodatkowe wyjście HDMI wewnątrz obudowy, co pozwala na wyprowadzenie go na front, do stosownego panelu (jeśli takowy oczywiście posiadamy). Po co mielibyśmy to robić? Producent nazywa to rozwiązanie VR Link, dzięki czemu łatwiej nam podłączyć Oculusa czy HTC Vive. Tutaj jednak mam spore wątpliwości, bo czy naprawdę musimy podłączać gogle VR z przodu? Przecież nie robimy tego tak często jak np. podłączanie pendrive’a do USB. Podejrzewam, że to kwestia osobistych preferencji.
-
Tyle w przedostatnim odcinku o mojej platformie. Ostatnia część to monitor oraz kilka słów o peryferiach (myszy, klawiaturze, podkładce i słuchawkach).
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu