Akcja Partnerska

Nowoczesne centrum danych dba o nasze dane każdego dnia - co sprawia, że są bezpieczne?

KK
Konrad Kozłowski
3

Prawie każdy z nas codziennie korzysta z Internetu pracując, ucząc się czy dokonując zakupów, ale raczej rzadko zastanawiamy się, co się dzieje po drugiej stronie. Oczekujemy od stron i sklepów niezawodności i gotowości do użycia o każdej porze dnia i nocy. Gdzie znajdują się serwery, na których operują używane przez nas usługi i strony internetowe? Jak działają? Jakie zabezpieczenia są stosowane, by użytkownicy i usługodawcy mogli bez przeszkód z nich korzystać?

Firma hostingowa cyberfolks.pl właśnie wprowadza się z częścią swojej infrastruktury do nowoczesnego centrum danych Netia Data Center Soul, które jest idealnym przykładem tego, jak należy dbać o dane. To dobra okazja, aby przybliżyć Wam jak działają takie obiekty.

Centrum danych - co to jest i czy nasze dane są bezpieczne?

Zacznijmy od podstaw, czyli samej definicji centrum danych, które jest po prostu obiektem, gdzie znajdują się pokaźne zasoby danych. Jeśli przed Waszymi oczami znajduje się teraz obraz wielu pionowych konstrukcji na wzór szafy ustawionych obok siebie i wewnątrz których umieszczono serwery, macierze dyskowe i urządzenia sieciowe, to macie rację!

Tak od środka wygląda typowe pomieszczenie serwerowni (to część centrum danych, gdzie są przechowywane serwery - bo takie centrum ma też inne pomieszczenia) uzupełnione przez mnóstwo innych urządzeń, kolorowych diod i przewodów, ale rzadko kiedy zdajemy sobie sprawę o rozmachu takich obiektów. Dla porównania warto przytoczyć liczbowo powierzchnię zajmowaną przez centrum danych, które zajmuje 3500 metrów kwadratowych - to połowa przestrzeni zajmowanej przez stadion FC Barcelony.

To, czego jednak nie oglądamy na obrazkach z serwerowni, to zabezpieczenia odpowiedzialne za utrzymanie ciągłej gotowości do pracy. Niebezpieczeństw i zagrożeń jest całe mnóstwo: wśród nich znajdują się podstawowe, jak włamanie czy utrata zasilania, ale są też bardziej złożone czy wręcz zaskakujące, bo w grę wchodzi nawet...poziom wodoru w powietrzu i promieniowanie kosmiczne!

Zapewnienie ciągłości zasilania bez względu na okoliczności

Brak zasilania to chyba jednak najbardziej bliski każdemu z nas problem, ponieważ dotyczy urządzeń, których używamy na co dzień - laptopów czy smartfonów. Zachowanie ciągłości zasilania w przypadku centrum danych jest poważnym wyzwaniem, a o skali świadczy chociażby sumaryczna długość kabli, które są potrzebne do zapewnienia niezawodności całej infrastruktury - to około 300 km przewodów!

Oprócz nich niezbędne jest zastosowanie takich elementów, jak potężne akumulatory UPS, transformatory i agregaty prądotwórcze. Z innych ciekawostek warto wspomnieć o oddzielnych torach zasilania, dzięki którym w przypadku awarii jednego, drugi z zasilaczy pozostaje sprawny, a serwer działała nieustannie. Zapotrzebowanie na energię natomiast jest jednak tak duże, że wspomniane systemy USP służą jedynie przez kilkanaście sekund, zanim aktywne będzie zasilanie awaryjne oparte o silniki diesla. W przykładowym centrum centrum Netia Data Center Soul w Krakowie znajdują się 4 generatory spalinowe o mocy 2000 kVA każdy. By to wszystko działało potrzebne jest tak dużo paliwa, że samochód osobowy zdołałby okrążyć na tym paliwie Ziemię aż 15 razy.

Chłodzenie centrum danych to ogromne wyzwanie

Ewentualny brak zasilania to tylko jedno z wielu zagrożeń, bo przecież stale pracujące serwery wydzielają ogromną ilość ciepła. W związku z tym i tutaj niezbędne jest zadbanie o nie tyle wystarczające chłodzenie, lecz zdecydowanie ponad normę i ze szczególnym uwzględnieniem wytrzymałości całej infrastruktury za to odpowiedzialnej.

Co więcej, nie chodzi tu tylko o samo utrzymanie żądanej temperatury: klimatyzacja musi też zadbać o właściwą wilgotność powietrza - zbyt niska zwiększa ryzyko wyładowań elektrostatycznych, zbyt wysoka powoduje powstawanie skroplin w niepożądanych miejscach.Nie wolno doprowadzić do żadnego ze scenariuszy.

O ruch powietrza w serwerach dbają zwielokrotnione wentylatory. W przypadku awarii jednego z wiatraków, pozostałe zaczynają pracować na większych obrotach, by zminimalizować lub wręcz wyzerować powstałą stratę w przepływie powietrza. Baterie wentylatorów nieustannie zajmują się zaciąganiem powietrza z frontu serwera, z tzn. naw (albo, mówiąc prościej - korytarzy) chłodnych i przepychaniem przez rozgrzane komponenty (zasilacze, dyski, pamięć, procesory). Po odebraniu ciepła powietrze jest wyrzucane do tyłu, do tzw. nawy gorącej.

Ochrona przeciwpożarowa rodem z okrętów podwodnych

Jeszcze bardziej wyjątkowa jest kwestia ochrony przeciwpożarowej, która opiera się na systemie VESDA potrafiącym wykryć nawet najmniejszą ilość dymu, by następnie aktywować alarm. Prawdziwym wyzwaniem jest jednak samo wygaszenie pożaru - musi to być działanie niezwykle szybkie i skuteczne, ale przecież w grę wchodzą urządzenia elektryczne, a prądy zasilające są miejscami przesyłane z użyciem szynoprzewodów, bo konwencjonalne okablowanie byłoby nieefektywne do tak ogromnych natężeń prądu. Moc szczytowa tego centrum to 5 aż MW - to wystarczyłoby do zasilenia całej dzielnicy domków jednorodzinnych. Dodatkowo na serwerach znajdują się przecież cenne dane. Jak więc gasi się takie obiekty?

Oczywiście, ręczne gaśnice ani klasyczne skraplacze mają ograniczoną przydatność w takich warunkach. U podstaw systemu ochronnego znajduje się instalacja odpowiedzialna za usunięcie tlenu z powietrza - gdy go zabraknie, jak pamiętasz z lekcji chemii - zabraknie także ognia.

Tlen jest wypierany specjalnym gazem przechowywanym w butlach pod wielkim ciśnieniem. Zależnie od rodzaju instalacji jest to 40-300 barów! Dla porównania ciśnienie w oponach w Twoim aucie osobowym to ok. 2 bary. Do wyparcia tlenu poniżej poziomu podtrzymującego płomienie dochodzi nawet w ciągu 10 sekund od chwili uruchomienia systemu gaszącego .

Ciekawostka

Obecnie stosowane dyski zapewniają ogromną gęstość zapisu danych. Głowica precyzyjnie porusza się na poduszce powietrznej ponad dyskiem wirującym z 7200 obrotów/min, a na takim dysku znajduje się np. 12-16 TB danych. Trzy tak ogromnej precyzji, przy hałasie rzędu 110-130 dB może dojść do uszkodzenia danych… falą dźwiękową! Dlatego właśnie projektując instalacje bierze się pod uwagę nawet to, jak “głośne” będzie gaszenie ewentualnego pożaru, żeby minimalizować ryzyko utracenia danych.

Ostatnim elementem, którego możesz się nie spodziewać w kontekście centrum danych i hostingu, są instalacje wykrywające… wodór! To znów technologia ze świata okrętów podwodnych - wodór może wydobywać się z ogromnych baterii akumulatorów i taka sytuacja byłaby bardzo niebezpieczna - stąd konieczność stosowania specjalnych systemów detekcji tego gazu.

Tak, promieniowanie kosmiczne może wpłynąć na Wasze dane!

Rozpoczęty we wstępie do tekstu temat promieniowania kosmicznego to najprawdopodobniej najbardziej interesujące ze wszystkich zagadnień, nawet pomimo arcyciekawych metod na zabezpieczenie centrum danych przed tymi “prozaicznymi” zagrożeniami.

Wszystko dlatego, że o niebezpieczeństwie związanym właśnie z promieniowaniem kosmicznym pomyślimy chyba dopiero na samym końcu, a jednak nawet ten czynnik uwzględnia współczesna inżynieria IT. Pomimo tego, że zanim promieniowanie dotrze na Ziemię, jest ono w dużym stopniu redukowane przez atmosferę, to problemy jakie może spowodować, są potencjalnie bardzo poważne.

Chodzi o to, że dane w pamięci RAM są przechowywane w postaci bitów - czyli komórek przechowujących wartość 1 lub 0. Promieniowanie jest jednym z czynników, który może “przestawić” bit pamięci, zamieniając zapisane wartości. Może to przełożyć się na ledwo zauważalne błędy, ale może też poskutkować nieprawidłowymi operacjami w bazach danych czy nawet zawieszeniem się serwera.

Odpowiedzią na takie zagrożenie jest technologia stosowana przez NASA, np. w trakcie misji sond kosmicznych, która przechowuje sumę kontrolną bajtu pamięci, dzięki czemu jest w stanie wykrywać takie błędy w ciągu danych i je poprawiać. W czasie misji Cassini sonda skierowana w stronę Saturna notowała ok. 240 błędów RAM na dobę! Technologia ECC stosowana w pamięciach serwerowych potrafi wykrywać i korygować takie właśnie omyłkowe przestawienia bitów i taką właśnie technologię w swoich serwerach stosuje operator hostingowy cyberfolks.pl - dzięki temu stabilność działania usług jest jeszcze wyższa.

źródło: Wikipedia / NASA

Redundancja w zapisie danych

Najbardziej skutecznym, a jednocześnie niedocenianym przez wiele osób sposobem pozwalającym uniknąć utraty danych, jest po prostu zapisywanie kopii zapasowej na wielu nośnikach, czyli tzw. RAID. W razie awarii, uszkodzony dysk jest podmieniany, a praca serwera pozostaje niezakłócona.

Tego typu technologia w czasie rzeczywistym replikuje wszystkie operacje dyskowe na wielu nośnikach, więc w razie awarii - na drugim dysku od razu jest kopia gotowa do pracy. To świetna ochrona, ale tylko przed uszkodzeniem dysku - ochrona przed omyłkowym skasowaniem lub nadpisaniem pliku wymaga innego podejścia. Tu w sukurs przychodzą zaawansowane systemy wykonywania kopii zapasowych.

Operatorzy hostingu w Polsce różnią się znacznie pod kątem czasu przechowywania kopii, dlatego - jeśli rozważasz umieszczenie swojej strony lub sklepu w firmie hostingowej - koniecznie sprawdź jej politykę w tym zakresie.

W wypadku hostingu WordPress albo hostingu PrestaShop w cyberfolks.pl dane z baz są kopiowana na zapasowe urządzenia nawet co 6 godzin, a przechowywane do 28 dni wstecz!

Możemy spać (korzystać z Internetu) spokojnie - dane są bezpieczne

Wszystkie opisane powyżej metody ochrony danych oraz wiele innych powoduje, że użytkownicy bardzo rzadko lub wcale nie odczuwają usterek, do których dochodzi w centrum danych czy samej infrastrukturze serwerów. W dużej mierze to zasługa redundancji, która znajduje zastosowanie w większości opisanych przypadków. To właśnie ona zapewnia stały i niezaburzony dostęp do danych, bo na każdym etapie i poziomie zabezpieczenia z jej użyciem centrum dysponuje większą liczbą komponentów, niż jest to wymagane do samej pracy danego systemu.

Czytając powyższy artykuł możesz odnieść wrażenie, że zapewnienie takiej infrastruktury wiąże się z ogromnymi kosztami - i masz rację. Dlatego wybierając operatora hostingu warto sprawdzić, co składa się na cenę jego usług. Dwa największe komponenty kosztowe w hostingu to ludzka praca i zapewnienie infrastruktury technicznej. Jeśli zależy Ci na bezpieczeństwie danych i stabilności działania strony, bloga lub sklepu - to hosting strony www lepiej powierzyć firmie solidnie przykładającej się do tego rodzaju zabezpieczeń i systemów zapewniających niezawodność.

--

Wpis powstał przy współpracy z firmą Cyberfolks.pl

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu