Niemal każdy użytkownik Facebooka co najmniej raz dziennie odwiedza portal społecznościowy. Przegląda ostatnie aktywności znajomych i aktualizacje n...
Niemal każdy użytkownik Facebooka co najmniej raz dziennie odwiedza portal społecznościowy. Przegląda ostatnie aktywności znajomych i aktualizacje na śledzonych przez niego stronach, Wymienia wiadomości, dodaje zdjęcia. Takich osób jest już około miliarda - nie ciekawiło więc Was nigdy jak wygląda to wszystko z "drugiej strony"? Jak to możliwe, że strona z czołówki najczęściej odwiedzanych witryn jest w stanie przetrwać to "oblężenie"?
Jedno z kilku data center Faceboka znajduje się w Forest City, w Północnej Karolinie - jak chwali się sam Facebook jest ono jednym z najnowocześniejszych i najbardziej energooszczędnych na całym świecie. Cały kompleks zajmuje obszar 355 tysięcy stóp kwadratowych (około 33 tysięcy metrów kwadratowych), a powierzchnia każdego z budynków odpowiada powierzchni trzech boisk do futbolu amerykańskiego - powstanie pierwszego z nich zaabsorbowało aż 1500 pracowników.
Za każdym razem gdy odwiedzamy Facebooka, jedna z takich placówek musi przetworzyć dziesiątki tysięcy informacji, a wydajność i niezawodność (do pewnego stopnia) całego systemu jest efektem wykorzystania własnych rozwiązań (budowa serwerów) i minimalizacji ilości potrzebnych komponentów użytych do ich powstania.
Jeżeli którykolwiek z elementów zawiedzie, na przykład dysk twardy, wysyłany jest monit informacyjny, gdzie dokładnie doszło do awarii. Wymiana dysku twardego przez odpowiednią osobę zajmuje maksymalnie 5 minut(!). System jest efektywny do tego stopnia, że jeden technik może sprawować pieczę nad ponad 15 tysiącami serwerów, a każda usterka jest naprawiana w ciągu kilku minut.
Jednak najważniejszą kwestią jest system chłodzenia - Facebook zastosował zupełnie inne od konkurencji rozwiązanie i do obniżenia temperatury wewnątrz budynku wykorzystywane jest powietrze z zewnątrz. Jest ono filtrowane i łączone z wodą, aż osiągnie odpowiedni poziom wilgotności i temperatury. Mieszanka jest później rozpylana po większości pomieszczeń, co zapobiega przegrzaniu się serwerów.
Co ważne Facebook nie zatrzymał swoich rozwiązań tylko dla siebie - uczestniczy on w wynalezionym przez siebie projekcie Open Compute Project, który ma na celu promowanie innowacji przy tworzeniu tego typu kompleksów. Udostępnianie są informacji w jaki sposób Facebook projektuje, rozwija i produkuje wszystkie elementy niezbędne do powstania data center.
Zachęcam także do zapoznania się z filmem, w którym dowiedziecie się i zobaczycie jeszcze więcej.
Czy to wszystko nie robi wrażenia?
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu