Internet

Protokół HTTP to ślepa uliczka. IPFS oprze sieć na modelu peer-to-peer

Tomasz Popielarczyk
Protokół HTTP to ślepa uliczka. IPFS oprze sieć na modelu peer-to-peer
145

Liczba urządzeń podłączonych do internetu regularnie rośnie. Według niektórych źródeł do 2020 roku ich liczba ma sięgnąć 50 mld. Przybywa low-endowych smartfonów, które coraz lepiej sprzedają się w regionach słabo rozwiniętych. Poza nimi prym wiedzie Internet of Things, a więc trend podłączania do s...

Liczba urządzeń podłączonych do internetu regularnie rośnie. Według niektórych źródeł do 2020 roku ich liczba ma sięgnąć 50 mld. Przybywa low-endowych smartfonów, które coraz lepiej sprzedają się w regionach słabo rozwiniętych. Poza nimi prym wiedzie Internet of Things, a więc trend podłączania do sieci niemal każdego otaczającego nas sprzętu RTV, AGD i nie tylko. Czy współczesna struktura sieci jest gotowa na ten boom?

Protokół HTTP (Hypertext Transfer Protocol) leży u podstaw współczesnego internetu. Mimo niewątpliwych zalet ma on pewne ograniczenia - szczególnie w obecnych realiach, gdzie liczba urządzeń wzrasta, przeprowadzenie ataku DDOS nie stanowi problemu, a powierzchnie serwerowni rosną w zatrważającym tempie.

HTTP działa w prosty sposób. Kiedy wchodzimy na stronę www nasz komputer łączy się z urządzeniami, które ją dostarczają. Dzieje się tak  nawet mimo, że serwery ulokowano na drugim końcu świata i wymiana danych z nimi wiąże się z utratą przepustowości. Mało tego, w sytuacjach, gdy strona lub plik są powolnie ładowane, jednym z winowajców jest najprawdopodobniej problem z ogniwem w łańcuchu HTTP. Dane są bowiem pobierane z jednego, centralnego punktu. Idzie za tym szereg innych działań, jak blokowanie dostępu do pewnych treści w wybranych regionach (w Europie - pirackich, w krajach niedemokratycznych - szkodzących władzy), a także coraz śmielsze plany cenzurowania internetu. Obecna struktura internetu sprzyja centralizacji, zatem nie jest to wyłącznie problem natury technicznej.

Lekarstwem na tę dolegliwość miałoby być przejście na nowy rodzaj protokołu - IPFS (InterPlanetary File System). Jest to komunikacja między urządzeniami w systemie peer-to-peer, która zakłada, że każde urządzenie podłączone do sieci jako odbiorca może również być nadawcą. W ten sposób otrzymujemy rozproszony system plików, z którego czerpać może każdy użytkownik. Rozwiązanie to naprawia niedociągnięcia HTTPS na kilku płaszczyznach.

Pierwszą jest ulotność treści w internecie. W obecnych realiach strony hostowane na serwerach mogą zniknąć z nich w momencie, gdy twórca przestanie opłacać hosting. W ten sposób ginie masa wartościowych publikacji i artykułów. Na problem ten uwagę swego czasu zwracał Brewster Kahle, kierujący biblioteką Internet Archive. IPFS byłby w stanie wyciągnąć treść z pierwotnego miejsca, którym jest serwerownia, przekazując je do innych urządzeń. W ten sposób dane potrzebne do odczytania danej witryny mogą pochodzić np. ze stojącego dwa pokoje dalej komputera. Nowy protokół jest ukierunkowany na treść, a nie hiperłącze, jak to było do tej pory. Przeglądanie zasobów sieci przypominałoby zatem buszowanie po zasobach BitTorrenta, gdzie URL-e są jedynie magnesami (magnet link) przyciągającymi konkretne treści. IPFS wspiera również wersjonowanie, co daje dostęp do starszych wersji stron www i materiałów archiwalnych. Problemem, jaki ja tutaj widzę, jest dynamicznie zmieniająca się zawartość, której stale przybywa. Internet zmienia się w sposób coraz bardziej dynamiczny i jeszcze nie rozgryzłem, jak nowy protokół dostosowałby się do tej dynamiki.

Drugą kwestią jest wydajność. IPFS zakłada, że dane nie będą pobierane wiele razy z jednego miejsca. To szczególnie ważne, jeśli spojrzymy na rosnącą popularność treści multimedialnych. Wideo w sieci generuje coraz większe ilości danych, a to przekłada się na potrzebę utrzymywania ogromnych serwerowni. Na tego typu działania mogą sobie pozwolić jedynie najwięksi - za hosting danych odpowiadają w dzisiejszym świecie giganci, jak Google czy Amazon. Jeżeli jednak przyjmiemy model, w którym dane wędrują pomiędzy wszystkimi węzłami i są uniezależnione od centralnego punktu, koszty utrzymania takiej infrastruktury diametralnie maleją.

IPFS tym sposobem staje się również odporny na ataki typu DDOS. A skoro już o bezpieczeństwie mowa, zawartość przechowywana przez poszczególne węzły miałaby być cyfrowo podpisywana, co gwarantowałoby jej zgodność z oryginałem. Niemniej kwestie bezpieczeństwa są o wiele bardziej zawiłe, biorąc pod uwagę jak ogromną ilość newralgicznych danych przesyłamy dziś przez nasze komputery. Wraz z wprowadzeniem IPFS dotychczasowe mechanizmy szyfrowania mogłyby okazać się niedostatecznym zabezpieczeniem dla nich. Oczywiście trzeba tutaj też zaznaczyć, że IPFS nie wymusza na klientach hostowania treści.

Nowy protokół to póki co wielka niewiadoma. Aktualnie wdrożono go w zaledwie kilku miejscach. Jednym z nich jest darmowy serwis z hostingiem Neocities, który nie mógł sobie poradzić z ogromem porzuconych stron www sprzed lat. Implementacja IPFS odbywa się jednak tutaj za pośrednictwem bramek HTTP, bo aktualnie żadna przeglądarka internetowa nie potrafi samodzielnie korzystać z tego protokołu. A to nie jedyny problem. Weźmy jeszcze pod uwagę, ze wielkie koncerny na ogół kojarzą model "peer-to-peer" wyłącznie z łamaniem praw autorskich i boją się go jak ognia. Nie sprzyja to szerszemu wdrożeniu, a już w szczególności przebudowaniu sieci pod kątem funkcjonowania właśnie w taki, zdecentralizowany sposób. Nie przesadzę chyba, pisząc, że w interesie wielkich mocarstw oraz korporacji jest coraz silniejsza centralizacja sieci. Po drugiej stronie barykady jednak mogliby się znaleźć operatorzy oraz dostawcy hostingu, dla których IPFS wiązałoby się ze znacznie mniejszymi kosztami utrzymania infrastruktury. Swoje pierwsze próby w kierunku dostarczania danych w modelu peer-to-peer poczynił już Netflix, któremu bardzo zależy na zredukowaniu kosztów transferu. Być może jest to pewne światełko w tunelu.

IPFS to obecnie dość utopijna wizja internetu szybszego, zdecentralizowanego, pozbawionego kontroli i cenzury, z którego treści nie znikają, a dostęp nie wiąże się z tak dużymi kosztami jak obecnie. Czy jednak realna? Czy korzyści płynące z przebudowany sieci na nowy model są na tyle wymierne, by przyćmić związane z tą nieograniczoną niemal swobodą problemy? Pytań jest ciągle wiele. Nie ulega jednak wątpliwości, że koszt przesyłania danych przez internet stale rośnie, a to prędzej czy później będzie wymagało podjęcia pewnych działań.

źródła: [1], [2]

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Więcej na tematy:

InternetŚwiatsieć