NASA kojarzymy ze spektakularnych misji i badań, a okazuje się, że najważniejsza na świecie agencja kosmiczna ma wręcz absurdalny problem. Według niedawno opublikowanego audytu przeprowadzonego przez wewnętrznego audytora NASA, agencja ma problemy z dotrzymaniem kroku... nowym technologiom. I niestety, ale dysponuje zbyt małą mocą obliczeniową dla swoich aspiracji.
Raport, który ujrzał światło dzienne w czwartek, ujawnił, że możliwości pod kątem mocy obliczeniowej z superkomputerów są wykorzystywane w ogromnym stopniu i ich zwyczajnie brakuje, co doprowadza do opóźnień w realizowaniu misji. Szczególnie problematyczne jest to, że superkomputery NASA są zarządzane przez jedną z jej podjednostek, a nie "centralę", co prowadzi m.in. do tego, że nie każdy dział NASA może w równym stopniu z nich korzystać. Dodatkowo brakuje też nadzoru nad superkomputerami — a tam, gdzie go brakuje, pojawiają się wspomniane nierówności.
Dyrektor ds. informatyki w NASA (tam stosuje się skrótowiec: CIO), który sprawuje pewien nadzór nad tymi maszynami, nie jest bezpośrednio zaangażowany w ich zarządzanie, co jeszcze bardziej komplikuje sytuację. W konsekwencji zespoły misji są zmuszone albo do posiłkowania się życzliwością innych ośrodków, albo wręcz zakupu dostępu do superkomputerów na żądanie, gdy jest to potrzebne. Koszty takich usług nie są jednak małe: w audycie wykazano dodatkowo, że to prowadzi wręcz do "przepalania" budżetu — gdyby NASA dysponowała własną, rozległą i lepiej zarządzaną infrastrukturą — nie byłoby z tym problemu.
Ale to nie jedyny problem, który wpływa na powyższy stan rzeczy. Co bardzo dziwne, agencja nie posiada spójnej strategii określającej, kiedy należy korzystać z zasobów superkomputerowych w siedzibie, a kiedy z opcji przetwarzania danych w chmurze. Brak jednoznacznej pewności co do tego, który typ podejścia do działania wybrać to prosta droga do dalszych "ucieczek" pieniędzy z budżetu. Niekorzystnie wpływa to też na wszelkie prowadzone badania — tam, gdzie sporo można byłoby rozjaśnić procedurą, dochodzi do istotnych opóźnień, bo prowadzący badania są zmuszeni wpierw ocenić, którą z dróg przetwarzania informacji wybrać.
Audytor zwrócił uwagę na jeszcze jeden, według mnie szalenie istotny aspekt. Zróżnicowana "flota" superkomputerów wdrożona w NASA nie zapewnia wystarczającego poziomu bezpieczeństwa, a niektóre z tych systemów nie są regularnie monitorowane. To zaś stwarza ryzyko cyberataków, szczególnie biorąc pod uwagę, że dostęp do maszyn mają także i obcokrajowcy współpracujący z agencją. Gdyby korzystano z ujednoliconej infrastruktury, można by było wdrożyć jednakie standardy bezpieczeństwa dostępu do komputerów.
NASA ma problemów bez liku — czy tak powinna działać najważniejsza agencja kosmiczna na świecie?
W protokole audytorzy zwrócili ponadto uwagę na brak nowoczesnych rozwiązań oraz brak przyszłościowego podejścia w budowaniu "superkomputerowego zaplecza". W niektórych ośrodkach ilość procesorów graficznych jest minimalna (łącznie NASA dysponuje jedynie 48 GPU...) w porównaniu do CPU, co utrudnia efektywne wykorzystanie najnowszych możliwości dostępnych na rynku. W raporcie powołano się na różne zjawiska, które doprowadziły do tego stanu rzeczy: problemy i obawy dotyczące łańcucha dostaw, oraz niedobór wykwalifikowanego personelu: to właśnie one miały doprowadzić do niedoborów w zakresie mocy obliczeniowej superkomputerów.
Co raczej nikogo nie dziwi — w audycie zapisano pilną potrzebę działań naprawczych w NASA. Jak tak dalej pójdzie, agencja nie będzie w stanie wyrabiać się z terminami, już teraz "deadline'y" w kontekście niektórych istotnych działań są zagrożone. Problemem jest również to, że NASA nie dysponuje już tak szerokim budżetem, jak kiedyś — w ogóle niektórym słusznie wydaje się, że agencja nieco zwolniła tempo i przestała być absolutnym hegemonem w zakresie badań przestrzeni kosmicznej. Oby ten stan rzeczy prędko się zmienił.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu