Jak zmieni się chmura w przyszłym roku? Jak istotne znaczenie dla jej rozwoju ma generatywna sztuczna inteligencja i uczenie maszynowe? W jaki sposób dostawca usług chmurowych ułatwia życie swoim klientom? Co czeka nas w 2030 roku? Na te i inne pytania odpowiada Mai-Lan Tomsen Bukovec, Vice President of Technology w Amazon Web Services.
Chmura ewoluuje, jej zasięg rozszerza się, jest wdrażana niemal wszędzie, staje się coraz prostsza i bardziej zautomatyzowana. Co pani o tym sądzi i czy uważa pani, że wyciągamy z tego właściwe wnioski?
Mai-Lan: Gartner prognozuje, że do 2026 roku 75% organizacji przyjmie model transformacji cyfrowej oparty na chmurze jako platformie bazowej. Każda firma, która chce pozostać konkurencyjna, musi przejść do chmury, jeśli ma oferować swoim klientom oczekiwane przez nich doświadczenia. Powodem, dla którego wiele z tych firm wybiera AWS jest to, że zawsze stawiamy naszych klientów na pierwszym miejscu. Nie ma „szybkiej ścieżki” pozwalającej na zdobycie doświadczenia, a my już od ponad 17 lat budujemy i obsługujemy duże usługi chmurowe u milionów klientów. Oferowane przez nas obecnie usługi, a jest ich ponad 240, powstały dzięki skumulowanej wiedzy, którą gromadzimy od momentu uruchomienia w 2006 roku pierwszej powszechnie dostępnej usługi, Amazon S3. Wszystkie te rozwiązania działają dzięki innowacyjności AWS. Nieustannie zadziwia mnie kreatywność i pomysłowość tysięcy organizacji korzystających z rozwiązań AWS - czy mówimy o korporacjach, startupach czy instytucjach publicznych.
W firmie Amazon innowacyjność jest elementem naszego DNA. Nie przewiduję, by to się zmieniło, bo jest ona mocno zakorzeniona w naszej kulturze korporacyjnej. Zwykle nasi klienci nie muszą wprowadzać żadnych zmian w swoich aplikacjach, aby skorzystać z licznych, stale dodawanych przez nas ulepszeń. Automatycznie korzystają z innowacyjności AWS i mogą w pełni skupić się na tworzonych aplikacjach.
Przez lata wielu inżynierów oprogramowania uważało rozwiązania AWS za zbyt skomplikowane i złożone, lecz w zeszłym roku CEO Adam Selipsky zadeklarował, że firma skupi się na „upraszczaniu chmury”. Co pani myśli na temat tych zmian?
Mai-Lan: Upraszczanie rozwiązań chmurowych, o którym mówił Adam, faktycznie jest dla nas ważnym celem już od jakiegoś czasu. Podam przykład: w 2018 roku uruchomiliśmy nową klasę pamięci masowej o nazwie Amazon S3 Intelligent Tiering, która automatycznie pobiera niższe opłaty za te dane, z których klient nie korzystał w danym miesiącu. Im dłuższy czas upłynął od ostatniego dostępu do danych, tym więcej klient oszczędza, a zniżki sięgają nawet 95% w porównaniu do cen za codzienny dostęp do danych. Ułatwia to życie klientom, którzy nie wiedzą, czy częstotliwość dostępu do ich danych będzie się zmieniać. Jest to jeden z powodów, dla których klienci wybierają tę klasę pamięci dla data lakes, gdzie schematy dostępu do danych zmieniają się cały czas.
AWS Trainium i AWS Inferentia to nasze customowe chipy zaprojektowane pod kątem zapewnienia najbardziej atrakcyjnej ceny za wydajność, która jest na poziomie odpowiednim do trenowania i wnioskowania w aplikacjach ML/AI. Chipy te mają również wyższą wydajność w przeliczeniu na jeden wat, niż porównywalne instancje zasilane przez GPU, więc są to nasze najbardziej energooszczędne procesory do tego typu obciążeń roboczych.
Oferując specjalnie skonstruowane chipy, takie jak AWS Trainium, nie tylko ułatwiamy wybór tego, jaką instancję wykorzystać do trenowania modeli z setkami miliardów parametrów, lecz również pomagamy skrócić czas potrzebny na trenowanie największych modeli uczenia głębokiego z miesięcy do tygodni, a nawet dni, jednocześnie obniżając koszty. Każdego roku chipy AWS Inferentia pomagają Amazonowi uruchamiać biliony wnioskowań. Dzięki tym chipom firmy takie jak nasza zaoszczędziły do tej pory na wydatkach kapitałowych ponad sto milionów dolarów.
Czym AWS różni się od swoich dwóch głównych konkurentów?
Mai-Lan: Klienci często mówią nam, że korzystają z usług AWS ze względu na naszą zasadę, że klient jest najważniejszy. Planowanie zaczynamy od analizy potrzeb klienta. Ponad 90% naszych planów rozwojowych wywodzi się bezpośrednio z próśb i opinii naszych klientów. Pozostałe 10% to nasze wnioski na temat tego, czego potrzebują klienci wywodzące się z wiedzy o tym, jakie problemy chcą rozwiązać.
Weźmy jako przykład Amazon Redshift, używany przez dziesiątki tysięcy klientów do przetwarzania eksabajtów danych każdego dnia. Klienci powiedzieli nam, że chcą w pełni zarządzanej hurtowni danych w chmurze, działającej w skali petabajtowej - więc uruchomiliśmy ją w 2012 roku. To jest przykład tego, że rozwiązania planujemy w oparciu o analizę potrzeb klienta. Wspomniałam o tym, że 10% naszych planów rozwojowych to wymyślenie czegoś zupełnie nowego na bazie tego, co chce osiągnąć klient. AWS Lambda jest tego doskonałym przykładem. Klienci mówili nam o potrzebie uruchomienia kodu bez provisioningu serwerów czy instancji, więc wynaleźliśmy bezserwerowe systemy obliczeniowe AWS Lambda, które wystartowały w 2014 roku, a obecnie każdego miesiąca korzysta z nich ponad milion aktywnych klientów. „Obsesja na punkcie klienta” jest częścią DNA naszej firmy i jest obecna we wszystkim, co tworzymy.
Jakie usprawnienia i nowe funkcjonalności chmury są dla Ciebie najciekawsze na nadchodzący 2024 rok?
Mai-Lan: Mimo że jest koniec listopada, bieżący rok jeszcze się nie skończył! Do końca roku zainaugurujemy jeszcze niejedną nową funkcjonalność, więc faworyta na nadchodzący rok będę mogła wybrać dopiero w Sylwestra. Mogę jedynie wyjawić, że jednym z najciekawszych rozwiązań jest dla mnie nasz procesor trzeciej generacji, AWS Graviton 3 do EC2. Podoba mi się to, że oferując najlepszy stosunek ceny do wydajności zużywa też do 60% mniej energii przy tej samej wydajności co porównywalne instancje Amazon EC2.
Branża dyskutowała w tym roku w nieskończoność o generatywnym AI… Jakie czynniki uważasz za najbardziej istotne w tym temacie?
Mai-Lan: Obecnie klienci wymyślają fascynujące zastosowania dla generatywnej AI. Byliśmy świadkami kilku niesamowitych przełomów, jeżeli chodzi o zastosowania różnych modeli podstawowych. Te zmiany zachodzą w niewiarygodnie szybkim tempie. Już teraz obserwujemy wdrażanie generatywnej sztucznej inteligencji w codziennej działalności biznesowej naszych klientów. Kiedy rozmawiam z dyrektorami ds. danych (CDO) w różnych firmach, widzę, że są podekscytowani możliwością wykorzystania dotychczasowej infrastruktury danowej AWS (posiadającej już wbudowane mechanizmy kontroli bezpieczeństwa) w połączeniu z naszymi usługami. Pozwala im to korzystać z dużych modeli językowych (LLM) w specyficznym kontekście danej firmy za pomocą technik takich jak dostrajanie (fine-tuning) czy retrieval augmented generation (RAG).
I tu właśnie do akcji wkraczają wektorowe bazy danych. Większość naszych klientów nie chce wstępnie trenować własnego modelu podstawowego. Wolą oni wykorzystać istniejący model podstawowy i „dostroić” go za pomocą znacznie mniejszego, wyspecjalizowanego zestawu danych. Podczas dostrajania istniejącego modelu bazowego można wykorzystać własne dane i osadzić je w bazie wektorowej, dzięki czemu stosowany LLM będzie z nich korzystał zapewniając najlepsze, najbardziej właściwe odpowiedzi na monity użytkownika. To znacznie poprawia trafność odpowiedzi modelu LLM, co ma istotne znaczenie dla doświadczenia użytkownika w przypadku zastosowań generatywnej AI.
W jaki sposób zazwyczaj wdraża się i stosuje generatywną sztuczną inteligencję w dzisiejszym biznesie?
Mai-Lan: Nie brakuje bardzo trafnych zastosowań generatywnej sztucznej inteligencji - można bez trudu przytoczyć dziesiątki, jeśli nie setki świetnych przykładów, jak korzystać z tej nowej technologii w różnych organizacjach. Najczęstsze zastosowania to skuteczniejsze wyszukiwanie informacji, automatyczne generowanie dokumentów, wysoce spersonalizowane doświadczenia, czy zautomatyzowane przetwarzanie danych lub zasobów takich jak obrazy.
Istnieją również ciekawe zastosowania modeli po stronie „back office” firm: asystenci generowania kodu, automatyczne przygotowywanie danych itp. Firmy na całym świecie widzą, że generatywna sztuczna inteligencja skutecznie wspomaga automatyzację i zwiększa produktywność. Amazon CodeWhisperer jest w tym szczególnie dobry. Jego sztuczna inteligencja proponuje rekomendacje kodu dla programistów, co pozwala szybko budować aplikacje, a także odfiltrowuje fragmenty kodu, które mogą być uważane za stronnicze lub niesprawiedliwe, oznacza proponowany kod mogący przypominać określone dane szkoleniowe typu open source, skanuje pod kątem trudnych do wykrycia luk w zabezpieczeniach i sugeruje kod mogący te luki naprawić.
W naszej firmie przeprowadziliśmy konkurs na produktywność, w którym okazało się, że w przypadku osób korzystających z Amazon CodeWhisperer szansa pomyślnego wykonania zadania zwiększyła się o 27%, zaś szybkość - średnio o 57% w porównaniu z osobami, które z niego nie korzystały. Nasi klienci i partnerzy uzyskali podobne rezultaty. Jak widać, w wielu takich zastosowaniach back office nadal niezbędny jest udział człowieka – to pracownik biurowy (agent obsługi klienta, analityk danych, programista itp.) analizuje odpowiedź uzyskaną z modelu podstawowego, a następnie decyduje, jak ją wykorzystać. Natomiast sam fakt wygenerowania odpowiedzi, który jest istotą działania generatywnej sztucznej inteligencji, stanowi ogromną pomoc i pozwoli zwiększyć szybkość i wydajność pracowników w wielu organizacjach.
Jakie jest stanowisko firmy AWS jeśli chodzi o zabezpieczenia niezbędne dla ochrony kluczowych danych korporacyjnych?
Mai-Lan: Od wielu lat budujemy usługi chmurowe dla przedsiębiorstw i dokładnie takie samo podejście, w którym bezpieczeństwo jest na pierwszym miejscu, stosujemy do generatywnej AI. Podczas dostosowywania Amazon CodeWhisperer i Amazon Bedrock tak, aby generowały trafne, właściwe dla danej firmy wyniki, dane i bazy klientów są całkowicie prywatne i nie są używane do trenowania modeli podstawowych, co pozwala chronić cenną własność intelektualną klienta. Klienci po prostu pokazują Bedrockowi kilka odpowiednio oznakowanych przykładów w Amazon S3, a usługa jest w stanie dostroić model do konkretnego zadania bez konieczności analizy dużych ilości danych, co byłoby bardzo czasochłonne. Żadne dane klienta nie są wykorzystywane do szkolenia modeli podstawowych. Wszystkie dane są szyfrowane, a klienci mogą skonfigurować ustawienia wirtualnej chmury prywatnej (VPC) tak, aby uzyskać dostęp do interfejsów API Amazon Bedrock i bezpiecznie dostarczać dane dostrajające model. Tak było już na etapie wersji beta. Bezpieczeństwo jest wbudowane w nasze usługi od samego początku.
I dla nas, i dla naszych klientów bezpieczeństwo jest najważniejsze. Z takim właśnie nastawieniem podchodzimy do generatywnej sztucznej inteligencji. Umożliwiamy stosowanie narzędzi AI AWS do danych, których firmy nie chcą „wypuszczać z rąk”.
Czy rozwiązania natywne dla chmury stały się już standardem i czy wszyscy developerzy muszą teraz tworzyć oprogramowanie chmurowe?
Mai-Lan: W przypadku większości współczesnych firm pytanie nie brzmi już „czy”, lecz „jak szybko” można przejść do chmury. Opublikowany niedawno raport IDC wykazał, że klienci, którzy migrują do AWS są w stanie osiągnąć redukcję kosztów operacyjnych nawet o 51%, o 62% wzrost wydajności personelu IT i o 94% redukcję przestojów. Korzyści z rozwiązań chmurowych są bezsporne. Aby pomóc klientom w jak najszybszym przeniesieniu się do chmury, umożliwiamy uruchomienie ich aplikacji w AWS bez wprowadzania żadnych zmian („as-is”). Mam na myśli to, że nasze usługi w wielu przypadkach pozwalają na łatwe przeniesienie tego, co klient stosuje lokalnie do analogicznego środowiska w AWS bez konieczności zmiany kodu.
Podam przykład z obszaru przechowywania plików: klienci mogą zdecydować się na budowanie natywnych aplikacji w chmurze za pomocą usług takich jak Elastic File Services (EFS), lub mogą dokonać migracji swoich wysokowydajnych aplikacji Lustr (które obecnie działają w lokalnych centrach danych) za pomocą FSx for Lustr. Chcemy ułatwiać naszym klientom życie.
Jak będzie wyglądać chmura w roku 2030?
Mai-Lan: Będzie obecna w każdej naszej działalności. Przetwarzanie w chmurze będzie fundamentem wszystkiego: od inteligentnych miast, przez infrastrukturę bankową, po usługi rządowe i nowe doświadczenia w społeczeństwie. Te zmiany już zachodzą, a wraz z wprowadzeniem potężnych nowych technologii, takich jak generatywna sztuczna inteligencja, które pozwalają na stosowanie narzędzi przetwarzania języka naturalnego (NLP) podczas obsługi rozwiązań technologicznych, proces ten jeszcze bardziej przyspieszy.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu