Microsoft

Microsoft stawia na AI. Sztuczna inteligencja trafi do każdego produktu

Kamil Pieczonka
Microsoft stawia na AI. Sztuczna inteligencja trafi do każdego produktu
0

Wraz z końcem 2023 roku niemal każda branża związana z nowymi technologiami przechodzi przemianę odkrywając zupełnie nowe sposoby pracy, dzięki postępom w dziedzinie sztucznej inteligencji. Microsoft zamierza ten potencjał wykorzystać do wprowadzenia całkiem nowych usług do swojej oferty.

Microsoft Ignite - konferencja na temat AI

Microsoft w ramach konferencji Ignite, która skupia się na rozwoju technologii sztucznej inteligencji. Po sukcesie ChatGPT od OpenAI, Microsoft całkiem szybko wprowadził kolejne usługi bazujące na sztucznej inteligencji do swoich produktów w postaci między innymi Copilota dla pakietu Office 365. Ocena użytkowników jest raczej jednoznaczna, według badań 70 proc. osób korzystających Copilota wskazało, że są bardziej produktywni, zaś 68 proc. stwierdziło, że poprawiła się jakość ich pracy; 68 proc. przyznało, że ich kreatywność została pobudzona. Użytkownicy byli o 29 proc. szybsi w określonych zadaniach (wyszukiwanie, pisanie i podsumowanie), 64 proc. użytkowników uważa, że Copilot pomaga im spędzać mniej czasu na obsłudze wiadomości e-mail, a 87 proc. z nich jest zdania, że usługa ta ułatwia rozpoczęcie pracy nad wersją roboczą. I co chyba najważniejsze, 77 proc. pracowników zadeklarowało, że po skorzystaniu z Copilota nie chce już z niego rezygnować.

Dlatego Microsoft kuje żelazo póki jest gorące i zapowiada dzisiaj około 100 nowości, które dotyczą wielu warstw strategii rozwoju sztucznej inteligencji – od wdrożenia, przez produktywność, po bezpieczeństwo. Ponadto firma zaprezentowała też swoje pierwsze procesory, które mają wspomagać procesy związane z wykorzystaniem sztucznej inteligencji jeszcze lepiej niż układy GPU, które robią to obecnie.

Nowe spojrzenie na infrastrukturę chmury

W miarę dalszego rozwoju sztucznej inteligencji Microsoft ponownie analizuje infrastrukturę chmury, by zagwarantować optymalizację w każdej warstwie sprzętu i oprogramowania. Podczas Ignite ogłoszono nowości w całym ekosystemie centrów danych. Przykłady nowych usług to Microsoft Azure Maia, czyli akcelerator AI zaprojektowany do obsługi treningów w chmurze i inferencji sztucznej inteligencji w OpenAI, Bing, GitHub Copilot i ChatGPT. Microsoft Azure Cobalt to natywny dla chmury układ oparty o architekturę Arm, zoptymalizowany pod kątem wydajności, energooszczędności i opłacalności dla obciążeń roboczych ogólnego przeznaczenia.

Do platformy Azure dodane zostaną maszyny wirtualne (VM) z akceleracją AMD MI300X. Wirtualne maszyny ND MI300 zostały zaprojektowane w celu przyspieszenia przetwarzania obciążeń sztucznej inteligencji na potrzeby szkolenia modeli sztucznej inteligencji wysokiego zasięgu i wnioskowania generatywnej AI i będą wyposażone w najnowszy procesor graficzny AMD – AMD Instinct MI300X. W niedalekiej przyszłości pojawią się też wirtualne maszyny NC H100 v5 stworzone z myślą o procesorach graficznych NVIDIA H100 Tensor Core, oferujących wyższą wydajność, niezawodność i sprawność dla średniej klasy szkoleń AI i wnioskowania generatywnej AI. Microsoft ogłosił również plany dotyczące serii maszyn wirtualnych ND H200 v5 zoptymalizowanych pod kątem sztucznej inteligencji VM z nadchodzącym procesorem graficznym NVIDIA H200 Tensor Core.

Rozszerzenie środowiska Microsoft Copilot

Przez ostatni rok Microsoft kontynuował rozwój swojej wizji Copilota – zestawu narzędzi, który pomaga ludziom osiągać więcej dzięki sztucznej inteligencji. Copilot dla Microsoft 365 stał się w tym miesiącu ogólnie dostępny dla przedsiębiorstw. Nowy pulpit nawigacyjny Microsoft Copilot Dashboard pokazuje klientom, w jaki sposób narzędzie te wpływa na ich organizację, a także przedstawia spostrzeżenia, takie jak te, które można znaleźć w Work Trend Index. Wprowadzone są nowe możliwości personalizacji, które pomagają Copilotowi oferować odpowiedzi dostosowane do unikalnych preferencji i roli użytkownika.

W celu usprawnienia pracy zespołowej nowe funkcje aplikacji Copilot w programie Outlook ułatwiają przygotowywanie się do spotkań, a podczas ich trwania nowe funkcje tworzenia tablic i notatek w aplikacji Copilot dla Microsoft Teams sprawiają, że wszyscy są na bieżąco. Ponadto klienci, którzy tego potrzebują, mogą teraz korzystać z Copilota podczas spotkania bez konieczności zatrzymywania transkrypcji. Copilot Studio współpracuje ze złączami, wtyczkami i GPT, umożliwiając działom IT wskazywanie Copilotowi najlepszych źródeł danych dla określonych zapytań.

Źródło: MicrosoftMicrosoft Copilot dla Azure to sztuczna inteligencja, która upraszcza codzienną administrację IT. To ujednolicony czat, który rozumie rolę i cele użytkownika oraz zwiększa możliwości projektowania, obsługi i rozwiązywania problemów z aplikacjami i infrastrukturą. Copilot dla Azure pomaga działom IT uzyskać lepszy wgląd w obciążenia, odblokować niewykorzystane funkcje platformy Azure i zaaranżować zadania zarówno w chmurze, jak i na brzegu sieci. Działania Microsoftu mają na celu uproszczenie doświadczenia użytkownika i uczynienie Copilota bardziej dostępnym dla każdego zaczynają się od Bing, dającego wiodące doświadczenia w sieci. Bing Chat i Bing Chat Enterprise stają się teraz po prostu Copilotem. Dzięki tym zmianom, klienci zalogowani przy użyciu Microsoft Entra ID korzystający z Copilot w Bing, Edge i Windows będą mieli zapewnioną komercyjną ochronę danych.

Uwolnienie większej wartości dla deweloperów dzięki Azure AI

Microsoft wciąż poszerza asortyment generatywnych modeli sztucznej inteligencji, aby zaoferować deweloperom najbardziej wszechstronny wybór. Dzięki Model-as-a-Service, nowej usłudze w katalogu modeli, którą ogłoszono podczas konferencji Build, deweloperzy będą mogli łatwo zintegrować najnowsze modele sztucznej inteligencji, takie jak Llama 2 od Meta i nadchodzące modele premium od Mistral i Jais od G42, jako punkty końcowe API w swoich aplikacjach. Mogą również dostosowywać te modele do własnych danych bez konieczności martwienia się o konfigurację i zarządzanie infrastrukturą GPU, co pomaga wyeliminować złożoność udostępniania zasobów i zarządzania hostingiem.

Nowy model GPT-3.5 Turbo z długością promptu wynoszącą 16 tys. tokenów będzie ogólnodostępny, a model GPT-4 Turbo będzie w publicznej wersji zapoznawczej w usłudze Azure OpenAI Service pod koniec listopada br. GPT-4 Turbo umożliwi klientom wydłużenie długości promptów i zapewni jeszcze większą kontrolę i wydajność w aplikacjach generatywnej sztucznej inteligencji. GPT-4 Turbo with Vision wkrótce pojawi się w wersji zapoznawczej, a DALLE-3 już teraz jest dostępny w publicznej wersji zapoznawczej w usłudze Azure Open AI Service. Usługi te, wraz z GPT-4 napędzają nową generację rozwiązań dla przedsiębiorstw, dzięki czemu mogą korzystać z zaawansowanych funkcji przy użyciu obrazów. A w połączeniu z naszą usługą Azure AI Vision, GPT-4 Turbo with Vision analizuje wideo z myślą o generowaniu wyników tekstowych, zwiększając ludzką kreatywność.

Więcej na temat nowości związanych ze sztuczną inteligencją w usługach Microsoftu możecie przeczytać na dedykowanym blogu.

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu