Czy złote czasy w branży IT przeminęły? Jaki wpływ na świat technologii ma obecnie AI? Jak powinny się przygotować na sztuczną inteligencję firmy, a jak pracownicy? Czy nie ma już miejsca na rynku pracy dla juniorów? Na te i na wiele innych tematów rozmawiamy z Piotrem Mechlinskim, Head of AI & Data w Inetum.
Antyweb: Byliśmy (jesteśmy?) świadkami fali zwolnień w branży IT. Zresztą nie tylko, bo obrywa też gamedev. Oficjalnie żadna z firm nie podawała AI jako powodu redukcji zatrudnienia, co w sumie nie dziwi, bo byłoby to wizerunkowym strzałem w kolano. Tłumaczy się to głównie kwestiami finansowymi. Ale czy rzeczywiście sztuczna inteligencja może mieć z tymi masowymi zwolnieniami coś wspólnego?
Piotr Mechlinski: Polska branża IT doświadcza niewielkiego spowolnienia, jednak nie mówiłbym o fali zwolnień jak w krajach zachodnich, gdzie firmy typu Alphabet czy Microsoft, przeprowadziły drastyczne redukcje zatrudnienia. I to raczej z potrzeb wizerunkowych… dla akcjonariuszy, a nie z powodu rzeczywistych problemów. W Polsce zwolnienia dotknęły głównie mniejszych firm oraz wybranych większych graczy, lecz zapotrzebowanie na wykwalifikowanych specjalistów wciąż istnieje. Prognozy dla Polski i Unii Europejskiej są pozytywne – przewiduje się niskie bezrobocie na poziomie 3,0% w Polsce i około 6% w UE. Sztuczna inteligencja nie jest jeszcze istotnym powodem zmian w strukturze zatrudnienia, choć już obserwujemy pierwsze trendy. Najnowszy raport Polskiego Instytutu Ekonomicznego wskazuje, że około 3,68 mln Polaków pracuje w zawodach szczególnie narażonych na automatyzację przez AI. Dotyczy to głównie stanowisk o wyższych kwalifikacjach, takich jak prawnicy, finansiści, czy właśnie programiści. Ale mamy jeszcze rok czy dwa na przygotowania.
Jak powinny wyglądać takie przygotowania? Mam tutaj na myśli zarówno firmy (kadrę zarządzającą?), jak i zwykłych pracowników pełniących te narażone na automatyzację przez AI funkcje.
PM: Pierwszy z aspektów to świadomość możliwości jakie daje już dzisiaj sztuczna inteligencja. Spotykam się często z zaklinaniem rzeczywistości zarówno przez profesorów akademickich, czy specjalistów IT, twierdzących, że to AI nigdy nie zastąpi człowieka. Również nasze firmy nie należą do światowej czołówki… Według najnowszego raportu Polskiego Instytutu Ekonomicznego tylko 3,7 proc. przedsiębiorstw w Polsce deklaruje wykorzystanie sztucznej inteligencji, co plasuje nasz kraj na trzecim miejscu od końca w UE.
Firmy powinny zidentyfikować procesy, które mogą być zautomatyzowane, oraz inwestować w szkolenia i rozwój pracowników, by dostosować ich umiejętności do nowych realiów. Dzięki temu możliwe będzie przeprojektowanie stanowisk pracy oraz ścieżek kariery w sposób wspierający współpracę ludzi i technologii oraz tworzenie strategii, które zapewnią równowagę między automatyzacją a zatrudnieniem. Obecne różnice w opodatkowaniu pracy i przedsiębiorstw mogą sprzyjać nadmiernej automatyzacji kosztem zatrudnienia ludzi, co zwiększa ryzyko nierówności społecznych. Wyższe stawki CIT mogłyby pomóc zrównoważyć te skutki, jednocześnie finansując edukację i przekwalifikowanie, kluczowe dla przygotowania pracowników na zmiany wywołane przez AI.
A pracownicy… no cóż jak zawsze przy zmianach technologicznych, mogą albo strajkować jak górnicy czy scenarzyści, albo zaakceptować nowy świat, w którym trzeba będzie nauczyć się innych umiejętności.
Jak wykorzystanie sztucznej inteligencji w dużych firmach technologicznych wpłynie na rynek pracy? W zasadzie czy aby już nie wpływa? W końcu nie jest to przyszłość, a raczej teraźniejszość.
PM: Duże firmy technologiczne, takie jak Microsoft, Google i OpenAI, aktywnie rozwijają agentów AI, czyli cyfrowych pracowników, którzy mogą fundamentalnie zmienić sposób pracy w wielu zawodach. Te cyfrowe narzędzia wspierają ludzi, automatyzują zadania i wspomagają podejmowanie decyzji, co umożliwia oszczędność czasu oraz zwiększenie wydajności w takich obszarach, jak programowanie, analiza danych i obsługa klienta.
Włączenie agentów AI do ekosystemu pracy zdefiniuje na nowo podział zadań i ról. Pracownicy mogą bardziej koncentrować się na działaniach kreatywnych i analitycznych, podczas gdy cyfrowi pracownicy wykonują rutynowe procesy. To przesunięcie zwiększa znaczenie kompetencji cyfrowych i umiejętności zarządzania technologią AI, co może zmniejszać zapotrzebowanie na tradycyjne stanowiska. Przyczynia się jednocześnie do powstawania nowych ról, które łączą wiedzę specjalistyczną z umiejętnościami pracy z AI. Jak pokazują na przykład raporty PwC, w sektorach o wysokim nasyceniu AI obserwuje się szybki wzrost wydajności, a możliwość współdziałania z cyfrowymi pracownikami tworzy nowe zawody. Najprostsze przykłady nowych ról to Strateg Biznesowy AI (AI Business Strategist) czy Specjalista ds. Bezpieczeństwa AI (AI Security Specialist). Warto zauważyć, że zapotrzebowanie na specjalistów AI rośnie – liczba ofert pracy wymagających umiejętności związanych z AI wzrosła 3,5 razy szybciej niż ogólna liczba ofert pracy w ciągu ostatnich kilku lat, a stanowiska te często wiążą się z premią płacową, wynoszącą nawet do 25%.
Mówi się, że AI swoimi kompetencjami może w dużej mierze zastąpić pracę juniora. Czy to prawda?
PM: AI rzeczywiście przejmuje niektóre aspekty pracy juniorskiej, zwłaszcza zadania powtarzalne, analizy danych i działania oparte na wyraźnych schematach. Narzędzia AI, takie jak generatywne modele i automatyczne analizatory danych, potrafią szybko wykonywać proste zadania administracyjne, generować raporty, a nawet asystować w kodowaniu. To oznacza, że stanowiska juniorskie, które bazują na tego typu czynnościach, mogą ulec redukcji w przyszłości.
Jednak wartość juniorów leży nie tylko w wykonywaniu podstawowych zadań, ale także w ich świeżym spojrzeniu, potencjale rozwojowym i umiejętności zadawania kluczowych pytań. To cechy, których AI, nawet najnowocześniejsze modele, jeszcze nie zastąpi. Juniorzy są niezbędni dla innowacji i rozwoju w zespołach, ponieważ dostarczają perspektyw, które nie są ograniczone utartymi schematami. To jak różnica między automatycznym tłumaczem a lingwistą — maszyna przetłumaczy słowa, ale nie zrozumie kontekstu kulturowego czy subtelnych niuansów, które stanowią o jakości komunikacji.
Na ten moment AI nie zastąpi wszystkich stanowisk juniorskich, ale na pewno wiele z nich będzie stopniowo ograniczanych. Zwłaszcza tych, które nie wymagają kreatywności ani krytycznego myślenia. Dlatego firmy powinny inwestować w rozwój umiejętności, które trudno jest automatyzować, np. zdolności analityczne, komunikacyjne i strategiczne, aby wspierać juniorów w ewolucji ich ról.
Skoro tak się dzieje, to dostrzegam tutaj pewne błędne koło. Firmy nie chcą zatrudniać juniorów, bo ich pracę wykona AI. Natomiast bez juniorów nie ma seniorów - a ci są ciągle bardzo łakomym kąskiem na rynku pracy.
PM: Zamiast szerokiego zatrudniania na stanowiska juniorskie, firmy będą koncentrować się na pozyskiwaniu osób o wyraźnym potencjale rozwojowym – kandydatów, którzy potrafią szybko przyswajać nowe umiejętności i sprawnie adaptować się do dynamicznych zmian technologicznych. Juniorzy, którzy przyciągną uwagę pracodawców, będą wykazywać się umiejętnościami trudno zastępowalnymi przez AI, takimi jak krytyczne myślenie, zdolność do współpracy i analizy.
W praktyce będzie to oznaczać zatrudnianie juniorów, którzy mogą szybko awansować na stanowiska seniorskie, co jest kluczowe w czasach, gdy wiele rutynowych zadań zostaje zautomatyzowanych. Zamiast klasycznych obowiązków, stanowiska juniorskie będą koncentrować się na rozwijaniu kompetencji przyszłości – umiejętności analitycznych i adaptacyjnych. Firmy będą preferować kandydatów, którzy wyróżniają się innowacyjnym myśleniem i umiejętnością pracy w nowoczesnym, technologicznym środowisku.
Generatywna sztuczna inteligencja w zasadzie jest młodą technologią, a szczyt jej możliwości jest nam ciągle nieznany. Patrząc na tempo, w jakim się rozwija, można dojść do wniosku, że za chwilę będzie mogła wykonywać pracę umysłową właściwie na każdym stanowisku. Czy zatem jest czego się bać?
PM: Obawy związane z potencjałem sztucznej inteligencji są zrozumiałe, ponieważ AI rozwija się w niezwykle szybkim tempie, a jej pełne możliwości pozostają wciąż trudne do określenia. W moim przekonaniu w ciągu kilku lat AI będzie w stanie zastąpić praktycznie wszystkie “białe kołnierzyki”, nawet w obszarach wymagających kreatywności lub zniuansowanej wiedzy specjalistycznej.
Jednocześnie, przewidzenie pełnej kaskady zmian, jakie AI przyniesie na rynek pracy, pozostaje wyzwaniem, ponieważ wpływy tej technologii sięgają głębiej niż same obowiązki zawodowe. Transformacja ta będzie mieć konsekwencje ogólnospołeczne, wykraczające poza organizacyjne strategie zatrudniania, a brakuje obecnie szerokiej debaty na szczeblu rządowym na temat regulacji i wsparcia dla społeczeństwa w adaptacji do nowego rynku pracy. Taka dyskusja jest kluczowa, ponieważ wpływ AI dotknie całych pokoleń pracowników i przemodeluje zasady zatrudnienia oraz ścieżki rozwoju, od edukacji po polityki bezpieczeństwa socjalnego.
Dzisiaj dość trudno też przewidzieć nowe zawody, na przykład Prompt Engineer został zastąpiony AI zanim zdążyliśmy się przyzwyczaić do tego nowego zawodu.
Jakie jeszcze zagrożenia niesie za sobą rozwój AI?
PM: Modele AI, mimo ogromnego potencjału, wciąż posiadają ograniczenia, które mogą prowadzić do poważnych problemów. Jednym z wyzwań są tzw. halucynacje – sytuacje, w których model generuje odpowiedzi lub informacje, które są całkowicie niezgodne z rzeczywistością, choć brzmią wiarygodnie. Takie halucynacje mogą być niebezpieczne, szczególnie w obszarach takich jak medycyna czy prawo, gdzie błędne informacje mogą prowadzić do poważnych konsekwencji. To pokazuje, że AI potrzebuje dodatkowych mechanizmów kontroli i weryfikacji, aby minimalizować ryzyko związane z generowaniem fałszywych odpowiedzi.
Jednym z takich mechanizmów jest „cyfrowego sumienia” – to obszar, którym zajmuję się bardzo intensywnie. Chodzi o zintegrowany system wartości i etyki, który powinien kierować decyzjami AI i ograniczać ryzyko błędnych lub nieetycznych działań. Cyfrowe sumienie to rodzaj wbudowanych barier, które pozwoliłyby AI operować w zgodzie z wartościami etycznymi i społecznymi.
AI może być używana do tworzenia deepfake’ów, które z wysoką precyzją imitują wideo, obrazy i głosy osób, co może prowadzić do dezinformacji i manipulacji opinią publiczną. Tego rodzaju technologie są wykorzystywane do szerzenia fałszywych informacji na masową skalę, co stanowi realne zagrożenie dla stabilności społecznej i politycznej.
Z kolei w zakresie cyberbezpieczeństwa, złośliwi aktorzy mogą automatyzować ataki phishingowe czy hakować systemy na dużą skalę, co zwiększa ryzyko wycieków danych i zagraża infrastrukturze krytycznej. To wszystko podkreśla potrzebę opracowania regulacji, które zabezpieczą technologie AI przed ich wykorzystaniem w nieetyczny i szkodliwy sposób.
Czy AI może nas obronić przed… AI? W sensie, czy możemy w jakiś sposób wykorzystać sztuczną inteligencję do obrony przed deepfake’ami czy cyberatakami, które robią z niej użytek? Wiem, że to trochę brzmi jak błędne koło, ale może ma sens?
PM: W erze AI świat na pewno nie stanie się mniej skomplikowany. To trochę jak dobór naturalny w ewolucji…rzadko zwalnia i raczej jest okrutny. Coraz bardziej wysublimowane narzędzia będą stosowane w biznesie, w polityce i w przestępczości. Hmm… ciekawe połączenie… Oczywiscie AI będzie nas bronił jako zaawansowana technologia, na przykład Meta i Microsoft pracują nad narzędziami do wykrywania fałszywych materiałów w ramach inicjatyw, takich jak Deepfake Detection Challenge. Podobnie jednak jak z każdą inną bronią pokój światowy i względny porządek jest utrzymywany przez rządy i regulacje. I to tutaj upatruję mądrego zarządzania tą kruchą równowagą. Bez międzynarodowej współpracy, konflikty zbrojne, zmiany klimatyczne czy rewolucja AI wymknie się spod kontroli.
No dobrze, ale spójrzmy teraz nieco od tej jasnej strony. Może koniec końców nie zostaniemy wszyscy bezrobotni, a raczej po prostu będziemy pracować mniej, bardziej wydajnie i skupiać się na czynnościach, które naprawdę mają znaczenie. Natomiast całą resztę tej “brudnej roboty” weźmie na swoje barki AI. A może to trochę idylliczny scenariusz?
PM: To optymistyczna wizja, ale nie jest pozbawiona podstaw. Sztuczna inteligencja już teraz przejmuje wiele powtarzalnych, czasochłonnych zadań, umożliwiając pracownikom skupienie się na bardziej kreatywnych i strategicznych aspektach pracy. W idealnym scenariuszu AI staje się wsparciem, dzięki któremu ludzie mogą pracować efektywniej, mając więcej czasu na rozwój, innowacje i zadania, które rzeczywiście wymagają ludzkiego wglądu i elastyczności.
Jednak, patrząc na postacie takie jak Elon Musk i innych liderów świata technologii, nasuwa się pytanie, czy osoby mające realny wpływ na rozwój AI i mogące to skapitalizować będą gotowe do finansowania dochodu podstawowego dla całych społeczeństw. Choć niektórzy z nich wspierają ideę dochodu gwarantowanego jako rozwiązania na przyszłość, ich podejście do innowacji i ograniczonej redystrybucji zasobów może nie sprzyjać jego powszechnemu wdrożeniu.
Wierzę jednak w edukację i ruch oporu w postaci open source. No i trochę od każdego z nas zależy czy będziemy budować lepszy świat.
Piotr Mechlinski, Head of AI & Data w firmie Inetum EMEA, posiada ponad 20-letnie doświadczenie w rozwoju biznesu i produktów AI, zdobyte w uznanych firmach takich jak Deloitte, Microsoft, IBM czy SAS. Doceniony unikalnym wyróżnieniem „Best of IBM” za zarządzanie biznesem oraz „Microsoft Gold Star” za zarządzanie ludźmi, Piotr zdobył również cztery nagrody „Innovation of the Year” za innowacje produktowe, a jego artykuły były publikowane w Forbes oraz Harvard Business Review. Jako wykładowca MBA w dziedzinie sztucznej inteligencji i zarządzania projektami, Piotr łączy wiedzę akademicką z praktycznym doświadczeniem, inspirując przyszłych liderów biznesu. Prywatnie jest zapalonym podróżnikiem, freediverem i nauczycielem mindfulness.
-
Materiał powstał we współpracy z Inetum
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu