Wywiady

25 najlepszych polskich startupów w jednym ebooku

PM
Patronat Medialny
2

"25 najlepszych polskich startupów" to pierwsza tego typu publikacja w Polsce, prezentująca rozmowy z szefami 25 najgłośniejszych polskich superprodukcji technologicznych. Od Audioteki, Brainly i Migam.org, po Estimote, UXPin, Sher.ly, Base, Craftinity i Zortraxa. Z ebooka dowiesz się między inny...

"25 najlepszych polskich startupów" to pierwsza tego typu publikacja w Polsce, prezentująca rozmowy z szefami 25 najgłośniejszych polskich superprodukcji technologicznych. Od Audioteki, Brainly i Migam.org, po Estimote, UXPin, Sher.ly, Base, Craftinity i Zortraxa.

Z ebooka dowiesz się między innymi, jak powstawały nasze najbardziej innowacyjne biznesy, jak wyglądały ich strategie marketingowe, skąd ich założyciele pozyskiwali fundusze, jak wyglądało wchodzenie na rynki zagraniczne i zdobywanie znajomości w USA. Książka skierowana jest zarówno do startupowców, którzy mogą przeczytać, jak firmę prowadzą najlepsi, jak i do osób marzących o stworzeniu własnego startupu, poszukujących wskazówek i porad.

To nie wszystko - w wersji rozszerzonej można otrzymać także drugiego ebooka: "Rozmowy z Aniołami", zawierającą wywiady z prezesami kilku topowych funduszy inwestycyjnych z Polski: SpeedUp, Innovation Nest czy Xevin Investments. Zastanawiasz się, z czym przyjść do inwestora, by zwiększyć szansę na otrzymanie wsparcia finansowego, jak wygląda podział udziałów czy też jakie biznesy mogą liczyć na dofinansowanie? Tutaj znajdziesz odpowiedzi. Z kolei o tym, jak wygląda (ciężka) praca nad startupem w akceleratorze opowie Tomasz Popów z wrocławskiego Lift-OFF, współtwórca mobilnej aplikacji Taxi5.

Mało tego! Kilkanaście przepytywanych firm, specjalnie dla czytelników, przygotowało oferty zniżkowe na skorzystanie ze swoich usług i produktów. Niektóre z nich są ograniczone czasowo!

Premiera książek już 16 marca w poniedziałek. Zapisując swojego maila na stronie do soboty, można zgarnąć 30% rabatu na obie publikacje: www.25startupow.pl.

Na zachętę publikujemy tutaj wywiad z ekipą Craftinity. Jej CEO to Andrzej Brożek, Mateusz Opala jest CTO. Wywiad jest z całą ekipą, w której jest kilka innych osób (Michał Jamroż - Software Developer, Krzysztof Strojny - Software Developer oraz Maciej Mazur - Data Scientist).

Data science, machine learning, deep learning, AI... Obracacie się w semantycznie skomplikowanej rzeczywistości ;) Chciałbym dowiedzieć się, czym de facto się zajmujecie?

Zajmujemy się głównie deep learningiem. Jest to podzbiór szerokiej dziedziny sztucznej inteligencji. Wgłębiamy się w to na poważnie od kilku lat.

I założyliście startup.

Postanowiliśmy ruszyć ze startupem, bo nie co dzień trafia nam się okazja do zbudowania czegoś tak interesującego. Mamy ku temu świetne warunki, krakowskie środowisko startupowe gwałtownie się rozwija, mamy przyjazne stosunki z AGH i popyt na deep learning wciąż rośnie. Nie wykorzystanie tej okazji byłoby ogromnym błędem.

Z racji, iż dziedzina, w której postanowiliście działać, jest dosyć wąska, moglibyście na konkretnych przykładach przybliżyć, na czym będziecie zarabiać?

Na uczeniu hierarchicznych reprezentacji danych. Wyjaśnię na przykładzie. Gdy napiszę zdanie na kartce “I'm sorry, Dave. I'm afraid I can't do that” i zabiorę ci tę kartkę sprzed nosa, a następnie każę ci owo zdanie odtworzyć, to zrobisz to bez problemu. Co najwyżej użyjesz jakiegoś synonimu. Jeśli z kolei każę ci odtworzyć zdanie “对不起,戴夫。恐怕我不能这样做。” to aby to zrobić, będziesz musiał zapamiętać każdą kreskę. Jest tak dlatego, że twoja sieć neuronowa nauczyła się efektywnej reprezentacji języka angielskiego. Przechowujesz koncepty takie jak “I’m sorry” na wysokim poziomie abstrakcji i ich odtworzenie nie wymaga wysiłku. W przypadku chińskiego, jesteś zmuszony tamto zdanie przechowywać na niskim poziomie abstrakcji - w postaci kresek, stąd też trudności z jego odtworzeniem.

W procesie konstruowania modeli uczenia maszynowego możemy zazwyczaj wyróżnić dwie fazy. W pierwszej tworzymy reprezentację danych, a w drugiej dokonujemy klasyfikacji lub regresji. Dotychczas około 90% czasu naukowca zajmowało tworzenie reprezentacji danych. Sieci neuronowe pozwalają na automatyzację tego etapu, czyli na wspomniane już wcześniej uczenie hierarchicznych reprezentacji danych. Jak powiedział Jeff Hawkins - autor książki On Intelligence, kluczem do sztucznej inteligencji jest właśnie reprezentacja danych.

Brzmi nieźle. W jaki sposób można to wykorzystać?

Widzimy ogromny potencjał dla zastosowań deep learningu, począwszy od obecnie istniejących technologii, które można ulepszyć - np. systemy rekomendacyjne, a skończywszy na automatyzacji czynności, które do tej pory uznawane były za domenę ludzi, np. sterowanie samochodem.

Dobra, zdajecie się być ludźmi, którzy mogą odpowiedzieć na to pytanie: na jakim etapie, jako ludzkość, jesteśmy, jeśli chodzi o rozwój sztucznej inteligencji? Ostatnie doniesienia, związane z sukcesem Microsoftu pokazują, że chyba dalej, niż się wszystkim wydaje... Co dawna firma Billa Gatesa tak konkretnie osiągnęła?

Tak naprawdę ciężko powiedzieć, na jakim etapie rozwoju sztucznej inteligencji jesteśmy. Pozostaje zbyt wiele problemów do rozwiązania, aby podać datę powstania realnej, sztucznej inteligencji. To, co Microsoft Research zrobił, to wytrenował sieć neuronową, która przydziela obrazki do odpowiednich kategorii lepiej, niż to robią ludzie.

I jakie to ma znaczenie dla świata?

Jest to kolejny przykład na to, że za jakiś czas maszyny zastąpią nas w wykonywaniu zadań, co do których wydawało nam się, że wymagają intelektu.

Jak się zastanowię, to przychodzi mi do głowy kilka zastosowań marketingowych tej technologii - jak na przykład skrypt uczący się moich zachowań po to, by w określonych sytuacjach pokazywać określone reklamy. Ciekawi mnie jednak, gdzie najszybciej i najefektywniej można stosować AI?

Nasuwa nam się kilka zastosowań: przewidywanie, kiedy klient chce odejść (czyli zapobieganie customer attrition), segmentacja rynku (systemy oparte na AI mogą dokonać segmentacji, która byłaby nieintuicyjna człowieka), systemy rekomendacyjne, detekcja anomalii (wykrywanie nietypowych zachowań klientów, które inaczej trudno byłoby zmonetyzować) lub wykrywanie nietypowych transakcji(np. oszustw).

To ciekawe – w jaki sposób deep learning może pomóc w wykrywaniu oszustw?

Największą zaletą deep learningu jest automatyczne wykrywanie istotnych atrybutów w morzu danych. W przypadku wykrywania oszustw oznacza to, że programiści nie muszą precyzować rodzaju oszustw, jakie mogą wystąpić oraz przewidywać warunków, w jakich dochodzi do „przekrętów”.

Proszę sobie wyobrazić przypisanie każdemu zachowaniu użytkownika punktu w przestrzeni. Teraz wystarczy na taką przestrzeń spojrzeć i zwrócić uwagę na punkty znajdujące się w niej daleko od skupisk innych punktów. Takie punkty to właśnie anomalie, których szukamy. Oczywiście tym anomaliom później przygląda się człowiek i decyduje, czy jest to oszustwo, czy po prostu nietypowe zachowanie jakiegoś klienta.

Słyszałem ostatnio, że z tej metody korzystać chce PayPal.

Paypal dodaje funkcjonalności deep learning do obecnie istniejącego systemu detekcji anomalii. Z tego co wiemy, to nie dokonali nowych odkryć w dziedzinie deep learning, tylko stosują standardowe modele.

A kwestia ochrony prywatności, którą deep learning, jak sobie wyobrażam, może łatwo naruszać? Czuję ciarki, gdy myślę o inwestycjach rządów w tę technologię…

Większość ludzi nie jest świadoma ile danych jest o nich zbieranych. Transakcje finansowe są katalogowane, zachowania na portalach społecznościowych są zapisywane, piesi i samochody są nagrywani, niektóre strony internetowe monitorują nawet ruch kursora na ekranie. Techniki deep learning ułatwią tutaj analizę danych już zbieranych, same w sobie ich oczywiście nie zbierają. Możemy pocieszać się tym, że dzięki Snowdenowi ciężej jest agencjom rządowym zatrudnić specjalistów.

Okej, jestem spokojniejszy. Kilka dni temu pojawiła się informacja, że IBM kupił stosując w biznesie AI startup AlchemyAPI, choć jego CEO wcześniej zapierał się, że firma nie jest na sprzedaż. Pojawiły się pogłoski, że do przejęcia doszło tylko po to, by w zarodku zdusić ich usługi, a pracowników uczynić zapleczem naukowym. Sądzicie, że duże podmioty będą dążyć do wczesnej monopolizacji rynku? Blokować Wasze działanie patentami? Innymi słowy – jakie zagrożenia dostrzegacie, współtworząc zupełnie nowy rynek?

Tak zwane acquhire [złożenie acquistion i hire] to norma na rynku, często duże firmy przeoczają duże trendy, deep learning jest kolejnym takim przypadkiem. Większość ludzi ma swoją cenę, łącznie z inżynierami AlchemyAPI. IBM interesuje się AI już od dawna i zakup ten pozwoli im odrobić straty do liderów w dziedzinie deep learning.

Monopolizacja rynku, a mówiąc bardziej precyzyjnie, tworzenie się oligopoli, jest naturalną konsekwencją prawa patentowego. W przypadku deep learningu, nacisku w branży na współpracę ze środowiskiem naukowym i publikowaniem dokonań, nie widzimy zagrożenia ze strony pozwów o naruszenie patentów.

Chyba nie ma w Polsce firmy, która oferowałaby podobne rozwiązania, to znaczy stosowanie deep learningu w celach zarobkowych.

Fakt, też nie znamy innej firmy w Polsce, która koncentruje się na deep learningu, aczkolwiek istnieją firmy, które zajmują się sztuczną inteligencją w celach zarobkowych.

Jednocześnie Wasza komunikacja marki odbywa się tylko w języku angielskim, z czego nie trudno wnioskować, jakie są Wasze ambicje rozwoju. Opowiedzcie proszę o planach biznesowych - jak zamierzacie rozwijać startup, chcecie pozyskać inwestorów, a może już macie propozycje?

Obecnie stosujemy boostrapping, czyli finansujemy się sami bez pomocy inwestorów. Oczywiście, jeśli dostaniemy interesującą ofertę, to się nad nią zastanowimy. Obecnie szybko się rozrastamy, do teamu nowi pracownicy dołączają średnio co półtora tygodnia. To wszystko, co na razie możemy powiedzieć.

Mam to szczęście z Wami rozmawiać, gdy jesteście w początkowej fazie rozwoju firmy...

Tak, jesteśmy w fazie gwałtownego rozwoju i pracujemy nad skalowalnym modelem biznesowym. Traktujemy naszą firmę jako startup wg definicji Erica Riesa, czyli instytucję powstałą w celu dostarczenia produktu lub usługi w warunkach ekstremalnej niepewności.

Mówiąc o tak innowacyjnej technologii, można sobie tę ekstremalną niepewność łatwo wyobrazić. Jak wielki może być rynek na Wasze i tego typu usługi? Czy to dziedzina, w kierunku której zdecydowanie warto się kształcić?

Rynek na nasze usługi jest ogromny. Tak, jest to nauka w której warto się kształcić! Jest zdecydowanie zbyt mało ekspertów w tej dziedzinie. Jak to powiedział Peter Lee, który zarządza Microsoft Research: “W tamtym roku koszt światowej klasy eksperta w deep learningu był mniej więcej taki sam, jak koszt jednego z lepszych rozgrywających w NFL [National Football League, amerykański football].”

Ale czy polskie uniwersytety przygotowują absolwentów do tego, by faktycznie mogli rozpocząć działalność w tych obszarach? I jak to wygląda na świecie?

Na świecie istnieje tylko kilka ośrodków z dużym stężeniem specjalistów od deep learningu. Dominują tutaj Uniwersytety w Toronto, w Montrealu, NYU, Lugano, Stanford i Berkeley. Na AGH znamy dwóch pracowników naukowych, którzy mieli styczność z tematem i z którymi mieliśmy przyjemność współpracować.

Czy odpowiedź na odwieczne pytanie pt. "czy sztuczna inteligencja okaże się inteligentniejsza od człowieka i go wykończy" padnie w ciągu najbliższych 50 lat?

Jest dla nas oczywiste, że maszyny będą szybciej przetwarzały dane od człowieka w przyszłości. Problem z odpowiedzią na to pytanie polega na tym, że inteligentne maszyny będą prawdopodobnie znacznie się różnić od człowieka i porównywanie ich intelektu z naszym może nie mieć sensu, podobnie jak pytanie, czy łodzie podwodne potrafią pływać.

Sami jesteśmy ciekawi czy padnie na to pytanie odpowiedź w ciągu 50 lat.

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu