Wideokonferencje są istotną częścią naszego życia. Nawet, jeżeli mikrofon w naszym komputerze naprawdę nie działa w tej chwili, da się wychwycić to, co jest słyszalne wokół nas. Zastanawialiście się, co dzieje się, gdy jesteśmy wyciszeni? Okazuje się, że nie jesteśmy tak chronieni przed ciekawskimi uszami, jakbyśmy tego chcieli.
Profesor Kevin Fu, specjalista z dziedziny inżynierii elektrycznej i informatyki na Northeastern University, zabił niezłego ćwieka wszystkim, którzy sądzili, że nie da się usłyszeć niczego, co nie zostało nagrane mikrofonem. Jego narzędzie, nazwane "Side Eye" jest przykładem tego, jak nowoczesna technologia i uczenie maszynowe mogą dokonać zamachu prywatność nawet w pozornie bezpiecznych sytuacjach. I co ciekawe - tego typu technologii można użyć nawet... na zdjęciach.
Jak działa Side Eye?
Side Eye wykorzystuje stabilizację obrazu, która jest standardem w większości współczesnych aparatów telefonicznych. W przypadku drgań czy wstrząsów, malutkie sprężynki utrzymują obiektyw aparatu w stałej pozycji, zapobiegając rozmyciu zdjęć. Jednak nawet w sytuacji, gdy ktoś mówi w pobliżu robienia zdjęcia, te wibracje wprowadzają niewielkie zmiany w kącie padania światła na matrycę. To właśnie te subtelne zmiany w świetle są kluczowe dla Side Eye.
Równocześnie Side Eye korzysta z "rolling shutter", która jest stosowana w większości nowoczesnych aparatów. W przeciwieństwie do tradycyjnych urządzeń do rejestrowania obrazu, które skanują całość naraz, aparaty korzystające z "rolling shutter" skanują obraz w miniaturowych rzędach. Wszystko to brzmi jak magia, ale połączenie stabilizacji obrazu oraz "rolling shutter", i przepuszczenie tego przez machine learning umożliwia Side Eye wydobywanie dźwięku z obrazów.
Niespodziewanie implikacje technologii tak mocno intruzywnej dla naszej prywatności
Potencjał tej technologii jest ogromny. Podkreśla się, że Side Eye może nie tylko określić, jakie wyrazy wypowiada się na filmie (pozornie) bez dźwięku, ale nawet zidentyfikować osobę, która mówi - jeśli narzędzie zostanie przeszkolone na głosie danej osoby. Chociaż Side Eye średnio sobie radzi z identyfikacją głosu, to już teraz może stanowić potencjalne narzędzie w dochodzeniach kryminalnych i sprawach sądowych.
Otwiera to zupełnie nowe możliwości w zakresie kryminologii. Wyobraźcie sobie, że jesteśmy w stanie ze zdjęć lub niemego filmu wideo wyciągnąć to, co może stanowić o winie lub jej braku u sądzonego człowieka. Brzmi jak magia, ale magią zdecydowanie nie jest. To po prostu nauka - rzeczy, które znamy z takich seriali jak CSI (gdzie często mamy do czynienia z nieistniejącymi lub przerysowanymi możliwościami współczesnych technologii) mogą stać się faktem.
Nadzieja dla... kryminologii
Side Eye więc będzie mieć dalekosiężne konsekwencje dla naszego społeczeństwa. Od ochrony prywatności po wykorzystanie w kryminologii, aż po możliwe użycie przez przestępców. Pominąwszy to najmniej chlubne zastosowanie - potencjał narzędzia jest ogromny. Pytanie brzmi, jakie implikacje społeczne będą mieć tego typu wynalazki? Czy przyszłość przyniesie jeszcze bardziej intruzywne rozwiązania w kontekście naszej prywatności? Pewnie tak.
Biorąc pod uwagę to, jak niemrawo zareagowały prawodawstwa wielu krajów w kontekście sztucznej inteligencji, może okazać się, że zanim będziemy w stanie w mądry sposób zagospodarować tego typu wynalazki - miną jeszcze lata. A szkoda - chciałbym zobaczyć, jak nadążamy za takimi nowinkami - nie tylko w zakresie użycia ich w dobrej sprawie, ale także w kontekście użycia ich w sprawach kryminalnych: tak, by stały się szeroko honorowanymi dowodami w sprawach, gdzie wina lub jej brak mogą przesądzać np. o bardzo wysokim wymiarze kary.
Natomiast statystyki dotyczące niesłusznych skazań są zaskakujące. Według raportu z 2019 roku sporządzonego przez National Registry of Exonerations (USA), odsetek niesłusznych skazań wynosi między 2% a 10%. Biorąc pod uwagę, że w Stanach Zjednoczonych jest ponad 2,3 miliona osób uwięzionych, liczba niewinnych osób za kratami wynosi od 46 000 do 230 000. Na każde 100 osób skazanych na śmierć, prawdopodobnie 4 są niewinne, ale tylko 2 zostają uniewinnione.
Czy musimy drżeć o naszą prywatność?
Jak zwykle w przypadku tego typu technologii, od jej wynalezienia do rzeczywistej implementacji z pewnością minie sporo czasu. Nie oznacza to jednak, że nie powinniśmy troszczyć się o naszą prywatność, a wręcz przeciwnie. Wciąż istnieje wiele konwencjonalnych rozwiązań, które mogą stanowić zagrożenie. Niezależnie od stopnia zaawansowania technologii, warto pozostać czujnym.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu