A A+ A++

Po szanghajskiej ulicy porusza się tłum ludzi. Jeden z nich trzyma w dłoni plastikowy kubek po kawie. Rozgląda się ukradkiem, czy ktoś go nie obserwuje, po czym rzuca kubek na chodnik. I jak gdyby nigdy nic idzie dalej, przekonany, że nikt tego nie zauważył. Jednak jego zachowanie widziały wszechobecne kamery. Zarejestrowały jego twarz, a inteligentny program błyskawicznie dopasowuje do niej nazwisko i adres. Dane zostają przesłane do specjalnego systemu, który na podstawie zachowania obywateli przyznaje im punkty. Człowiek, który zaśmiecił ulicę, może teraz spodziewać się trudności w uzyskaniu kredytu lub odmowy sprzedaży biletów na szybką kolej.

Czytaj także: Nowinki technologiczne, które zmieniają bieg historii – masz na wyciągnięcie ręki. We własnym telefonie

Jeszcze niedawno takie rozwiązania mogliśmy zobaczyć jedynie w filmach science fiction, ale dzisiaj stają się rzeczywistością. Chiński System Zaufania Społecznego – baza punktów przyznawanych za codzienne zachowania obywateli – jest już testowany w kilku regionach Chin. Nie byłby on możliwy, gdyby nie błyskawiczny rozwój inteligentnych programów służących do rozpoznawania twarzy. Sztuczna inteligencja potrafi jednak dużo więcej, a nasze życie zaczyna od niej zależeć.

Dobrze cię rozumiem

Prace nad sztuczną inteligencją trwają od co najmniej pół wieku, ale do niedawna maszyny były inteligentne wyłącznie z nazwy, a ich działanie było efektem prostego programowania. – Przełom przyszedł, gdy nauczyliśmy się tworzyć algorytmy, które zyskały możliwość samodzielnego uczenia się – mówi prof. Ryszard Tadeusiewicz, specjalista w dziedzinie sztucznej inteligencji z Akademii Górniczo-Hutniczej w Krakowie. To tzw. machine learning, maszynowe uczenie się, dzięki któremu maszyny mogą wyciągać wnioski i rozwijać swoje umiejętności. – Na przykład słynny program DeepMind do gry w chińską łamigłówkę GO, który przed trzema laty pokonał ludzkiego arcymistrza, najpierw przez kilkaset godzin prowadził rozgrywki sam ze sobą, analizował swoje błędy, uczył się przewidywać ruchy przeciwnika i grał coraz lepiej – opowiada prof. Tadeusiewicz.

Dzisiaj trudno znaleźć dziedzinę życia, na którą rozwój uczenia maszynowego nie miałby żadnego wpływu. A doskonałość algorytmów towarzyszących nam na co dzień niepostrzeżenie rośnie. – To chociażby nasze smartfony z systemami rozpoznawania mowy oraz inteligentnymi słownikami uczącymi się najczęściej używanych przez nas słów – mówi prof. Tadeusiewicz. Jeszcze niedawno podpowiedzi telefonicznych słowników wywoływały ataki śmiechu, dzisiaj już mało kto wyłącza słownik w telefonie. Podobnie jest z wirtualnymi asystentami typu Siri, Cortana czy Asystent Google, które na podstawie milionów rozmów z użytkownikami uczą się prowadzenia coraz bardziej sensownych konwersacji.

– Potrafią nie tylko składnie się wypowiedzieć, ale także zrozumieć, co do nich mówią ludzie. To drugie jest o wiele trudniejsze, bo każdy człowiek mówi inaczej – tłumaczy prof. Tadeusiewicz. Biegłość maszyn w posługiwaniu się ludzkim językiem jest już tak duża, że powoli zaczynają one konkurować na przykład z dziennikarzami. – W USA powstał algorytm, który na podstawie wyniku meczu czy innej sportowej rozgrywki jest w stanie napisać newsa gotowego do wydrukowania w gazecie czy odczytania w telewizji. Robi to tak dobrze, że nikt nie orientuje się, że tekst napisał komputer – mówi prof. Tadeusiewicz.

Coraz trudniej jest rozpoznać tłumaczenia z obcego języka wykonywane przez komputer. Programy tłumaczące przeszły prawdziwą metamorfozę – ich tłumaczenia zaczęły nabierać sensu i stały się stylistycznie zbliżone do naturalnego języka. – To wszystko dzięki zastąpieniu tzw. statystycznych modeli tłumaczenia słów algorytmami samouczącymi. Biorą one pod uwagę znaczenie wypowiedzi, a nie tylko to, ile razy dane słowo zostało przetłumaczone w konkretny sposób – tłumaczy Adam Malczak z Google.

Wyśledzić raka

Jeszcze niedawno dla komputerów równie trudne jak rozumienie języka było rozpoznawanie obrazów, na przykład obiektów na fotografiach. Dzisiaj algorytmy analizujące treść obrazów pozwalają nie tylko wyszukiwać sprawnie zdjęcia, ale mają też coraz większe znaczenie w medycynie. W laboratorium Google Health powstał algorytm pomagający w szybkiej diagnostyce raka piersi. – To oprogramowanie na podstawie tysięcy zdjęć mammograficznych uczy się wychwytywać najwcześniejsze zmiany w piersi, które mogą prowadzić do raka – tłumaczy Adam Malczak.

Badania przeprowadzone przez Google Health wykazały, że program jest w stanie wykryć zmiany nowotworowe tam, gdzie nie zauważyłby ich radiolog. – Można było to sprawdzić, bo w procesie uczenia się algorytmu programiści wykorzystali stare zdjęcia mammograficzne różnych kobiet. Sprawdzili też historię medyczną, by dowiedzieć się, która zachorowała na raka, a która nie – mówi Adam Malczak. Dzięki temu algorytm nauczył się odróżniać tkankę rakową od niegroźnych zmian i wciąż aktualizuje swoją wiedzę. Im więcej dostaje zdjęć, tym sprawniej wychwytuje zmiany na etapie, na którym ich wyleczenie nie jest problemem.

Podobny algorytm przydaje się w sytuacjach, w których cenna jest dosłownie każda sekunda – w czasie trwającego udaru, kiedy skrzep zatyka naczynie krwionośne doprowadzające krew do mózgu. Im szybciej zlokalizowane zostanie miejsce, w którym jest niedrożność, tym większa szansa na uratowanie życia i zdrowia pacjenta. W tym celu robiona jest tomografia komputerowa głowy pacjenta, a lekarz musi uważnie przestudiować jej zapis, żeby znaleźć chore miejsce. O wiele szybciej potrafi zrobić to aplikacja Contact, stworzona przez amerykański start-up Viz.ai. Na podstawie tomografii komputerowej nie tylko błyskawicznie lokalizuje miejsce udaru, ale także określa jego typ, a następnie wysyła wiadomość tekstową do lekarza. Na tej podstawie lekarz może szybko usunąć skrzep.

Ups, pomyłka!

Liczba decyzji, jakie podejmujemy na podstawie podpowiedzi i wskazań sztucznej inteligencji, rośnie błyskawicznie. Niesie to jednak ze sobą mnóstwo zagrożeń związanych głównie z tym, że systemy AI bywają jeszcze mocno zawodne. W ostatnich paru latach popełniły kilka bardzo poważnych błędów. Jeden z nich mógł zaważyć na życiu wielu ludzi. Program Watson Oncology opracowany przez IBM wspólnie z University of Texas wykorzystywany w leczeniu nowotworów miał doradzać lekarzom najlepsze sposoby terapii raka. Niestety, jak alarmował w 2018 r. amerykański serwis medyczny „Stat”, program wielokrotnie popełniał błędy, np. zaniżał ryzyko wystąpienia nowotworu czy zalecał błędną terapię.

Mylą się też algorytmy rozpoznawania twarzy, z których korzystają nie tylko Chińczycy, ale również policje wielu państw czy służby sanitarne śledzące za pomocą aplikacji osoby łamiące zasady kwarantanny. Jak dowiodło badanie przeprowadzone przez dr Joy Buolamwini z MIT Media Lab, niektóre z tych programów mają prawie 100-procentową skuteczność w rozpoznawaniu białych mężczyzn, ale kiedy muszą rozpoznać czarnoskórą kobietę, ich efektywność spada do zaledwie 34,7 proc. – Sztuczna inteligencja może powielać uprzedzenia oraz stronniczość obecne w świecie rzeczywistym i wiele jeszcze musimy zrobić, by to zniwelować – tłumaczy Adam Malczak.

Jak łatwo przekazujemy nasze uprzedzenia sztucznej inteligencji, pokazuje historia z ostatnich lat. Od 2015 r. wstępną rekrutację nowych pracowników dla firmy Amazon prowadził program sztucznej inteligencji. Po roku programiści Amazona wykryli, że algorytm zupełnie bez powodu faworyzował CV pisane przez mężczyzn. Takie preferencje wynikały z wcześniejszych rekrutacji prowadzonych przez ludzi. Program był trenowany na przykładach rekrutacji na stanowiska inżynierskie, gdzie panuje silny stereotyp płci – najchętniej zatrudniani są biali mężczyźni. Kiedy program zaczął śledzić wcześniejsze rekrutacje, niechcący przejął całkowicie ludzki, nieobiektywny sposób oceny kandydatów.

W świecie deep fake’ów

Nie tylko błędy sztucznej inteligencji mogą nam zagrażać, ale również niewłaściwe ich wykorzystanie – na przykład do tworzenia fałszywych, generowanych cyfrowo zapisów wideo. Sztuczna inteligencja potrafi już bowiem bardzo realistycznie przerabiać ludzkie twarze. Istnieją algorytmy, które na podstawie zdjęcia twarzy są w stanie wygenerować obrazy wideo, w których nieruchoma twarz zaczyna poruszać oczami, ustami, brwiami. Kolejne obrazy składają się na film pokazujący mówiącego, żywego człowieka. Przed rokiem naukowcy z moskiewskiego oddziału Samsunga za pomocą tej technologii „ożywili” Monę Lisę z obrazu Leonarda da Vinci, ale podobne algorytmy radzą sobie równie dobrze ze zdjęciami ludzkich twarzy.

Technologie te mogą być wspaniałym narzędziem dla filmowców, ale też niezwykle groźną bronią w rękach przestępców tworzących fałszywe treści w internecie, tzw. deep fake. Wystarczy wgrać do takiego programu zdjęcie znanego polityka, a następnie wydać komputerowi polecenie, aby wygenerował film, w którym polityk mówi coś, czego nigdy nie powiedziałby w rzeczywistości. Albo wmontować twarz znanej aktorki do filmu porno. Potem taki film wystarczy wrzucić do internetu i niejedna kariera może lec w gruzach. I tak już się stało – w deepfake’owym filmie pornograficznym „zagrała” bez swojej wiedzy Taylor Swift.

Rewolucja cyfrowych umysłów

Sztuczna inteligencja, nawet jeśli robi rzeczy złe, to wyłącznie na polecenie człowieka. Ale czy coraz bardziej inteligentne algorytmy nie zaczną działać na własną rękę? Czy to możliwe, że wreszcie przewyższą intelektem człowieka i uwolnią się spod naszej kontroli? Zdaniem specjalistów to bardzo mało prawdopodobne. Aby tego dokonać, sztuczna inteligencja musiałaby mieć umysł podobny do naszego. – A umysł to nie tylko zdolność do rozwiązywania problemów logicznych, ale również do odczuwania i rozumienia emocji, poczucia humoru, moralności. Tego wszystkiego sztuczna inteligencja nie ma – mówi prof. Tadeusiewicz. Jego zdaniem roboty i maszyny nigdy nie będą miały umysłu podobnego do ludzkiego. – Z jednego prostego powodu: kluczową cechą naszych umysłów jest samoświadomość, poczucie własnej tożsamości, a my nie mamy wciąż zielonego pojęcia, w jaki sposób rodzi się świadomość ani jakie struktury mózgu za nią odpowiadają. Jak więc mamy stworzyć jej cyfrową wersję? – argumentuje prof. Tadeusiewicz.

Na razie w kreowaniu sztucznej inteligencji jesteśmy wciąż na początku drogi. – Algorytmy, które tworzone są dzisiaj, to zazwyczaj tzw. wąska sztuczna inteligencja, która jest w stanie wykonywać wyłącznie jedną rzecz, do której została stworzona – tłumaczy Adam Malczak. Przez to nawet najbardziej zaawansowany algorytm do naśladowania ruchów twarzy człowieka okaże się bezradny, kiedy każemy mu zarządzać pracą fabryki czy grać w GO.

Musimy najpierw nauczyć się tworzyć inteligencję szeroką – algorytmy, które będą mogły wykonywać wiele różnych zadań, na przykład związanych z transportem czy komunikacją z człowiekiem. Dzisiaj stworzenie takiego uniwersalnego algorytmu jest poza zasięgiem naszych możliwości i prawdopodobnie pozostanie tak jeszcze przez dziesięciolecia. Nie tylko ze względu na ograniczenia w technologii czy naszej wiedzy, ale także z powodów psychologicznych. – Już dzisiaj samoloty teoretycznie mogłyby być w pełni autonomiczne dzięki technologii, ale tak nie jest. Wolimy mieć bowiem świadomość, że samolot jest prowadzony przez człowieka, a zaawansowane systemy tylko go wspomagają – mówi Adam Malczak.

– Inteligentne algorytmy jeszcze długo pozostaną po prostu narzędziami do konkretnych zadań, a nie świadomymi umysłami, w których może narodzić się idea rządzenia światem – dodaje prof. Tadeusiewicz.

Więcej na temat sztucznej inteligencji i nowych technologii słuchaj na nowym podcaście „Newsweeka” – Instrukcja Obsługi Świata.

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułŚwiat w 2021 roku? „Ludzie już mają dość. Nie wiemy, jak zareagują, gdy poznają niezbyt zachęcającą prawdę”
Następny artykuł2020. O roku, uff…