A A+ A++

W 2014 roku Amazon rozpoczął prace nad oprogramowaniem opartym o sztuczną inteligencję, którego zadaniem było wyłanianie najlepszych kandydatur spośród tysięcy zgłoszeń napływających do firmy. Algorytm miał analizować przesyłane do firmy CV, a następnie oceniać je w skali od jednego do pięciu w zależności od tego, jak doświadczenie i umiejętności danego kandydata korespondowały z wymaganiami pracodawcy na wskazane stanowisko. Rozwijany przez Amazon produkt okrzyknięto prawdziwą rewolucją w dziedzinie Human Resources. Szybko wyszło jednak na jaw, że wirtualny rekruter przejawia tendencje seksistowskie, nieprzychylnie oceniając kandydatury składane przez kobiety.

(Inteligentne) algorytmy na usługach wymiaru sprawiedliwości i służby zdrowia

Przypadek Amazona to jednak dopiero wierzchołek góry lodowej. Sztuczna inteligencja znajduje bowiem coraz szersze zastosowanie, szczególnie ryzykowne w przypadku obszarów bezpośrednio wpływających chociażby na wolność czy też bezpieczeństwo każdego człowieka.

Tak na przykład w Stanach Zjednoczonych inteligentne systemy rozpoznawania twarzy wykorzystywane są przez organy ścigania do typowania przestępców. Na podstawie wyniku dostarczonego przez tę właśnie technologię w 2015 r. został skazany za rzekomy handel narkotykami Willie Lynch, czarnoskóry mieszkaniec Jacksonville.

Wspomniany system stwierdził, że twarz Lyncha odpowiada wizerunkowi mężczyzny, któremu kilka dni wcześniej policjanci ukradkiem zrobili zdjęcie. Dostarczona przez sztuczną inteligencję analiza została wykorzystana jako główny dowód w sprawie i to wystarczyło sądowi, by uznać Lyncha za winnego.

Tymczasem FBI przeprowadziło specjalistyczne badania, w których dowiodło, że system wykazuje niepokojąco wysoki odsetek nieprawidłowych wskazań osób czarnoskórych jako przestępców. W przypadku przedstawicieli rasy białej dokładność oprogramowania była znacząco wyższa.

Najbardziej dosadny będzie jednak przykład projektu prowadzonego przed kilkoma laty przez IBM. Szczególnie że w tym przypadku zagrożony niepoprawnym działaniem systemu mógł być w zasadzie każdy. „Watson for Oncology”, wirtualny i (przynajmniej w zamyśle) inteligentny doradca lekarzy onkologów miał przynieść prawdziwą rewolucję w leczeniu chorób nowotworowych.

Niestety, obiecujące zapowiedzi nie zawsze przekładają się na równie satysfakcjonujący efekt końcowy. „Watson” okazał się kompletnym niewypałem – choć to i tak mało powiedziane. Kilkukrotnie zdarzyło się bowiem, że wirtualny asystent ignorował inne choroby zdiagnozowane u pacjenta i proponował takie terapie, które niechybnie wpędziłyby go do grobu. Szczęśliwie lekarze bardzo czujnie patrzyli „Watsonowi” na ręce.

Uczenie maszynowe i tajemnica czarnej skrzynki

We wszystkich opisanych powyżej przypadkach geneza problemu jest identyczna i dotyczy źle przygotowanych zestawów danych wykorzystywanych do uczenia sztucznej inteligencji.

W klasycznym programowaniu algorytm przetwarza dane w oparciu o zakodowane w nim reguły postępowania i na tej podstawie generuje odpowiedzi. Natomiast w uczeniu maszynowym program sam wypracowuje reguły postępowania w oparciu o dane treningowe. Następnie reguły te wykorzystuje w realnych sytuacjach, oceniając np. zdolność kredytową wnioskodawcy albo zgodność kompetencji kandydata z wymaganiami danego stanowiska.

Stworzony przez Amazon algorytm, posługujący się dostarczonymi mu profilami ówczesnych pracowników firmy, z pewnością wypracował cały szereg reguł, które można określić jako „pożądane”. Na zestaw ten mogły składać się takie warunki jak: znajomość konkretnych języków programowania, wykształcenie wyższe techniczne, odpowiednio wysoki staż zawodowy. Taki zestaw nie może, rzecz jasna, budzić jakichkolwiek zastrzeżeń.

Niestety, opracowując zestaw danych treningowych, firma zapomniała, że jak większość przedsiębiorstw w branży technologicznej zatrudnia w przeważającej mierze mężczyzn. Zatem analizując zestaw treningowy zdominowany przez tę płeć, algorytm wypracował regułę – tym razem niepożądaną – dyskredytującą kandydatury wnoszone przez kobiety.

– Można powiedzieć, że to, co zrobił w tym przypadku Amazon, to taki szkolny błąd. Ale od razu trzeba zaznaczyć, że mimo najszczerszych chęci niemożliwe jest stworzenie systemu, który działałby w stu procentach poprawnie i obiektywnie – mówi Leon Ciechanowski, specjalista w zakresie sztucznej inteligencji z Akademii Leona Koźmińskiego.

Inteligentna, ale tylko z nazwy

Powodów wspomnianej niemożności jest kilka. Po pierwsze, choć AI jest z nazwy inteligentna, to – jak tłumaczy Ciechanowski – nadal pozostaje zależna od człowieka i jego wiedzy, która nie może być kompletna i całkowicie obiektywna.

– Sztuczna inteligencja bazuje na opracowanych przez człowieka modelach statystycznych, a te zawsze koncentrują się grupach, zjawiskach czy sytuacjach, które są do pewnego stopnia powszechne. Z tego względu nie są w stanie obejmować przypadków będących wyjątkami od reguły – tłumaczy Ciechanowski. – Twórcy algorytmów AI muszą mieć tę świadomość, że ich modele nigdy nie będą doskonałe i że zawsze należy rozglądać się za takimi elementami rzeczywistości, które mogły zostać pominięte w podejściu statystycznym – dodaje.

Jednak do skutecznej walki z nierównościami lub wykluczeniem powodowanymi przez algorytmy konieczna jest dokładna kontrola modeli tworzonych przez sztuczną inteligencję. A to zwykle nie jest takie proste.

Pierwszą przeciwnością są kwestie finansowe. Takie systemy operują na giga-, a często również i terabajtach danych i przetwarzają je, by na ich podstawie wytworzyć równie dużo nowych informacji. Ich kontrola zazwyczaj okazuje się dla firm nieopłacalna albo wręcz niemożliwa ze względu na ogrom tych danych.

Ponadto, zwykle nie wiadomo, w jaki sposób sztuczna inteligencja dotarła do takiej, a nie innej konkluzji. Jak to możliwe, skoro to właśnie człowiek dał jej podstawy do działania? Nie wchodząc w szczegóły techniczne, można powiedzieć, że sposób funkcjonowania AI zmienia się wraz z postępowaniem procesu uczenia algorytmu na podstawie danych treningowych. I o ile jego inicjacja zachodzi zgodnie z wolą człowieka, tak zmiany, które dokonują się w modelu pod wpływem coraz to kolejnych porcji informacji, pozostają nieznane. Zagadnienie to fachowo określa się jako tzw … czytaj dalej

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułROZMOWA Z BEATĄ I ANDRZEJEM MARKULAKAMI
Następny artykułPowstanie unijny system gromadzenia danych o szczepieniach przeciw Covid-19