- Sztuczną inteligencję projektują, optymalizują i wdrażają ludzie, jest więc ona odbiciem ich założeń, wartości i sposobu patrzenia na świat
- W przypadku systemów, które wpływają na życie i prawa ludzi, decyzja o celach, jakie im stawiamy, jest polityczna. Nie techniczna
- AI sprawdza się w wykrywaniu prawidłowości i przewidywaniu trendów, ale nie działań i decyzji podejmowanych przez konkretnych ludzi
W tym tygodniu Komisja Europejska opublikowała tzw. białą księgę¸ czyli programowy dokument przedstawiający możliwe założenia regulacji sztucznej inteligencji w Unii Europejskiej. To materiał do szerokiej debaty, a nie konkretna propozycja prawna, którą sto dni wcześniej zapowiadała Ursula von der Leyen. Tym samym mamy tutaj dwie dobre informacje: z jednej strony brukselscy urzędnicy nie porywają się z motyką na słońce, próbując napisać nowe prawo na kolanie, z drugiej – nie wycofują się pod presją internetowego biznesu i aktywnie wchodzą do gry.
Trzy mity, które trzeba obalić
Zanim zaczniemy debatę o sposobach regulacji zastosowań sztucznej inteligencji, musimy obalić trzy obecne w dyskusji publicznej mity na jej temat. Oczywiście, sporo jest pytań, na które nie znamy jeszcze ostatecznej odpowiedzi, ale wiele wątpliwości rozwiała już nauka. Warto te fakty zebrać i potraktować jako punkt wyjścia, a debatę polityczną skoncentrować na wątkach, które naprawdę są sporne.
Mit 1: Sztuczna inteligencja jest w pełni obiektywnym mechanizmem podejmowania lub sugerowania decyzji
Rzeczywistość: Sztuczną inteligencję projektują, optymalizują i wdrażają ludzie, jest więc odzwierciedleniem ich założeń, wartości i sposobu patrzenia na świat.
Sztuczna inteligencja nie jest naturalnym żywiołem, nie rozwija się niezależnie od człowieka w pełni obiektywny sposób. Ten fakt ma daleko idące konsekwencje. Ludzie decydują o tym, jakie zadania realizują tworzone systemy, na jaki odsetek błędów sobie pozwalają, pod jakim kątem są zoptymalizowane, co traktują jako sukces, a co jako koszt. Konkretnie decyzje podejmują projektanci i właściciele tych systemów.
Nie mamy już czasu na snucie futurystycznych wizji i debaty o tym, czy sztuczna inteligencja nas zabije. Zamiast spekulować na temat nierealnych aktualnie scenariuszy, powinniśmy się przyjrzeć się temu, jak ją wykorzystujemy, a tym samym szukać oszczędności, wygody lub odpowiedzi na pytania, które dla człowieka okazały się trudne.
W 2020 r. mamy już wiele doświadczeń pozwalających trzeźwo spojrzeć na to, jak coraz odważniejsze korzystanie z algorytmów i uczenia maszynowego zmieniło komercyjne usługi i politykę publiczną. W ostatniej dekadzie ta technologia na dobre zadomowiła się w naszych urządzeniach, aplikacjach do mierzenia każdego elementu życia, serwowanej nam nieustannie reklamie. Pojawiła się wszędzie tam, gdzie w grę wchodzi modelowanie ludzkiego zachowania: począwszy od oceny zdolności kredytowej, przez planowanie komunikacji miejskiej, a na ocenę, komu należą się świadczenia społeczne, skończywszy.
Tworząc system oparty o sztuczną inteligencję, trzeba zdefiniować cel i odpowiedzieć sobie na pytanie, po czym poznamy, że nasz system dobrze działa. Sztucznej inteligencji nie wystarczy polecenie: „Zrób tak, żeby było lepiej!”. Potrzebne są wyznaczniki sukcesu, które da się przetłumaczyć na język matematyki, i precyzyjne formuły. Niezwykle istotne są też wskaźniki, czyli powiedzenie, czego algorytm powinien unikać. Czy chodzi o to, żeby nikt, kto zasługuje na kredyt lub świadczenie społeczne, nie odszedł z kwitkiem? Czy raczej o to, żeby nie zmarnować pieniędzy i nie zainwestować w osobę, która okaże się niewiarygodna albo niewypłacalna?
Z punktu widzenia człowieka te dwa cele wydają się podobne. Z punktu widzenia sztucznej inteligencji są zupełnie inne, bo opierają się na różnych funkcjach matematycznych i wymagają sformułowania innych poleceń. Jeśli system ma przede wszystkim unikać błędu w postaci „przepuszczenia przez sito” niewłaściwej osoby, to oznacza, że sito musi być bardzo gęste i czasem nie przepuści również człowieka, który spełnia kryteria. Jeśli zależy nam na tym, żeby nikt, kto zasługuje na kredyt lub świadczenie, nie został pominięty, musimy wybrać sito o większych oczkach. Wtedy jednak przepuścimy więcej ludzi, którzy okazują się nie spełniać kryteriów kredytowych lub warunków dostępu do świadczeń. W przypadku systemów, które wpływają na życie i prawa ludzi, decyzja o celach, jaki im stawiamy, a zarazem o błędach, jakie preferujemy, jest polityczna – nie techniczna.
Nie uciekniemy od tego, że decyzje podejmowane lub sugerowane przez sztuczną inteligencję mają realny wpływ na l … czytaj dalej
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS