Gdy śpisz, sztuczna inteligencja patrzy na twoją twarz. Nawet nie przypuszczasz, do czego są wykorzystywane fotografie, które wrzucasz do sieci. Na szczęście istnieje narzędzie które pozwala się o tym przekonać.
Niemal każdego dnia docierają do nas nowe informacje o działaniu systemów identyfikacji, rozpoznawania twarzy, czy nowych możliwościach deepfake’u, których ofiarą padła niedawno nawet brytyjska monarchini. Niejeden z nas może odnieść wrażenie, że o ile sama technologia jest interesująca, to w praktyce nie dotyczy nas bezpośrednio. Nic bardziej mylnego.
Jednym ze źródeł danych, służących do udoskonalania i trenowania algorytmów, określanych mianem sztucznej inteligencji, są publicznie dostępne fotografie. Nasze fotografie. Te same, które nieraz bez żadnej refleksji wrzucamy do sieci. Te właśnie zdjęcia mogą być – i często są – używane bez naszej wiedzy do celów, na które nigdy bezpośrednio nie wyrażaliśmy zgody.
Na szczęście powstało narzędzie o nazwie Exposing AI. Trudno nazwać je rozwiązaniem problemu – to raczej sposób na pokazanie jego wielkości i powszechności praktyki wykorzystywania otwartych baz danych do trenowania algorytmów odpowiedzialnych za rozpoznawanie twarzy. Exposing AI obsługuje na razie jedno źródło zdjęć – serwis Flickr – i pozwala nam sprawdzić, czy nasze publicznie dostępne fotografie zostały wykorzystane do tego celu.
Czy jest w tym coś złego? Stwierdzenie, że wrzucając cokolwiek do sieci tracimy nad tym kontrolę jest truizmem. Warto jednak pamiętać, że gdy przyjdzie nam ochota ponarzekać na wszechobecną inwigilację czy powszechne – nie zawsze zgodne z naszymi oczekiwaniami – wykorzystanie biometrii, to winić możemy również siebie.
Sami dostarczamy paliwa, potrzebnego do działania sztucznej inteligencji. Czy dotyczy to nas bezpośrednio? Jeśli korzystamy z Flickra, dzięki Exposing AI możemy to teraz zweryfikować.
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS