Opis i zastosowanie aplikacji FenrirAI do rozpoznawania treści przedstawiających seksualne wykorzystywanie dzieci
Abstrakt
Treści przedstawiające seksualne wykorzystywanie dzieci (child sexual abuse materials – CSAM) to zdjęcia, filmy, rysunki lub rendery komputerowe, na których został utrwalony bądź wytworzony wizerunek osoby poniżej 18 r.ż. w czasie kontaktu seksualnego lub prezentujący nagość. Istotną rolę w procesie oceny tych treści odgrywają biegli z zakresu informatyki, antropologii i seksuologii. Z uwagi na rosnącą liczbę zarówno wszczętych postępowań, jak i stwierdzonych przestępstw, które dotyczą uzyskania dostępu, rozpowszechniania lub tworzenia CSAM, są prowadzone badania informatyczne nad opracowaniem narzędzi ułatwiających ocenę tych materiałów. O ile rozwiązania wspierające proces identyfikacji CSAM są dostępne od dłuższego czasu, o tyle w ostatnich latach badania koncentrowały się w szczególności na wykorzystaniu w tym celu uczenia maszynowego (tzw. sztucznej inteligencji) zapewniającego optymalizację procesu ich klasyfikacji. Celem artykułu jest opisanie cyklu publikacji składających się na proces powstawania aplikacji FenrirAI umożliwiających rozpoznanie CSAM, przedstawienie ich zastosowań z perspektywy seksuologicznej i prawnej oraz wskazanie ograniczeń. Omówione zostaną również inne badania związane z zastosowaniem uczenia maszynowego do automatycznej detekcji materiałów pornograficznych i przyszłe kierunki rozwoju oprogramowania. Aplikacje FenrirAI są udostępniane bezpłatnie biegłym sądowym, funkcjonariuszom wymiaru sprawiedliwości i badaczom. Dokumentacja projektu dostępna jest pod numerem DOI: 10.17605/OSF.IO/RU7JX.
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS