Najnowszy przypadek wykorzystania tej technologii pokazuje, jak bardzo rozwinęła się ona w ciągu zaledwie kilku lat. Ofiarą fałszerzy padli politycy z Wielkiej Brytanii, Łotwy, Estonii, Litwy i Holandii, którzy zostali „wmontowani” w widekonferencje z Leonidem Wołkowem, bliskim współpracownikiem i szefem personelu rosyjskiego lidera opozycji Aleksieja Nawalnego. Zrzut ekranu opublikowany przez jednego z tych polityków pokazuje, jak wiarygodnie odtworzono jego wizerunek na fałszywym materiale wideo. Pojawiają się również inne próby zastosowania deepfake’ów, a w związku z nimi pytania o kierunki rozwoju tej technologii.
Choć szczegóły nt. wspomnianego zdarzenia są przedmiotem dyskusji, nie ulega wątpliwości, że sprawy zaszły daleko. Na nowe zagrożenia muszą się przygotować nie tylko firmy z branży cyberbezpieczeństwa, lecz także organy regulacyjne i instytucje rządowe.
Co to jest deepfake?
Słowo „deepfake” powstało w wyniku połączenia wyrażeń deep learning („głębokie uczenie” – odmiana uczenia maszynowego) i fake media („fałszywe wiadomości multimedialne”). Istnieją różne sposoby tworzenia tego rodzaju treści. Najczęściej wykorzystuje się do tego technologię głębokich sieci neuronowych o nazwie „autoencoder”. Jest ona wykorzystywana do pobierania, kompresowania i przekształcania treści video. Dzięki temu można tak połączyć nagrania z dwoma różnymi osobami, aby mimika i gesty osoby A imitowały osobę B. W efekcie pozwala to „włożyć” dowolne słowa w usta każdej osoby.
Czas wszcząć alarm
Osoby, które potrafią się efektywnie posługiwać technologią deepfake, mają praktycznie nieograniczone możliwości szerzenia fałszywych informacji dotyczących przedstawicieli najwyższych sfer rządowych. Co gorsza, sfałszowane nagrania mogą zostać użyte podczas wyborów przez wrogie państwa lub cyberprzestępców żądających okupu, aby podważyć zaufanie do kandydatów.
Technologię deepfake mogą wykorzystać sprawcy ataków z wykorzystaniem biznesowych wiadomości e-mail (ang. Business Email Compromise – BEC) w celu nakłonienia pracowników działu finansowego firmy do dokonania przelewów dużych sum pieniężnych na rzecz osób trzecich.
Łatwo sobie wyobrazić dyrektora generalnego, który za pośrednictwem programu Zoom przekazuje odpowiednie polecenie. Taki komunikat może przekonać wielu pracowników. Tę metodę z powodzeniem stosowano już w deepfake’ach audio, które w 2019 roku nakłoniły pewnego dyrektora w Wielkiej Brytanii do przelania z firmowego konta kwoty liczonej w setkach tysięcy. W jednej z naszych prognoz na rok 2020 przewidzieliśmy, że nowa fala oszustw w przedsiębiorstwach będzie oparta właśnie na technologii deepfake.
Co dalej?
Wymuszenia finansowe i inżynieria społeczna oraz operacje wywierania wpływu, których celem jest destabilizacja demokracji, to dopiero początek. Jak niedawno stwierdził jeden z ekspertów, gdy technologia sztucznej inteligencji stanie się bardziej zaawansowana i powszechna, przekonujące deepfake’i będzie w stanie tworzyć każdy użytkownik smartfona. Może to nastąpić już w połowie tej dekady. Co możemy zrobić w takiej sytuacji?
Przedsiębiorstwa powinny odpowiednio przygotować zespoły odpowiedzialne za bezpieczeństwo. W celu lepszego zrozumienia, jak technologia może zostać wykorzystana w złej wierze, warto zwracać uwagę na ostrzeżenia. Na początek np. można przeczytać artykuł, który niedawno opublikowaliśmy wspólnie z ONZ i Europolem, na temat wykorzystywania sztucznej inteligencji i związanych z nią nadużyć.
Staramy się również spojrzeć w przyszłość i przewidzieć, w jaki sposób sztuczna inteligencja i deepfake’i mogą w najbliższych latach zostać użyte w cybernetycznym wyścigu zbrojeń. Będzie można o tym przeczytać w raporcie „Projekt 2030”, który zostanie opublikowany na tegorocznej konferencji RSA. Należy zaznaczyć, że już teraz musimy nauczyć się lepiej szkolić pracowników w wykrywaniu fałszywych informacji i używaniu do tego odpowiednich narzędzi.
Ze sztuczną inteligencją wykorzystywaną w złej wierze będziemy mieć do czynienia jeszcze długo. Podejmując konkretne działania w celu lepszego zbadania takich zagrożeń, możemy zyskać przewagę taktyczną nad ich sprawcami. Jak wiadomo, ostrożności nigdy nie za wiele.
Autor: Rik Ferguson, Trend Micro
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS