A A+ A++

W dobie gwałtownego rozwoju technologii pojawia się coraz więcej narzędzi mogących zagrozić demokracji. Jednym z nich są aplikacje, które umożliwiają klonowanie głosu (określane też jako „deepfake audio”). Są one łatwe w obsłudze i tanie, a jednocześnie trudne do wykrycia.

Czym jest klonowanie głosu?

Klonowanie głosu polega na odtworzeniu barwy głosu konkretnej osoby za pomocą sztucznej inteligencji. Najpopularniejsze platformy, takie jak ElevenLabs, oferują tę usługę za niewielką opłatą. Za niespełna pięć złotych (1 USD – za pierwszy miesiąc) możemy sklonować praktycznie każdy głos. Wystarczy pięciominutowa próbka, którą załadujemy na platformę ElevenLabs, i wpisując tekst w odpowiednie okno dialogowe, możemy sprawić, że dowolna osoba wypowie dowolną kwestię.

Źródło: ElevenLabs

Powszechna dostępność poradników w języku polskim i angielskim sprawia, że technologia ta jest ogólnie dostępna dla przeciętnego internauty.

Deepfake audio jako zagrożenie dla demokracji

Wybory w Słowacji

Kilka dni przed wyborami w Słowacji na platformach społecznościowych zaczęło krążyć nagranie, w którym słychać głos lidera tamtejszej partii Postępowa Słowacja, Michala Šimečka, oraz dziennikarki Moniki Tódovej z Denník N. Rzekomo mieli oni rozmawiać o manipulowaniu wynikami wyborów, polegającym na kupowaniu głosów od marginalizowanej mniejszości romskiej.

Wybory w Słowacji
Źródło: Facebook, Peter Marcek

Nagranie zostało bardzo szybko oznaczone jako fałszywe przez organizację sprawdzającą fakty AFP, jednak – co kluczowe – ukazało się w okresie ciszy wyborczej, co ograniczyło możliwość jego publicznego zdementowania przez polityków.

Przywódca brytyjskiej opozycji, Sir Keir Starmer, ofiarą deepfake audio

Sir Keir Starmer, lider brytyjskiej Partii Pracy, również został ofiarą klonowania głosu. W nagraniu, które pojawiło się na Twitterze, rzekomo krytykuje on w niewybrednych słowach członków swojej partii oraz miasto Liverpool. Obydwa nagrania były sfałszowane, jednak do tej pory pozostają w obiegu. Na portalu X tweet z nagraniem ma już ponad 1,5 miliona wyświetleń i nadal nie został oznaczony jako zmanipulowany.

Fake Keir Starmer audio
Źródło: X/leo_hutz

Inne przypadki w Europie i na świecie

Jak podaje Washington Post, według organizacji NewsGuard 17 namierzonych kont na TikToku wykorzystywało sztuczną inteligencję do tworzenia fałszywych narracji, generując łącznie 336 milionów wyświetleń i 14,5 miliona polubień. W ostatnich miesiącach konta te umieszczały wygenerowane przez AI nagrania zawierające fałszywe przekazy. Twierdzono w nich na przykład, że były prezydent USA Barack Obama jest powiązany ze śmiercią swojego osobistego kucharza,  że Oprah Winfrey jest „handlarką seksualną” oraz że aktor Jamie Foxx został sparaliżowany i oślepiony przez szczepionkę na COVID-19. TikTok usunął te materiały dopiero po tym, jak został o nich poinformowany przez NewsGuard.

Klonowanie głosu w Polsce: Od polityki po #PandoraGate

W Polsce technologia klonowania głosu nie wywołała jeszcze poważniejszych skandali, lecz jej rosnąca obecność i użycie wzbudzają kontrowersje i nie pozostają bez echa w społeczeństwie.

Polityczne eksperymenty: casus Platformy Obywatelskiej

W ramach jednego z kampanijnych spotów Platforma Obywatelska zdecydowała się na wykorzystanie sklonowanego głosu Mateusza Morawieckiego, by ukazać wewnętrzne napięcia w obozie rządzącym. W nagraniu słychać głos łudząco podobny do głosu premiera, który czyta maile pochodzące ze skrzynki Michała Dworczyka. Treść dotyczy nielojalności Zbigniewa Ziobry, co jest kontrastem do zacytowanej wcześniej wypowiedzi Mateusza Morawieckiego z mównicy sejmowej, gdzie twierdzi on, że Zjednoczona Prawica jest „twarda jak stal”.

Platforma Obywatelska Deepfake Audio
Źródło: X/Platforma_org

Zaskakujący eksperyment wywołał falę krytyki, co zmusiło partię do późniejszego wyjaśnienia, że głos został wygenerowany za pomocą AI. W późniejszych działaniach Platforma Obywatelska była już bardziej transparentna, informując o użyciu technologii w treści postów.

Platforma Obywatelska: Lektor wygenerowany przez AI
Źródło: X/Platforma_org

#PandoraGate: Youtuberzy, pedofilia i technologia

Jednym z wydarzeń, które wstrząsnęło polską opinią publiczną, był skandal związany z oskarżeniami o pedofilię wśród znanych polskich youtuberów, zwany #PandoraGate. Konopskyy, jeden z twórców wideo, który pomógł ujawnić aferę, zastosował technologię deepfake audio w swoim filmie. Wykorzystano AI, żeby wygenerować głos Stuarta „Stuu” w celu lepszej ilustracji tematu, o którym mowa w nagraniu. Co ważne, Konopskyy jasno i czytelnie zaznaczył, że głosy są wygenerowane przez sztuczną inteligencję.

Konopskyy, Klonowanie głosu, deepfake audio
Źródło: YouTube, Konopskyy

TikTok, Jarosław Kaczyński i… Minecraft

TikTok, platforma w zamyśle służąca rozrywce, został wręcz zalany nagraniami, w których politycy wypowiadają nieistniejące kwestie. Znaleźć tam można m.in. filmy, w których Jarosław Kaczyński wypowiada się w niewybredny sposób o swoich oponentach lub gdzie razem z prezydentem Andrzejem Dudą grają w Minecrafta.

Jarosław Kaczyński i Andrzej Duda grają w Minecrafta
Źródło: TikTok/florek1

Mimo humorystycznego wydźwięku takie przypadki skłaniają do refleksji nad potencjalnie poważnymi konsekwencjami klonowania głosu.

Reakcja gigantów społecznościowych

Platformy społecznościowe nie zareagowały adekwatnie do skali problemu. W przypadku nagrań Sir Keira Starmera X (dawniej Twitter) nie umieścił żadnego ostrzeżenia, że nagranie może być zmanipulowane. Nadal widnieje ono w serwisie i generuje dezinformację. Meta i Google mają pracować nad rozwiązaniami pomagającymi w oznaczaniu treści jako wygenerowanych przez AI, ale na razie rezultatów nie widać. W tym momencie cały problem zrzucony jest na barki organizacji fact-checkingowych i mediów. To właśnie fact-checkerzy oznaczyli film Michala Šimečka jako manipulację. Rola Facebooka była marginalna, ponieważ nagranie zostało jedynie specjalnie oznaczone, a nie usunięte. Nadal można je obejrzeć i przesłuchać, a przy odrobinie wysiłku pobrać i rozpowszechniać dalej.

TikTok również ma pracować nad narzędziami, które automatycznie klasyfikują treści wygenerowanie przez AI. W tej chwili proces odbywa się tylko ręcznie. Gigant usuwa manipulacje oparte na AI w przypadku bardzo popularnych nagrań, kiedy roszczenie zgłasza osoba publiczna. Tak było w przypadku Toma Hanksa, którego głos i wizerunek zostały wykorzystane do reklamowania produktów dentystycznych bez jego wiedzy i zgody, lub deepfake’a z Mr.Beast, który reklamował scam z iPhone.

Wykrywanie deepfake audio

Niestety, jak dotąd, brakuje skutecznych narzędzi do wykrywania głosów wygenerowanych przez AI, co sprawia, że klonowanie głosu jest trudne do wykrycia. Przykładowo, ElevenLabs udostępniło klasyfikator, który ma wykrywać, czy dane nagranie jest wygenerowane przez ElevenLabs bądź zmanipulowane, ale wystarczy dodać w tle jakieś zakłócenia (np. śpiew ptaków czy odgłosy samochodów) i klasyfikator kompletnie sobie nie radzi. Oto przykład:

Za pomocą ElevenLabs wygenerowaliśmy proste nagranie oparte o jeden z wielu dostępnych syntezatorów głosu. Nagranie poniżej:

Wynik klasyfikacji:

Klonowanie głosu - Rezultaty
Klonowanie głosu – rezultaty

Jest bardzo prawdopodobne, że ten plik audio został wygenerowany za pomocą ElevenLabs.

Czyli klasyfikator poprawnie rozpoznał, że materiał jest wygenerowany przez AI.  Dodajmy jednak dźwięki w tle, śpiew ptaków, odgłosy samochodów. Rezultat:

Wynik klasyfikacji:

Klonowanie głosu - Rezultaty
Klonowanie głosu – rezultaty

Jest bardzo mało prawdopodobne, że ten plik audio został wygenerowany za pomocą ElevenLabs lub dźwięk został zmanipulowany.

Wystarczyło delikatnie „zabrudzić” nagranie i już klasyfikator ElevenLabs zwraca informację, że prawdopodobieństwo wygenerowania przez AI spada z 98% do 6,7%.

Modyfikacja pliku dźwiękowego zajęła nam 2 minuty. Ten mały eksperyment pokazuje, jak trudne jest wykrywanie tego typu manipulacji. Sprawą oczywistą jest, że potencjalni aktorzy dezinformacji będą zniekształcać nagranie, aby utrudnić jego weryfikację, co sprawi, że dostępne obecnie klasyfikatory stają się bezużyteczne.

Podsumowanie

Technologia klonowania głosu rozwija się w błyskawicznym tempie i stwarza nowe wyzwania dla demokracji i prawdziwości przekazu medialnego. W tym momencie tylko wspólny wysiłek mediów, organizacji fact-checkingowych i platform społecznościowych może stanowić minimalną barierę przed rozprzestrzenianiem się dezinformacji w tej formie. Miejmy nadzieję, że w najbliższej przyszłości pomogą w tym również rozwiązania technologiczne, które nie są obecnie dostępne dla ogółu.

Źródła:

The Washington Post: https://www.washingtonpost.com/technology/2023/10/13/ai-voice-cloning-deepfakes/

Wired: https://www.wired.co.uk/article/slovakia-election-deepfakes

AFP: https://fakty.afp.com/doc.afp.com.33WY9LF

Bloomberg: https://www.bloomberg.com/news/articles/2023-09-29/trolls-in-slovakian-election-tap-ai-deepfakes-to-spread-disinfo

Money: https://www.money.pl/gospodarka/po-w-spocie-wygenerowala-glos-premiera-przez-ai-strzal-w-stope-6934140360145856a.html

News.com.au: https://www.news.com.au/entertainment/tom-hanks-insists-aicreated-dental-ad-had-nothing-to-do-with-him/video/0c0a55135842bd3cf8e07d8cdd0cbe57

DIG.watch: https://dig.watch/updates/meta-platforms-develops-labels-for-ai-generated-content 

Wirtualnemedia.pl: https://www.wirtualnemedia.pl/artykul/pandora-gate-sylwester-wardega-stuu-boxdel-dubiel-fagata-pedofilia 

Factcheckhub: https://factcheckhub.com/ai-voice-technology-used-to-create-misleading-videos-on-tiktok-report/

NBC News: https://www.nbcnews.com/tech/internet/evidence-free-conspiracy-theories-obamas-chef-get-boost-x-formerly-kno-rcna96255

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułW niedzielę Zastal gra we Wrocławiu. Śląsk właśnie zwolnił trenera Vidina
Następny artykułZmodernizowano drogi dojazdowe do pól w Gminie Borzęcin