A A+ A++

Wygenerowany przez sztuczną inteligencję obraz przedstawiający Taylor Swift w stroju Uncle Sama, fałszywie sugeruje, że gwiazda popiera Donalda Trumpa w wyborach prezydenckich. I nie jest to drobnostka, która pozostanie bez znaczenia w czasie tych, i przyszłych kampanii politycznych.

W ostatni weekend Donald Trump – niby żartobliwie – udostępnił ten obraz na Truth Social, założonej przez siebie platformie społecznościowej (stworzył ją po tym jak otrzymał bany na wszystkich innych). Czas pokaże, czy wprowadził nim w błąd wyborców i czy zrobił to na tyle, by zmienić swoje polityczne losy. Eksperci ostrzegają przed rosnącym zagrożeniem dezinformacją, zwłaszcza z wykorzystaniem narzędzi AI, które umożliwiają szybkie tworzenie fałszywych zdjęć i filmów. Problem urasta do gigantyczny rozmiarów w obliczu trwającej kampanii prezydenckiej w USA i na pewno przełoży się także na inne państwa.

Dezinformacja w służbie polityki

Hany Farid, profesor z UC Berkeley, ostrzega, że możliwości, jakie daje generowanie realistycznych obrazów przez AI, nasila problemy związane z rozprzestrzenianiem się fake newsów, które trwają od dekady. Wzrost popularności narzędzi takich jak ChatGPT, sprawia, że fałszywe treści mogą być tworzone i rozpowszechniane w mediach społecznościowych szybciej niż kiedykolwiek, a ich kontrolowanie jest praktycznie niemożliwe. Farid zauważył też, że obraz taki jak ten Taylor Swift rozpowszechniony przez Donalda Trumpa, to w zasadzie pomieszanie prawdziwych i fałszywych zdjęć, co stanowi „podstępny” sposób szerzenia dezinformacji.

Problem urasta do gigantyczny rozmiarów w obliczu trwającej kampanii prezydenckiej w USA i na pewno przełoży się także na inne państwa.

Kampanie polityczne na całym świecie próbują przygotowywać się na potencjalne zagrożenia związane z deepfake’ami. W USA, które powinno w tym przodować, przepisy federalne nie regulują jeszcze bezpośrednio kwestii takich treści, co sprawia, że problem jest trudny do opanowania w skali globalnej. Firmy odpowiedzialne za największe sieci social media próbują bowiem balansować między moderacją publikowanej na nich zawartości a wolnością słowa, stając w rozkroku między dbaniem o prawdę a zniechęcaniem do siebie użytkowników.

Czy Fake to parodia?

A co gdyby poczucie humoru miało być tym, co będzie chronić osoby tworzące fałszywe informacje? Gubernator Gavin Newsom wyraził w lipcu poparcie dla ustawy, która zakazywałaby wykorzystywania AI do zmiany głosu w reklamach wyborczych, po tym jak Elon Musk udostępnił na Twitterze film, w którym za pomocą AI podrobiono głos Kamali Harris. Musk, który popiera Trumpa, później wyjaśnił, że wideo miało charakter parodii. I faktycznie: pastisz i parodia to coś, czego trudno zakazać. Tylko czy w obecnej, mocno zdigitalizowanej polityce da się ją odróżnić od prawdziwych nagrań i kto mógłby o tym decydować?

Amerykański związek aktorów i artystów telewizyjnych i radiowych apeluje o wprowadzenie przepisów dotyczących deepfake’ów, podkreślając, że fałszywe informacje mogą mieć poważne skutki w rzeczywistości, zwłaszcza podczas wyborów. Jest to zresztą coś, co zmusiło gildię aktorów do strajków, gdy okazało się, że największe wytwórnie mają zakusy na to, by nabyć prawa do ich głosów i wizerunków, oraz poprzez AI dowolnie nimi manipulować i bez ograniczeń używać w kolejnych filmach (a za te użycia aktorzy nie dostawaliby już wynagrodzenia).

Jak prowadzić kampanię wyborczą, gdy każdy sukces druga strona może nazwać manipulacją?

Mimo tego, że kolejne regulacje (i zapewne pozwy) są coraz bliżej, wielu ekspertów od dezinformacji jest sceptycznych względem tego, czy platformy społecznościowe w ogóle będą w stanie skutecznie moderować treści, które wprowadzają ich użytkowników w błąd. Większość przychodów tych platform pochodzi z reklam, dlatego utrzymanie aktywności użytkowników jak najdłużej jest dla nich kluczowe, a najbardziej angażujące treści, to te, które są pełne spisków, nienawiści, sensacji i gniewu. Taką zawartość najłatwiej wygenerować bez zwracania uwagi na to czy podaje się dalej informację prawdziwą, czy fałszywą.

Możliwe, że wszyscy kłamią

W trakcie kampanii prezydenckiej pojawiły się kontrowersje dotyczące autentyczności tłumów na wiecach wyborczych. Na jednym z takich wieców w Detroit, na którym przemawiała Kamala Harris, pojawiło się 15 tysięcy osób. Donald Trump i jego zwolennicy twierdzili, że tłum na zdjęciu, pokazywany w mediach, został zmanipulowany za pomocą sztucznej inteligencji. Profesor Hany Farid z Uniwersytetu Kalifornijskiego w Berkeley przeanalizował materiały i stwierdził, że nie mają śladów manipulacji. Tylko co z tego skoro ziarno niepewności już zostało zasiane?

Jesteśmy u progu tego, by na podstawie próbek głosu można było bezbłędnie sfabrykować wypowiedź każdego, w każdym języku.

Sytuacja ta ilustruje problem zjawiska tzw. „dywidendy kłamcy”. Skoro technologia deepfake umożliwia spreparowanie każdego zdjęcia i nagrania, to łatwo się nią posługiwać do podważania rzeczywistości. Jak prowadzić kampanię wyborczą, gdy każdy sukces druga strona może nazwać manipulacją? Jak cokolwiek zaprezentować, gdy przeciwnik polityczny może swobodnie mówić, że jest to spreparowane? Obowiązek udowodnienia, że tak nie jest, spada przecież wtedy na stronę oskarżoną, a nie oskarżyciela… W rezultacie debata na temat tego, co jest prawdziwe, a co sfabrykowane, staje się coraz trudniejsza do rozwiązania. Sytuacja ta podważa fundamenty demokratycznych decyzji, wśród których najważniejszą jest wybór, na kogo zagłosujemy.

Komu służy chaos informacyjny?

Uczciwym zawsze jest trudniej – co sprawdza się w nawet w wątpliwym moralnie świecie polityki. Jesteśmy u progu tego, by na podstawie próbek głosu można było bezbłędnie sfabrykować wypowiedź każdego, w każdym języku. Jeżeli coś takiego trafi do grona mniej wyczulonych na możliwości AI osób, to słowa, które usłyszą – i pogrążą w ich oczach jakiegoś kandydata – będą decydujące. Dotarcie do takich osób z informacją, że to, co widzieli to nieprawda i dali się nabrać może być nie tylko trudne, ale i daremna. Jesteśmy o krok od czasu kiedy każdy będzie mógł wygenerować wideo kompromitujące dowolną osobę i wrzucić to w sieć. Jeżeli zarówno dostawcy technologii, jak i instytucje państwowe szybko sobie z tym nie poradzą, znajdziemy się w bardzo trudnej sytuacji.

Jesteśmy o krok od czasu kiedy każdy będzie mógł wygenerować wideo kompromitujące dowolną osobę i wrzucić to w sieć.

Nie jest to tylko problem USA, podobnie działa już rosyjska propaganda, która miała ogromny wpływ na amerykańskie wybory gdy prezydentem zostawał Donald Trump. I wszystko to stało się za sprawą konsekwentnych kampanii na social media tworzonych przez farmy trolli. Teraz możliwe, że te farmy będą jeszcze bardziej wydajne, a problem nie ograniczy się tylko do tego, że Trump użył zmodyfikowanego zdjęcia Taylor Swift, a Harris musiała udowadniać, że miała kilkanaście tysięcy osób na swoim wiecu. Bo komu z nich byśmy nie kibicowali – amerykańscy kandydaci różnią się między sobą nawet w podejściu do firm technologicznych i sztucznej inteligencji. 

Polityczne rozdroża regulowania AI 

Harris i Trump mają inne spojrzenie na kluczowe kwestie polityki technologicznej, takie jak regulacja sztucznej inteligencji (AI), egzekwowanie przepisów antymonopolowych, czy regulacja rynku kryptowalut. Gdyby Harris wygrała, najpewniej kontynuowałaby politykę Joe Bidena, dążąc do silniejszego nadzoru publicznego i ochrony konsumentów, podczas gdy Trump skłaniałby się ku lżejszym regulacjom i większemu wsparciu dla „dużego” biznesu.

Dekret Bidena z października 2023 roku, dotyczący sztucznej inteligencji przewiduje zwiększoną kontrolę publiczną nad AI. Trump po zdobyciu władzy ma zamiar uchylić ten dekret. Byłby także mniej skłonny do agresywnej egzekucji prawa antymonopolowego wobec największych amerykańskich firm, wspierając ich fuzje i przejęcia technologiczne.

To, co się wydarzy w listopadzie w USA, z dużym prawdopodobieństwem będzie powtarzane w kolejnych krajach świata

Kolejną kwestią, w której kandydujący na fotel prezydenta USA mocno się różnią, są podatki dla miliarderów z branż technologicznych. Trump chce przedłużyć swoje obniżki podatkowe z 2017 roku, podczas gdy Harris prawdopodobnie utrzyma podejście Bidena, zakładające zwiększenie podatków dla najbogatszych, aby finansować usługi publiczne. Regulacja kryptowalut to także obszar, w którym Trump ostatnio złagodził swoje stanowisko, popierając lżejszą ingerencję państwa, natomiast Harris skłania się ku surowszemu podejściu, zwiększającemu przejrzystość i ochronę konsumentów.

Czy wobec takich różnic i chęci Trumpa do korzystania z argumentów poprzez AI (na swoją korzyść, albo by podważać kontrkandydatkę) możemy mówić o w pełni demokratycznej walce? Można przecież założyć, że mimo swych postępowych poglądów prywatni biznesmeni trzymający w garści najnowocześniejsze technologie, będą bardziej zadowoleni ze zwycięstwa konserwatywnego Trumpa. To, kto wygra, będzie sygnałem dla innych państw i to, co się wydarzy w listopadzie w USA, z dużym prawdopodobieństwem będzie powtarzane w kolejnych krajach świata.

Można nabrać cały świat

Fala deepfake’ów wygenerowanych przez sztuczną inteligencję powiązanych z wyborami w Europie i Azji, zalewa media społecznościowe od miesięcy. Nie są one elementem, tylko amerykańskiego krajobrazu – ponad 50 krajów, których obywatele w tym roku idą do urn, także jest zagrożonych kampaniami dezinformacyjnymi.

Henry Ajder, czołowy ekspert w dziedzinie AI z Cambridge, podkreśla, że pytanie nie brzmi czy deepfake’i wpłyną na wybory, tylko jak bardzo będą one wpływowe. Zalew takich treści na stałe podważył zaufanie publiczne do tego, co można zobaczyć i usłyszeć. To ograniczone zaufanie nie oznacza jednak (pradoksalnie), że ludzie stali się odporni na oszustwa. 

Pytanie nie brzmi czy deepfake’i wpłyną na wybory, tylko jak bardzo będą one wpływowe.

Słynne przykłady, sfabrykowanych w ten sposób newsów obejmują wideo z prezydent Mołdawii wspierającą prorosyjską propagandę, czy fałszywe nagrania audio lidera partii liberalnej na Słowacji chcącego rzekomo zwiększyć ceny piwa w kraju (!). Jak zauważa Ajder, wraz z postępem technologii, ostateczne odpowiedzi na temat wielu fałszywych treści będą trudne do uzyskania. Takie narzędzie w rękach ludzi, którzy mają pieniądze i chcą mieć ich jeszcze więcej, jest bardzo groźne. 

Rodzi się tutaj pytanie: czy należy zakazywać czegoś, co może mieć ogromny pozytywny wpływ na naszą rzeczywistość? Bez uciekania w górnolotne porównania, obecny postęp AI przypomina to co się działo po wynalezieniu dynamitu przez Alfreda Nobla. Byle na samym końcu, po sezonie burz, wyszło nam to wszystko na dobre.





Obserwuj nas w Google News

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułНа камеру потрапило, що робив на трибуні Мудрик після пропущеного голу від Албанії. Відео
Następny artykułKsiądz, bliski rządowi Orbána, brał udział w homoseksualnych orgiach. Atakował LGBT