A A+ A++

Słowa zostały napisane, ale na szczęście prezydent USA nigdy ich nie wygłosił – aż do teraz. Mowa o przemówieniu po nieudanym lądowaniu na Księżycu, które dzięki sztucznej inteligencji wybrzmiały w pełnej krasie, udowadniając przy tym, jak niebezpieczne mogą być fake newsy.

“Dobry wieczór, moi drodzy Amerykanie. Los zdecydował, że ludzie, którzy polecieli na Księżyc w pokojowej misji badawczej, pozostaną na Księżycu, by spocząć tam w pokoju” – słowa te napisano dla Richarda Nixona, 37. prezydenta Stanów Zjednoczonych Ameryki, na wypadek, gdyby załoga misji Apollo 11 20 lipca 1969 r. zginęła w czasie próby wylądowania na Srebrnym Globie. 

Jak doskonale wiemy, tekst z przemówieniem mógł jednak pozostać w szufladzie, a Neil Armstrong faktycznie jako pierwszy człowiek postawił stopę na ziemskim satelicie.

51 lat później grupa ekspertów z MIT (Massachusetts Institute of Technology) opublikowała wideo, na którym widzimy, co stałoby się, gdyby historia zaserwowała nam ten drugi scenariusz. 

Opublikowany w serwisie YouTube film nosi tytuł “In Event of Moon Disaster” (“W wypadku katastrofy na Księżycu”) i rozpoczyna się planszą ze słowami “to co zobaczycie, nie jest prawdziwe”. Po kilku minutach widz na własne oczy przekonuje się, dlaczego takie ostrzeżenie było konieczne.

Na filmie widzimy Richarda Nixona odczytującego cały tekst wspomnianego przemówienia. Sfilmowany, ale nigdy nie użyty materiał filmowy? Sobowtór udający ówczesnego prezydenta USA? Nic z tych rzeczy. Opublikowany klip to tak zwany deepfake, czyli zmanipulowany przy użyciu sztucznej inteligencji materiał wideo. 

W skrócie: komputer “uczy się” zastępować fragmenty obrazu – w tym wypadku mowa o twarzy i jej ruchach – nowymi elementami w sposób nierozróżnialny dla widza. 

Nieistniejące przemówienie Nixona należy traktować jako coś więcej niż ciekawostkę. To również forma ostrzeżenia przed dezinformacją. Telewizyjne nagranie sprzed ponad pół wieku to eksperyment, preparowanie wypowiedzi obecnych polityków i rozpowszechnianie ich poprzez media społecznościowe może poważnie wpłynąć na przykład na wynik wyborów. 

Deepfake’i mogą stać się również bardzo niebezpiecznym narzędziem w rękach szantażystów. Już w 2017 r. w serwisach oferujących pornografię pojawiły się niedwuznaczne filmy wideo z aktorkami, na które nałożono twarze takich gwiazd jak Taylor Swift i Gal Gadot. 

Należy w tym miejscu zaznaczyć, że dostęp do tej technologii jest coraz szerszy i łatwiejszy. Posiadając odpowiednie umiejętności deepfake’a można wygenerować samemu nawet przy pomocy niedrogiego komputera.

Obecnie w serwisie YouTube bardzo popularne jest wstawianie twarzy popularnych aktorów do filmów, w których nigdy nie zagrali. Świetnym przykładem jest zamieszczone powyżej wideo (blisko 10 milionów wyświetleń w serwisie YouTube) , w którym widzimy Roberta Downey Jr. i Toma Hollanda w głównych rolach w pierwszym “Powrocie do przyszłości”. 

Pozostaje mieć nadzieję, że ten rodzaj sztucznej inteligencji jak najdłużej będzie służył nam tylko do zabawy. W przeciwnym razie potrzeba będzie czegoś więcej, niż prawdziwej inteligencji, aby walczyć z niebezpieczną … czytaj dalej

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułUkradł części do aut z kontenerów kolejowych
Następny artykułZostawiłeś rower na ulicy? Zgłoś się na policje