„Nie miałem z tym nic wspólnego” – poinformował aktor, chcąc przestrzec swoich fanów przed sztuczną inteligencją, dzięki której wykorzystano jego wizerunek w kampanii reklamowej. Według Hanksa, podobizna jego postaci została użyta bez jego zgody.
Na wstawionym przez aktora na publicznym Instagramie obrazku możemy przeczytać: „UWAGA!!! Pojawiło się wideo promujące jakiś plan opieki stomatologicznej z wygenerowaną przez AI wersją mnie. Nie mam z tym nic wspólnego”. Wstawione zdjęcie jest zrzutem ekranu z nagrania, na którym pojawił się wizerunek Hanksa.
Według portalu Gizmodo, aktor nie ujawnił organizacji stojącej za deepfakiem. Pytany o komentarz, nie udzielił odpowiedzi odnośnie sprawców niepokojącego zamieszania.
Gdzie są granice sztucznej inteligencji?
Jak podaje dziennik The Guardian, aktor już w przeszłości wyrażał obawy, związane z wykorzystywaniem sztucznej inteligencji w telewizji i filmach. Z drugiej strony, zdobywca Oscara nie sprzeciwiał się w dawnych latach zatwierdzaniu cyfrowo zmienionych wersji siebie.
Kilka miesięcy temu, Tom Hanks udzielił wywiadu w podcaście Adama Buxtona. Rozważał tam wdrażanie niektórych rozwiązań, związanych ze sztuczną inteligencją, szczególnie w odniesieniu do występów trwających po śmierci sławnej osoby.
„Jutro może mnie potrącić autobus i to wszystko, ale występy mogą trwać i trwać” – powiedział Hanks. „Poza zrozumieniem sztucznej inteligencji i deepfake, nic nie powie ci, że to nie ja i ja sam. I będzie miał pewien stopień realistycznej jakości. To z pewnością wyzwanie artystyczne, ale także prawne” – dodał.
Inne przypadki nadużyć ze strony AI
Kiedy ostrzeżenie Hanksa rozprzestrzeniło się w mediach, w szczególności w New York Times, następnego dnia prezenterka CBS Gayle King ostrzegła przed podobnym przypadkiem wykorzystywania cudzego wizerunku. Poinformowała, że jej podobizna bez konsultacji z twórcami znalazła się w reklamie produktu odchudzającego.
Źródło: Publiczny profil instagramowy Gayle King.
„Ludzie ciągle wysyłają mi ten film i pytają o ten produkt, a ja nie mam NIC wspólnego z tą firmą… 31 sierpnia opublikowałam ten film promujący moją audycję radiową (przesuń, aby zobaczyć oryginał), a oni zmanipulowali mój głos i wideo, aby sprawiał wrażenie, jakbym go promowała… Nigdy nie słyszałam o tym produkcie ani go nie używałam! Nie dajcie się zwieść tym filmom poświęconym sztucznej inteligencji…”. – Taki post zamieściła prezenterka na Instagramie.
Innym przykładem jest przypadek córki Robina Williamsa. Zelda wyraziła publiczne zaniepokojenie wykorzystaniem sztucznej inteligencji do odtworzenia głosu jej zmarłego ojca. Określiła tę technologię mianem “niepokojącej”. Magazyn Deadline poinformował, że córka Williamsa wydała oświadczenie na Instagram Stories:
Źródło: Deadline.com
„Nie jestem bezstronnym głosem w walce SAG z AI. Przez LATA byłam świadkiem, jak wiele osób chce szkolić te modelki, aby tworzyły/odtwarzały aktorów, którzy nie mogą wyrazić zgody, jak tata (…) Słyszałam już, że AI używała swojego “głosu”, aby powiedzieć, co ludzie chcą, i chociaż osobiście uważam to za niepokojące, konsekwencje wykraczają daleko poza moje własne uczucia. Żyjący aktorzy zasługują na szansę tworzenia postaci z ich wyborami, głosowania kreskówek, wkładania LUDZKIEGO wysiłku i czasu w pogoń za występem.” – czytamy w oświadczeniu.
Robin Williams, ojciec Zeldy, zmarł śmiercią samobójczą w 2014 roku, w wieku 63 lat. Zmagał się z depresją oraz chorobą Parkinsona. Autopsja wykazała, że cierpiał również na demencję z ciałami Lewy’ego.
Ciemna strona AI
Sztuczna inteligencja umożliwia swobodne generowanie obrazów oraz zdjęć, przedstawiających niemal każdą możliwą treść. Wadą tego zjawiska jest otwarte pole do tworzenia i rozpowszechniania fałszywych informacji w formie wizualnej. Wizerunek każdego człowieka może być wykorzystany na jej niekorzyść. AI pozwala też na tworzenie zupełnie nowych osób, nieistniejących w świecie rzeczywistym.
Instagram od dawna zmaga się z problemem kont, które w avatarach nie mają zdjęć prawdziwych osób, lecz wygenerowanych przez sztuczną inteligencję. Jakby tego było mało, nadeszła kolejna plaga w postaci próbek głosu oraz video, które zapoczątkowały erę deepfake’ów.
Można stworzyć film z wizerunkiem znanej osoby, który wygłasza głosem faktycznego człowieka kontrowersyjne poglądy lub przekonania niezgodne jego światopoglądem. Problem naruszania dóbr osobistych staje się zatem powszechny i trudny do opanowania.
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS