Sztuczna inteligencja ma zarówno jasne, jak i ciemne strony. Do tych drugich z pewnością zaliczają się aplikacje służące do “rozbierania” kobiet. Zainteresowanie tego typu oprogramowaniem opartym na AI jest coraz większe i zaczyna przypominać plagę. Po narzędzia takie sięgają już miliony osób na całym świecie.
Aplikacje oparte na sztucznej inteligencji mają różne zastosowania. Wiele z nich to bardzo użyteczne narzędzia, ale są też takie, które można sklasyfikować w ramach “ciemnej strony AI”. Do takich z pewnością zalicza się oprogramowanie typu “nudify”, któremu bliżej przyjrzeli się specjaliści z firmy Graphika.
Badacze z firmy Graphika przeanalizowali ruchy i trendy w internecie, gdzie zaobserwowano, że aplikacje oparte na AI służące do “rozbierania” kobiet bardzo mocno zyskują na popularności. Tylko we wrześniu 2023 r. zauważono, że strony z podobnymi narzędziami zostały odwiedzone przez aż 24 mln internautów.
Problem narasta, co widać po ruchu w sieci. Z informacji ujawnionych przez firmę Graphika wynika, że od początku br. liczba linków odsyłających do stron internetowych powiązanych z zagadnieniem “nudify” wzrosła aż o 2400 proc.! W szczególności obserwuje się to w platformach X (dawniej Twitter) oraz Reddit.
Do tego dochodzą grupy na Telegramie poświęcone podobnym narzędziom opartym na sztucznej inteligencji i część z nich również gromadzi wielu internautów. Co najmniej 53 takie “społeczności” mają po milion lub więcej użytkowników.
Jeśli zastanawiacie się nad tym, jak działa tego typu oprogramowanie, to odpowiedź jest prosta. Specjalne algorytmy pozwalają na podstawie prawdziwych zdjęć wygenerować fałszywe obrazy rozebranych osób. Takie fotki można pobrać z publicznie dostępnych profili z Instagramu czy innych mediów społecznościowych. Następnie AI przetwarza je i “dorabia” nieprawdziwe elementy do zdjęć.
Problem jest duży, bo tego typu przerobione zdjęcia można wykorzystać później na przykład w ramach szantażu. Nawet jeśli są nieprawdziwe, to mogą zostać użyte w niecnych celach, a hist … czytaj dalej
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS