A A+ A++

W poprzednim kwartale Meta zidentyfikowała około 2000 kont na Facebooku, które naruszyły jej zasady przeciwdziałające skoordynowanym nieautentycznym zachowaniom. Obejmują one głównie konta publikujące fałszywe wiadomości polityczne i kampanie wywierające wpływ, które szerzące propagandę, a krajem o największej takiej liczbie jest Izrael (przypominamy, że Rosja zbanowała Facebooka, więc nie brała udziału w tym rankingu).

Kwartalny raport Meta na temat zagrożeń kontradyktoryjnych obejmuje badania sześciu nowych tajnych operacji wywierania wpływu, które zakłóciła, w tym z Bangladeszu, Chin, Chorwacji, Iranu, Izraela oraz sieci CIB, której celem była Mołdawia i Madagaskar. Podczas gdy Meta usunęła 1326 kont na Facebooku niewiadomego pochodzenia, krajem, z którego powstała największa liczba takich kont, był Izrael, gdzie usunięto ich 510, 11 stron, jedną grupę i 32 konta na Instagramie.

W poprzednim kwartale Meta zidentyfikowała około 2000 kont na Facebooku, które naruszyły jej zasady przeciwdziałające fake’om.

Docelową grupą odbiorców byli głównie mieszkańcy Stanów Zjednoczonych i Kanady. Fałszywe konta, które pozowały na żydowskich studentów, Afroamerykanów lub „zaniepokojonych obywateli”, zamieszczały głównie posty na temat wojny Izraela z Hamasem, w tym wezwania do uwolnienia zakładników, pochwały działań militarnych Izraela oraz krytykę antysemityzmu na kampusach, Agencji Narodów Zjednoczonych ds. Pomocy i Robót (UNRWA) oraz muzułmanów, twierdząc, że „radykalny islam” stanowi zagrożenie dla wartości liberalnych w Kanadzie.

Meta pisze, że choć operatorzy kont próbowali ukryć swoją tożsamość, znalazła powiązania ze Stoic, firmą zajmującą się marketingiem politycznym i wywiadem gospodarczym z siedzibą w Tel Awiwie w Izraelu. Meta zbanowała grupę i wydała nakaz zaprzestania działalności. Na stronie internetowej Stoic znajduje się informacja, że ​​wykorzystuje ona generatywną sztuczną inteligencję do „tworzenia ukierunkowanych treści i szybkiego rozpowszechniania ich organicznie na odpowiednich platformach”. Podobne posty wykryto w YouTube i X. Większość z nich to odpowiedzi wygenerowane przez sztuczną inteligencję na często niepowiązane treści innych użytkowników.

„Wyglądało na to, że ta kampania kupiła od Wietnamu nieautentyczne zaangażowanie (tj. polubienia i obserwujących), próbując sprawić, by jej treści wyglądały na bardziej popularne niż w rzeczywistości” – pisze Meta. Firma twierdzi, że pomimo wykorzystania w tej kampanii generatywnej sztucznej inteligencji nie zaobserwowała, aby jej autorzy wykorzystywali fotorealistyczne media przedstawiające polityków generowane przez sztuczną inteligencję jako szerszy trend. Technologia ta ograniczała się dotychczas do tworzenia zdjęć i obrazów, czytania wiadomości wideo generowanych przez sztuczną inteligencję oraz generowania tekstu. „W tej chwili nie obserwujemy wykorzystywania sztucznej inteligencji generacji w szczególnie wyrafinowany sposób” – powiedział David Agranovich, dyrektor ds. polityki w firmie Meta ds. eliminowania zagrożeń. 

Chiny to kolejny kraj, który Meta określiła jako miejsce pochodzenia fałszywych kont (37). Chociaż żadna z opublikowanych treści usuniętych przez Meta nie była związana ze zbliżającymi się wyborami w USA, Microsoft w zeszłym miesiącu ostrzegł, że cyberprzestępcy w tym państwie azjatyckim wykorzystują generatywną sztuczną inteligencję do siania niepokoju i zamieszania w Stanach Zjednoczonych w roku wyborczym.





Obserwuj nas w Google News

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułŚwiadczenie dla niepełnosprawnych – słuchacze skarżą się na opieszałość w wypłatach
Następny artykułPolicyjny pies wywęszył walizkę z narkotykami