„Będziemy jeść robaki zamiast mięsa”. „Zielony ład zrujnuje rolników” (zrujnowanych już przez import ukraińskiego zboża). „Imigranci zabierają Polakom socjal”. Do tego dodajmy korki od butelek i „dziwne okoliczności” ostatnich pożarów. Czy to jest właśnie dezinformacja? Każdy z tych komunikatów wychodzi od faktu, ale kluczowy w nich jest emocjonalny – nacjonalistyczny, antyunijny, ksenofobiczny (zaznacz właściwe) – spin, który napędza ruch w social mediach.
Jak rozchodzi się manipulacja na portalach społecznościowych
Zdaniem badaczy i badaczek szerokiemu rozchodzeniu się w sieci sensacyjnych treści sprzyja działanie algorytmów rekomendacyjnych wielkich platform (Very Large Online Platforms, czyli VLOP-ów). Celem jest angażowanie uwagi, bo ta przekłada się na przychody z reklam. Uwagę zaś przyciągają przede wszystkim treści sensacyjne czy wzbudzające strach, algorytmy premiują więc tego rodzaju komunikaty, niżej spychając te bardziej wyważone. Proces ten odbywa się to w oparciu o analizę zachowania użytkowniczek i użytkowników (w jaki sposób konkretna osoba reaguje na konkretne treści), którą określa się profilowaniem behawioralnym.
Kto na tym korzysta? Na pewno nie osoby mające konta na portalach społecznościowych. Według najnowszej ankiety YouGov* przeprowadzonej w trzech krajach (Francji, Niemczech i Irlandii) na grupie ponad 4 000 osób, 54% użytkowniczek i użytkowników social mediów uważa, że platformy społecznościowe nie robią wystarczająco dużo, żeby ograniczać wyświetlanie szkodliwych treści.
16 maja pod Komisją Europejską koalicja People vs Big Tech rozdawała darmową czekoladę i informację o jej PRAWDZIWYM składzie. W ten sposób chcieliśmy zwrócić uwagę na to, że platformy internetowe też są darmowe, a prawdziwy koszt jest nieoczywisty.
Antyunijny i nacjonalistyczny przekaz to niebezpieczne paliwo dla trwającej właśnie kampanii przed wyborami do Parlamentu Europejskiego. Jednocześnie jest to przekaz kuszący, bo ślizganie się na fali sensacji i wykorzystywanie polaryzacji gwarantuje zasięgi. Politycy biorą udział w tym wyścigu, bo widoczność w Internecie przekłada się na ich pozycję w sondażach. A mocna pozycja w sondażach przyciąga kolejnych wyborców. I tak dalej…
W ten sposób, premiując w swoich systemach rekomendacyjnych najbardziej angażujące treści, platformy internetowe mieszają w europejskiej demokracji.
Jak Unia Europejska walczy z polaryzującymi algorytmami
To zagrożenie dostrzegła Unia Europejska. I odpowiedziała na nie w 2022 r., wprowadzając w akcie o usługach cyfrowych (Digital Services Act, DSA) konkretne obowiązki i standardy dla VLOP-ów. Między innymi powinny one przeprowadzać analizę ryzyka związanego z funkcjonowaniem ich usług (taką usługą jest np. system rekomendujący treści) i wprowadzać środki, które będą minimalizować negatywny wpływ na nasze prawa podstawowe (np. prywatność i wolność wypowiedzi), fizyczny i psychiczny dobrostan i procesy demokratyczne.
Co to oznacza w praktyce? Naszym zdaniem VLOP-y powinny tak przeprogramować swoje algorytmy, żeby nie podbijały treści, które mają charakter radykalizujący, polaryzujący, dezinformujący lub nienawistny. Eksponowanie na tego typu treści w czasie kampanii wyborczej może mieć poważne konsekwencje dla procesów demokratycznych właśnie.
Co na to same platformy? Wygląda na to, że nie wszystkie i nie do końca wywiązują się ze swoich nowych obowiązków. W rezultacie Komisja Europejska, odpowiedzialna za egzekwowanie postanowień DSA, rozpoczęła oficjalne postępowania m.in. przeciwko X i Mecie.
Doppelganger używa Facebooka do nakręcania konfliktu w Unii
Najciekawsze jest wielowątkowe śledztwo przeciwko Mecie, w którym Komisja Europejska sprawdza, czy korporacja dość skutecznie przeciwdziałała dezinformacji na swoich platformach społecznościowych. Badacze z organizacji AI Forensics ujawnili szeroko zakrojoną kampanię, w ramach której tysiące reklam opłaconych przez rosyjską siatkę Doppelganger było publikowanych bez weryfikacji. Sponsorowane posty przedstawiające np. zdjęcia Taylor Swift czy Justina Biebera w towarzystwie rzekomo wygłoszonych przez nich prorosyjskich i antyukraińskich opinii docierały one do milionów użytkowniczek i użytkowników od Polski przez Niemcy po Francję, kierując ich do stron podszywających się pod prawdziwe media (np. Der Spiegel czy Le Parisien).
Polska to jeden z krajów, gdzie siatka była (jest?) najbardziej aktywna. Cel operacji wydaje się jasny: przekonać wyborców do głosowania na kandydatki i kandydatów o programach nacjonalistycznych i antyunijnych, co podsyci konflikt wewnątrz Unii – i to w momencie, kiedy współpraca między krajami jest bardzo potrzebna (dla ochrony klimatu czy wobec zagrożenia ze strony Rosji).
Przykład fałszywego postu zachęcającego do wejścia na stronę-sobowtóra prawdziwego medium (Facebook)
Tymczasem Meta wykonuje ruchy pozorne, a nawet kontrskuteczne. Np. arbitralnie ogranicza zasięgi wszystkich treści o charakterze politycznym na Instagramie i Facebooku, nie różnicując na treści zmanipulowane i treści wysokiej jakości.
Komisja stawia Meta zarzuty o to, że nie dość skutecznie moderuje sponsorowane treści, przepuszczając przez sito tysiące postów rozsiewających rosyjską dezinformację, a jednocześnie ogranicza zasięgi treści organicznych o tematyce politycznej, które mogłyby być przeciwwagą dla zorganizowanej dezinformacji – bez odpowiedniego informowania o tym ich autorek i autorów.
W kwietniu 2024 r. kolejne reklamy opłacane przez siatkę Doppelganger dotarły do setek tysięcy osób w UE.
Europejczycy nie chcą być manipulowani [wyniki ankiety]
Targetowanie reklam (również tych o charakterze politycznym) jest możliwe dzięki danym, jakie platformy społecznościowe mają na temat swoich użytkowniczek i użytkowników. Taka wiedza daje realną władzę oraz możliwość kształtowania opinii i postaw społecznych. Według ankiety YouGov 61% osób korzystających z social mediów chciałoby, żeby platformy internetowe przestały domyślnie profilować je na podstawie danych o ich zachowaniu.
„To pokazuje, że mieszkańcy Unii Europejskiej są zaniepokojeni szkodliwymi skutkami działania mediów społecznościowych i nie podoba im się, jak są targetowani z pomocą algorytmów, żeby utrzymać ich uwagę. Właściciele największych portali społecznościowych wiedzą, jak sprawić, żeby były one bezpieczniejsze, ale nie robią tego. Apelujemy do Unii Europejskiej, żeby ich do tego zmusiła”.
Claudia Maguire, The Citizens
Problem polaryzacji i dezinformacji, której sprzyjają mechanizmy rządzące w mediach społecznościowych, nabrzmiewa od lat. Żeby z nimi wygrać, nie wystarczy skuteczniejsza moderacja, obcinanie zasięgów i blokowanie manipulujących reklam. Potrzebne są systemowe zmiany – np. przestawienie algorytmów rekomendujących treści z angażowania za wszelką cenę na promowanie jakościowych treści i rzetelnych newsów. Zwłaszcza w okresie wyborczym.
„Organizacje zrzeszone w koalicji People vs Big Tech, w tym Panoptykon, wystosowały do Komisarza Thierry’ego Brettona apel, w którym apelujemy między innymi o to, by systemy rekomendacyjne w domyślnej wersji nie wykorzystywały profilowania behawioralnego (a więc nie grały na czułych strunach użytkowników w celu ich zaangażowania) oraz o inne interwencje powstrzymujące rozprzestrzenianie się polaryzujących i dezinformujących treści w tygodniu przed i po wyborach zaplanowanych na 9 czerwca 2024 r.”.
Katarzyna Szymielewicz, Fundacja Panoptykon
Tak, takie zmiany mogą oznaczać dla platform spadek zysków z reklam, ale najwyższy czas, żeby interes akcjonariuszy ustąpił interesowi społecznemu. Koncerny tytoniowe, paliwowe i producenci słodkich przekąsek też odprowadzają część zysków do wspólnego budżetu. Czy to oznacza pożegnanie się z darmowymi portalami? Raczej pożegnanie z fikcją tej darmowości, bo za korzystanie z nich i tak płacimy. I to nie tylko swoimi danymi, ale też naszym dobrostanem i jakością debaty publicznej.
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS