Zespół ok. 15 tysięcy moderatorów rozsianych po całym świecie przegląda dziennie 3 miliony wpisów. Nieodpowiednich i okrutnych treści jest tak dużo, że pracownicy wprost mówią o traumie, nocnych koszmarach i atakach paniki.
Gazeta Wyborcza dotarła do pracowników działającej w Warszawie firmy, która świadczy usługi dla Facebooka. Ta miała kusić dobrze płatną pracą jako “analityk danych”. Na rozmowie rekrutacyjnej dowiadywano się, że klientem jest właśnie Facebook.
Wpadka TVP. Wiadomości dopuściły do wycieku danych osobowych
Co takiego dzieje się na monitorach tych osób?
Moderatorzy Facebooka – tak wygląda ich praca
Jak opisują autorzy Wyborczej, moderatorzy pracują w systemie zmianowym w godzinach 7-15, 15-23 i 23-7, a ekipa z Warszawy obsługuje zlecenia z Polski, Rosji, Białorusi, Ukrainy, Czech, Słowacji, Litwy, Hiszpanii i Portugalii. Ich zadaniem jest przeglądanie zdjęcia, filmy i posty, a czasem nadzorowanie transmisji – wszystko pod kątem sprawdzania zgodności z regulaminem platformy.
“Klikają: ‘zignoruj’, czyli następne zdjęcie; ‘usuń’ – treść narusza warunki korzystania z Facebooka. Weryfikują zgłoszone profile użytkowników, grupy i strony. Sprawdzają, czy podczas transmisji na żywo nikt nie próbuje popełnić samobójstwa albo przestępstwa. W razie potrzeby ‘eskalują’, czyli wysyłają zgłoszenie do odpowiednich organów”.
Liczba drastycznych materiałów nie jest wielka w skali dnia, rozmówcy mówią o 1-2, ale problemem ma być skala i regularność tych doświadczeń. Co najgorzej wspominają? Wymyślne znęcanie się nad zwierzętami lub ich zabijanie na wizji. “Nigdy nie zapomnę widoku ust dziewczyny, która żuła żywą mysz i ją połknęła”.
Są też morderstwa i tortury na ludziach. “Pamiętam wideo z kamienowania człowieka z jakiegoś afrykańskiego kraju. To standardowe rzeczy, które oglądają moderatorzy”. Analitycy danych często dostają też zgłoszenia, zawierające nagie zdjęcia dzieci, młodzieży i dorosłych
Na “polskim Facebooku” najwięcej jest za to mowy nienawiści, skierowanej zazwyczaj wobec Żydów i homoseksualistów, a także nękania, zastraszania innych czy pokazywania samookaleczenia.
Trauma i zespół stresu pourazowego
Warszawscy moderatorzy Facebooka mają na miejscu cotygodniowe sesje psychologiczne oraz zajęcia z medytacji i jogi w ramach pracy. Nie bez przyczyny. “Rozumiemy, że oglądanie niektórych rodzajów treści może być trudne, ściśle współpracujemy z naszymi partnerami, aby zapewnić moderatorom wsparcie na każdym etapie pracy” – informuje biuro prasowego Facebooka.
Uważaj, ktoś może wziąć na ciebie pożyczkę, nawet jeśli twoje dane nie “wyciekły”
Ten pakiet najwyraźniej nie wystarcza, bo rozmówcy Wyborczej mówią wprost o traumie i koszmarach sennych, depresji, atakach paniki oraz próbach radzeniu sobie z drastycznymi treściami przy pomocy alkoholu i narkotyków. Część z tych reakcji jest określana przez specjalistów jako zbieżna z objawami PTSD, czyli zespołu stresu pourazowego, przez lata wiązanego najczęściej ze świadkami bezpośredniej przemocy czy żołnierzami na misjach.
Facebook od lat uczy algorytmy, jak szybko wykrywać nieodpowiednie treści. Dyskusja o tym powraca regularnie, jak np. po niesławnej transmisji masakry muzułmanów w nowozelandzkim Christchurch w 2019 roku. W przyszłości AI i uczenie maszynowe ma z powodzeniem zastąpić człowieka w moderacyjnych decyzji. Jednocześnie to zapowiedź, którą słyszymy od lat. I w 2021 r. nadal brzmi jak pieśń odległej przyszłości.
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS