A A+ A++

Zespół ok. 15 tysięcy moderatorów rozsianych po całym świecie przegląda dziennie 3 miliony wpisów. Nieodpowiednich i okrutnych treści jest tak dużo, że pracownicy wprost mówią o traumie, nocnych koszmarach i atakach paniki.

bEbPITWt

Gazeta Wyborcza dotarła do pracowników działającej w Warszawie firmy, która świadczy usługi dla Facebooka. Ta miała kusić dobrze płatną pracą jako “analityk danych”. Na rozmowie rekrutacyjnej dowiadywano się, że klientem jest właśnie Facebook.

Wpadka TVP. Wiadomości dopuściły do wycieku danych osobowych

Wpadka TVP. Wiadomości dopuściły do wycieku danych osobowych

bEbPITWv

Co takiego dzieje się na monitorach tych osób?

Moderatorzy Facebooka – tak wygląda ich praca

Jak opisują autorzy Wyborczej, moderatorzy pracują w systemie zmianowym w godzinach 7-15, 15-23 i 23-7, a ekipa z Warszawy obsługuje zlecenia z Polski, Rosji, Białorusi, Ukrainy, Czech, Słowacji, Litwy, Hiszpanii i Portugalii. Ich zadaniem jest przeglądanie zdjęcia, filmy i posty, a czasem nadzorowanie transmisji – wszystko pod kątem sprawdzania zgodności z regulaminem platformy.

“Klikają: ‘zignoruj’, czyli następne zdjęcie; ‘usuń’ – treść narusza warunki korzystania z Facebooka. Weryfikują zgłoszone profile użytkowników, grupy i strony. Sprawdzają, czy podczas transmisji na żywo nikt nie próbuje popełnić samobójstwa albo przestępstwa. W razie potrzeby ‘eskalują’, czyli wysyłają zgłoszenie do odpowiednich organów”.

Liczba drastycznych materiałów nie jest wielka w skali dnia, rozmówcy mówią o 1-2, ale problemem ma być skala i regularność tych doświadczeń. Co najgorzej wspominają? Wymyślne znęcanie się nad zwierzętami lub ich zabijanie na wizji. “Nigdy nie zapomnę widoku ust dziewczyny, która żuła żywą mysz i ją połknęła”.

bEbPITWB

Są też morderstwa i tortury na ludziach. “Pamiętam wideo z kamienowania człowieka z jakiegoś afrykańskiego kraju. To standardowe rzeczy, które oglądają moderatorzy”. Analitycy danych często dostają też zgłoszenia, zawierające nagie zdjęcia dzieci, młodzieży i dorosłych

Na “polskim Facebooku” najwięcej jest za to mowy nienawiści, skierowanej zazwyczaj wobec Żydów i homoseksualistów, a także nękania, zastraszania innych czy pokazywania samookaleczenia.

Trauma i zespół stresu pourazowego

Warszawscy moderatorzy Facebooka mają na miejscu cotygodniowe sesje psychologiczne oraz zajęcia z medytacji i jogi w ramach pracy. Nie bez przyczyny. “Rozumiemy, że oglądanie niektórych rodzajów treści może być trudne, ściśle współpracujemy z naszymi partnerami, aby zapewnić moderatorom wsparcie na każdym etapie pracy” – informuje biuro prasowego Facebooka.

Uważaj, ktoś może wziąć na ciebie pożyczkę, nawet jeśli twoje dane nie "wyciekły"

Uważaj, ktoś może wziąć na ciebie pożyczkę, nawet jeśli twoje dane nie “wyciekły”

bEbPITWC

Ten pakiet najwyraźniej nie wystarcza, bo rozmówcy Wyborczej mówią wprost o traumie i koszmarach sennych, depresji, atakach paniki oraz próbach radzeniu sobie z drastycznymi treściami przy pomocy alkoholu i narkotyków. Część z tych reakcji jest określana przez specjalistów jako zbieżna z objawami PTSD, czyli zespołu stresu pourazowego, przez lata wiązanego najczęściej ze świadkami bezpośredniej przemocy czy żołnierzami na misjach.

Facebook od lat uczy algorytmy, jak szybko wykrywać nieodpowiednie treści. Dyskusja o tym powraca regularnie, jak np. po niesławnej transmisji masakry muzułmanów w nowozelandzkim Christchurch w 2019 roku. W przyszłości AI i uczenie maszynowe ma z powodzeniem zastąpić człowieka w moderacyjnych decyzji. Jednocześnie to zapowiedź, którą słyszymy od lat. I w 2021 r. nadal brzmi jak pieśń odległej przyszłości.

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułWójt może umorzyć pożyczkę
Następny artykułPijany rowerzysta. Czy nadal traci prawko?