Muzeum Auschwitz nawiązało współpracę ze startupem TrollWall AI, by automatycznie moderować toksyczne komentarze w mediach społecznościowych, chroniąc pamięć ofiar i tworząc bezpieczną przestrzeń online.
Muzeum Auschwitz nawiązało współpracę ze startupem TrollWall AI, specjalizującym się w automatycznej moderacji toksycznych komentarzy w mediach społecznościowych, opierającym swoje działanie na sztucznej inteligencji.
Aktywność Muzeum w Mediach Społecznościowych
– Jako Muzeum jesteśmy aktywni na kilku platformach społecznościowych, przede wszystkim na portalu X, Facebooku oraz Instagramie. Każdego dnia publikujemy tam wpisy dotyczące wydarzeń z historii niemieckiego nazistowskiego obozu Auschwitz, a także krótkie biogramy ofiar. Oficjalne profile Muzeum śledzi już prawie 2,5 miliona osób, a liczba komentarzy pozostawianych każdego dnia pod naszymi postami to średnio 4–5 tysięcy – powiedział Paweł Sawicki z Muzeum Auschwitz, odpowiedzialny za aktywność Muzeum w mediach społecznościowych.
Wyzwaniem są Negatywne Komentarze
– Większość komentarzy to różnorodne wyrazy pamięci, emocjonalne reakcje na prezentowane treści czy pytania stricte historyczne. Niestety, pojawiają się także komentarze, które naruszają pamięć ofiar, w tym wpisy negacjonistyczne czy antysemickie. Każdego dnia widzimy także fale spamu, trolling, działania botów wyłudzających dane czy kampanie dezinformacyjne. Odpowiednia moderacja jest dla nas priorytetem. Staramy się bowiem chronić naszą wirtualną wspólnotę pamięci przed mową nienawiści – dodał Sawicki.
Współpraca z TrollWall AI
W obliczu tych wyzwań Muzeum zdecydowało się na współpracę ze startupem TrollWall AI. TrollWall AI to narzędzie oparte na sztucznej inteligencji, które automatycznie i w czasie rzeczywistym ukrywa nienawistne i wulgarne komentarze na stronach społecznościowych. System działa obecnie na Facebooku, Instagramie, YouTubie i TikToku, opierając się na międzynarodowych standardach prawnych definiujących mowę nienawiści.
Cel i Korzyści Współpracy
– Mamy prawo do wolności słowa, ale nie do mowy nienawiści. Poprzez automatyczne moderowanie toksycznych komentarzy tworzymy bezpieczną, wolną od nienawiści przestrzeń online dla obserwujących Muzeum w mediach społecznościowych – powiedział Tomáš Halász, CEO i współzałożyciel TrollWall AI.
W ramach współpracy Muzeum uzyskało dostęp do wszystkich funkcjonalności serwisu. – W prowadzonych przez nas testach narzędzie okazało się bardzo skuteczne. Co ważne, TrollWall AI prowadzi automatyczną moderację w wielu różnych językach, co w naszym przypadku jest szczególnie istotne. Możemy także dodawać do systemu różne słowa kluczowe. Narzędzie nie zastąpi w pełni pracy moderatora, ale stanowi dodatkowe zabezpieczenie, zwłaszcza na Facebooku i Instagramie. Ponadto korzystanie z serwisu przyspiesza moderację, dzięki czemu mamy więcej czasu na przygotowywanie kolejnych treści do publikacji – podkreślił Paweł Sawicki.
Edukacyjna Misja Muzeum
Działania w mediach społecznościowych są ważnym elementem misji edukacyjnej Miejsca Pamięci. Treści publikowane na oficjalnych kontach Muzeum docierają do niemal 2,5 miliona osób:
- X (dawny Twitter) – 1,6 mln obserwujących
- Facebook – 556 tys.
- Instagram – 179 tys.
- Mastodon – 93 tys.
- Threads – 40 tys.
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS