A A+ A++

Farmy trolli czy fałszywe profile, z których
płynie fala hejtu, również w kierunku przedsiębiorstw, to już internetowa
codzienność. Jednak zaskakująco dużo nienawistnych komentarzy płynie z
klawiatur zwykłych ludzi, którzy w sieci wyładowują swoje frustracje. Brak
moderacji sprawia, że niektóre dyskusje wymykają się spod kontroli. Aż 37 proc.
polskich internautów doświadczyło hejtu w sieci. Okazuje się, że w ochronie
przed tym zjawiskiem może pomóc sztuczna inteligencja.

Sztuczna inteligencja pomoże eliminować „nieuprzejmych”
fot. New Africa / / Shutterstock

Blisko 90 proc. Europejczyków to użytkownicy internetu – wynika z opracowania
Digital 2023: Global Overview Report. W Polsce z sieci korzysta prawie 36 mln osób,
co stanowi ponad 88 proc. całej populacji. Z badania przeprowadzonego przez
IRCenter wynika, że bezpośredniego hejtu w polskim internecie doświadczyło 37
proc. wszystkich badanych. Z kolei w raporcie CBS co drugi badany (50 proc.)
twierdził, że w polskim społeczeństwie istnieje przyzwolenie na obrażanie
innych.

Hejt niszczy wizerunek firmy

Specjaliści zajmujący się marketingiem zaznaczają, że wpływ hejtu
na postrzeganie marki jest olbrzymi. Obraźliwe, negatywne komentarze na forach,
w recenzjach czy opiniach, mogą szybko rozszerzyć się na ataki personalne wobec
pracowników firmy, a skończyć na akcjach zniechęcających do zakupu usług lub
produktów aż do całkowicie powszechnego bojkotu przedsiębiorstwa.

To bezpośrednio wpływa na postrzeganie marki przez partnerów
biznesowych i klientów jako kontrowersyjną lub niegodną zaufania. Może to mieć
szczególne znaczenie w przypadku spółek giełdowych. Atak hejterski może nie
tylko obniżyć przychody, ale także przyczynić się do spadku cen akcji i
wartości rynkowej firmy. Natomiast wdrożenie rozwiązań naprawczych w celu
zarządzania kryzysem to dodatkowe straty finansowe i długotrwały proces
odbudowy wizerunku marki, który często w pełni nie jest już możliwy.

AI wyklucza nienawistne komentarze

Okazuje się, że również w tej dziedzinie pomocna może być sztuczna
inteligencja. Twórcy TrollWall AI, słowackiej aplikacji służącej do filtrowania
nienawistnych komentarzy w mediach społecznościowych, przeanalizowali ponad 400
stron i profili na Facebooku. Badanie objęło aż 7,5 mln komentarzy. W
rezultacie zaobserwowano, iż średni odsetek wpisów pełnych nienawiści wynosi aż
13 proc. Bywa ich znacznie więcej na niektórych stronach dotyczących polityki,
sportu czy kultury.

Przy okazji badania okazało się również, że aktywna moderacja
prowadzona przy użyciu sztucznej inteligencji, ma wpływ na poziom dyskusji. Narzędzia
AI mogą „odfiltrowywać” nienawistne wpisy, co może obniżyć poziomu hejtu z 13
do zaledwie 2 proc.

– Definiujemy hejt na podstawie międzynarodowych definicji mowy
nienawiści – tłumaczy Tomáš Halász, specjalista w dziedzinie moderowania
dyskusji internetowych przy zastosowaniu sztucznej inteligencji i twórca
aplikacji TrollWall AI – Chodzi o wrogie wypowiedzi wobec osoby lub grupy osób w
związku z ich tożsamością, rasą, cechami charakterystycznymi, wyznaniem czy
orientacją seksualną. Do tego często dochodzi wulgarny język.

Toksyczne wpisy stają się niewidoczne

TrollWall AI to aplikacja oparta o sztuczną inteligencję, która
ukrywa toksyczne komentarze w mediach społecznościowych przez 24 godziny na
dobę, 7 dni w tygodniu. Narzędzie zdobyło wcześniej olbrzymią popularność za
naszą południową granicą. W Czechach i Słowacji korzystają z niej nawet głowy
państw – Peter Pavel i Zuzana Čaputová. Dlatego startup otrzymał niedawno
nominację w prestiżowym europejskim konkursie Innovation in Politics Awards
2024.

– Sztuczna inteligencja automatycznie ukrywa wulgarne, agresywne i
pełne nienawiści komentarze oraz groźby – tłumaczy Tomáš Halász. – Toksyczne
wpisy nie są usuwane, ale pozostają widoczne jedynie dla ich autorów, czasem też
dla ich znajomych. Dla pozostałych są jednak niedostępne, co podnosi poziom
dyskusji. Administrator widzi wpisy, może sprawdzić decyzje sztucznej
inteligencji i kiedy uzna to za stosowne, może przywrócić kontrowersyjne posty.
To wszystko sprawia, że moderatorzy mogą skupić się na budowaniu pozytywnych
relacji z lojalnymi fanami, zamiast frustrować się zachowaniem hejterów.

Aplikacja nie oddziałuje też negatywnie na zasięgi i widoczność
brandu w mediach społecznościowych, ponieważ płynnie działa w czasie
rzeczywistym. Nie ma wpływa przy tym na algorytmiczną dystrybucję treści na
poszczególnych platformach w social mediach.

Źródło:
Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułWikło o spocie PO: Tusk się wścieknie, bo zewsząd są gromy
Następny artykułSkandaliczna wpadka za kulisami “Mam Talent”. Posypały się przekleństwa