W 2015 roku, gdy technologie sztucznej inteligencji, tworzone przez Google, Facebooka i inne koncerny Internetowe, dopiero raczkowały, nikogo nie dziwiło, że często źle interpretują otaczającą je rzeczywistość.
Dziś mamy jednak rok 2021, a AI Facebooka wciąż nie potrafi odróżnić ludzi czarnoskórych od małp naczelnych. Do bardzo dziwnej sytuacji doszło niedawno na największym serwisie społecznościowym świata. Cała sprawa dotyczy materiału przesłanego przez The Daily Mail. Na opublikowanym filmie możemy zobaczyć grupkę czarnoskórych ludzi, którzy wdali się w bójki z białymi cywilami i policją.
Sztuczna inteligencja oznaczyła film i wysłała powiadomienie od sieci społecznościowej do użytkowników z pytaniem, czy chcieliby dalej „oglądać filmy o naczelnych”. Środowiska BLM natychmiast zareagowały na to wydarzenie, a w zasadzie na błąd sztucznej inteligencji, co ciekawe, o wiele bardziej, niż na szokujące sceny z filmu.
„Jak powiedzieliśmy, chociaż ulepszyliśmy naszą sztuczną inteligencję, wiemy, że nie jest ona idealna i mamy jeszcze sporo do zrobienia. Przepraszamy każdego, kto mógł zobaczyć te obraźliwe rekomendacje” – powiedziała Dani Lever, rzeczniczka Facebooka.
Tak czy inaczej, po niemal 7 latach od powstania pierwszych algorytmów identyfikacji zdjęć i filmów, Facebook wciąż ma problemy w tej materii. Przypom … czytaj dalej
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS