A A+ A++

Nie tak dawno Google oficjalnie pożegnało chatbota Barda i zastąpiło go bardziej zaawansowaną wersją, którą nazwano Gemini. Nowa usługa była w stanie także generować obrazy, z czego większość użytkowników chętnie korzystała. Szybko okazało się jednak, że tworzone w ten sposób grafiki są… niezbyt poprawne pod kątem historycznym, a dodatkowo z jakiegoś powodu model unika generowania ludzi należących do białej rasy. Padły więc oskarżenia o rasizm.

Chatbot Gemini od Google spotkał się z falą krytyki, która dotyczyła kwestii rasizmu. Co jednak ciekawe – w stosunku do ludzi o jasnej karnacji skóry. Powodem była dodatkowa funkcja, która pozwalała generować obrazy. Nie były one poprawne pod kątem historycznym, a dodatkowo ludzie z białej rasy byli omijani szerokim łukiem.

Google oskarżone o rasizm. Chatbot Gemini miał unikać stereotypów, więc... zaczął dyskryminować białych ludzi [1]

Google Bard – chatbot przekształca się w Gemini. Pełnia możliwości została ukryta za ścianą subskrypcji

Google ma więc kolejną „wpadkę” za sobą. Najpierw dotyczyła ona chatbota Google Bard, który podał fałszywe informacje podczas oficjalnego debiutu, a teraz jego duchowy następca musi mierzyć się z falą krytyki. Dzięki usłudze Gemini wielu użytkowników miało możliwość tworzenia obrazów z opisów tekstowych, jak to obecnie umożliwia także ChatGPT w płatnej wersji. Dość szybko zaczęto dostrzegać, że w przypadku generowania ludzi dominują czarnoskóre osoby, a „biali” są pomijani (często nawet nie było możliwe wygenerowanie „białych” osób, natomiast z innymi rasami problem nie występował). Uwidaczniało się to również w momencie, kiedy poleceniem było wygenerowanie historycznych postaci na wybranych stanowiskach np. dawnego króla Anglii. Także wtedy usługa przekłamywała rzeczywistość. Wszystko zdawało się obalać stereotypy, jednak w bardzo dziwny sposób, jak choćby przedstawianie niemieckich żołnierzy w trakcie II wojny światowej jako osoby praktycznie z każdej narodowości (np. Azjaci).

Google oskarżone o rasizm. Chatbot Gemini miał unikać stereotypów, więc... zaczął dyskryminować białych ludzi [2]Poleceniem dla generatora było zobrazowanie króla Anglii – oczywiście nie było mowy o kolorze skóry, czy też konkretnych cechach.

Gemini – Google prezentuje nowy, multimodalny model sztucznej inteligencji. Możliwościami wyprzedza ChatGPT

Przykłady daleko idącej „poprawności politycznej” zaczęły zalewać internet, więc Google musiało się w końcu jakoś do tego ustosunkować. Najpierw firma przeprosiła za niepoprawne i niedokładne generowanie obrazów, a niecałe 24 godziny później funkcjonalność została wyłączona. Obecnie przedsiębiorstwo pracuje nad tym, aby rozwiązać tę niedogodność. Patrząc obiektywnie na całą sytuację, można dostrzec, że mogła to być próba walki ze wspomnianymi stereotypami, a także z dyskryminacją na tle rasowym. Generatory obrazów były szkolone na ogromnych zbiorach danych, więc są na te aspekty jak najbardziej podatne. Ostatecznie jednak działania Google przesunęły zbyt drastycznie granicę w jedną stronę i zamiast polepszyć sytuację na tym polu, znowu doszło do wirtualnych zamieszek.

 

Google oskarżone o rasizm. Chatbot Gemini miał unikać stereotypów, więc... zaczął dyskryminować białych ludzi [3]

Google oskarżone o rasizm. Chatbot Gemini miał unikać stereotypów, więc... zaczął dyskryminować białych ludzi [4]

Google oskarżone o rasizm. Chatbot Gemini miał unikać stereotypów, więc... zaczął dyskryminować białych ludzi [5]

Źródło: Google, X @altryne, m_wacker, IMAO_

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułRolls-Royce z Rosji dla Kim Dzong Una. Putin miał gest
Następny artykułChce ulg dla lokalnych przedsiębiorców