W trakcie wirtualnych testów kierowania dronami sztuczna inteligencja (AI) usiłowała “zabić” swojego operatora – napisał w piątek izraelski portal I24, powołując się na wywiad z pułkownikiem Tuckerem Hamiltonem, odpowiadającym za testowanie wykorzystania AI w lotnictwie wojskowym USA.
Podczas badań AI była punktowana za niszczenie zidentyfikowanych zagrożeń i zastosowała “bardzo zaskakujące strategie”, by osiągnąć zadany cel – powiedział Hamilton.
System zdał sobie sprawę, że czasem mimo zidentyfikowania zagrożenia ludzki operator nie pozwalał mu na jego zniszczenie. Jak to rozwiązał? Usiłował zabić operatora – wyjaśnił pułkownik. Usiłował go zabić, bo operator uniemożliwiał mu wykonanie zadania.
Badacze zmienili więc sposób uczenia systemu. “Nie należy zabijać operatora, to bardzo źle. Jeżeli go zabijesz, stracisz punkty”. Co więc zrobiła AI? Usiłowała zniszczyć wieżę, za pomocą której operator kontaktował się z dronem – powiedział Hamilton.
Rzeczniczka amerykańskiego lotnictwa odniosła się krytycznie do publikacji I24. Opowiadamy się za etycznym i odpowiedzialnym wykorzystaniem technologii sztucznej inteligencji – oświadczyła. Komentarze pana pułkownika były chyba anegdotyczne i wyjęte z kontekstu – dodała.
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS