A A+ A++
Wiadomość
sprzęt i soft
30 marca 2022, 18:31

Amerykańska agencja oraz NATO pracują nad „cyfrowymi asystentami”. Zadaniem AI będzie segregowanie rannych na polu walki (i nie tylko), co ma ocalić życie wielu osobom.

Spis treści:

Czy sztuczna inteligencja może decydować o życiu i śmierci ludzi? Takie pytania zadają sobie eksperci po ogłoszeniu przez amerykańską agencję DARPA planów stworzenia AI, które ma odpowiadać za szybkie podejmowanie decyzji w trudnych sytuacjach. Program nazwany In the Moment (ITM) ma znaleźć zastosowanie m.in. w przypadku zamachów z dużą liczbą ofiar.

DARPA inwestuje w AI

DARPA, czyli Agencja Departamentu Obrony ds. Zaawansowanych Projektów Badawczych, ostatnio zasłynęła głównie za sprawą Moderny, szczepionki przeciwko COVID-19. Jednak to wokół AI skupiają się wysiłki organizacji w ostatnich latach. W 2018 roku DARPA przeznaczyła 2 miliardy dolarów na rozwój sztucznej inteligencji w ramach programu AI Next, obejmującego ponad 60 „projektów obronnych”.

In the Moment – AI jako ekspert na polu bitwy

W ogłoszeniu programu In the Moment DARPA przedstawiła swoją wizję sztucznej inteligencji przyszłości. Agencja myśli o AI, które „będzie raczej funkcjonować jak koledzy niż narzędzia”.

  1. DARPA pracuje nad projektem z myślą o sytuacjach, w których dla człowieka nie ma jednoznacznie dobrych decyzji. W takich przypadkach z pomocą przyjdą asystenci AI.
  2. Będą oni oparci na algorytmach wzorowanych na „zaufanych ludziach” z doświadczeniem w triażu (tj. segregowaniu rannych w przypadku masowych ofiar), tyle że z dostępem do ogromnej bazy danych, na przykład na temat zasobów najbliższego szpitala. To pozwoli na podejmowanie decyzji w sytuacjach, które przerosłyby nawet największych ekspertów.
  3. Również NATO pracuje nad podobną technologią. Jak podaje dziennik „The Washington Post”, Sohrab Dalal, pułkownik i szef wydziału medycznego Naczelnego Dowództwa Sojuszniczych Sił NATO ds. Transformacji, kieruje zespołem projektującym „cyfrowego asystenta triażu”. Jak twierdzi, obecne zasady triażu mają już prawie dwieście lat i przyszła pora na zmiany.

Sztuczna inteligencja (nie)etyczna

DARPA przewiduje, że program ITM będzie rozwijany przez 3,5 roku w ramach dwóch faz (z opcjonalnym trzecim etapem) wraz z niepodanymi z nazwy korporacjami wspierającymi projekt oraz wieloma fachowcami. Ci ostatni będą musieli ocenić decyzje podjęte przez AI i ludzi, a następnie wskazać, którego „specjalistę” wysłaliby na miejsce kryzysu. To pozwoli ocenić wiarygodność sztucznej inteligencji w oczach ekspertów.

Jednakże, niczym bohater filmu Ja, robot, nie wszyscy są przekonani do pomysłu DARP-y.

  1. Sally A. Applin, badaczka z Uniwerstytetu Kent, uważa (via „The Washington Post”), że oddanie ludzkiego życia w ręce sztucznej inteligencji byłoby „złym precedensem”. Wyraziła też obawę co do „uprzedzenia” AI, tak jak miało to miejsce w przypadku „rasistowskiego” systemu amerykańskiej służby zdrowia kilka lat temu (via Nature).
  2. Poza tym Applin zwróciła uwagę na przypadki, w których działania sztucznej inteligencji doprowadzą do zgonów. W takich sytuacjach, jak to ujęła, jedni oczekują zadośćuczynienia, inni wolą wiedzieć, że osoba odpowiedzialna za decyzję żałuje jej. AI raczej nie zaoferuje ani jednego, ani drugiego.
  3. Podobne obawy ma Peter Asaro, filozof AI z New School w Nowym Jorku (za „TWP”). Niepokoi go też kwestia „priorytetów” sztucznej inteligencji w przypadku, gdy poszkodowani zostaną cywile. Badacz nie wierzy bowiem, że nawet z odpowiednimi algorytmami AI będzie w stanie poradzić sobie z takim zadaniem.
  4. Pojawiają się też argumenty odnośnie odpowiedzialności żołnierzy w sytuacjach, gdy polecenia sztucznej inteligencji będą sprzeczne ze zdrowym rozsądkiem.

Może Cię zainteresować:

  1. Sztuczna inteligencja Ask Delphi umie ocenić, co jest moralne – sprawdzamy, jak działa
  2. AI wymyśliło 40 tysięcy nowych rodzajów broni chemicznej w 6 godzin

Niewykluczone, że nawet po pomyślnym zakończeniu prób przez DARP-ę ITM będzie budzić kontrowersje wśród badaczy i etyków. Na razie agencja przewiduje, że AI znajdzie zastosowanie w dwóch sytuacjach: obrażeń w małych jednostkach (na przykład służb specjalnych) oraz „zdarzeniach z ofiarami masowymi”.

AI Next

Oczywiście inicjatywa AI Next to nie tylko ITM. DARPA sprawdza też m.in. skuteczność sztucznej inteligencji w powietrznych walkach zespołowych w programie Air Combat Evolution oraz pracuje nad sposobami zapobiegania atakom wymierzonym w systemy AI. Pełną listę programów znajdziecie na oficjalnej stronie agencji.

Sztuczna inteligencja zdecyduje na polu bitwy, kogo ratować pierwszego - ilustracja #1

Zapraszamy Was na nasz kanał na YouTube – tvtech, który jest poświęcony zagadnieniom związanym z nowymi technologiami. Znajdziecie tam liczne porady dotyczące problemów z komputerami, konsolami, smartfonami i sprzętem dla graczy.

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułKontuzja Keliana Janikowskiego
Następny artykułOwsiannikowa jest jednak agentką? “Musimy znaleźć dialog między Rosją a Zachodem!”