sprzęt i soft
30 marca 2022, 18:31
Amerykańska agencja oraz NATO pracują nad „cyfrowymi asystentami”. Zadaniem AI będzie segregowanie rannych na polu walki (i nie tylko), co ma ocalić życie wielu osobom.
Czy sztuczna inteligencja może decydować o życiu i śmierci ludzi? Takie pytania zadają sobie eksperci po ogłoszeniu przez amerykańską agencję DARPA planów stworzenia AI, które ma odpowiadać za szybkie podejmowanie decyzji w trudnych sytuacjach. Program nazwany In the Moment (ITM) ma znaleźć zastosowanie m.in. w przypadku zamachów z dużą liczbą ofiar.
DARPA inwestuje w AI
DARPA, czyli Agencja Departamentu Obrony ds. Zaawansowanych Projektów Badawczych, ostatnio zasłynęła głównie za sprawą Moderny, szczepionki przeciwko COVID-19. Jednak to wokół AI skupiają się wysiłki organizacji w ostatnich latach. W 2018 roku DARPA przeznaczyła 2 miliardy dolarów na rozwój sztucznej inteligencji w ramach programu AI Next, obejmującego ponad 60 „projektów obronnych”.
In the Moment – AI jako ekspert na polu bitwy
W ogłoszeniu programu In the Moment DARPA przedstawiła swoją wizję sztucznej inteligencji przyszłości. Agencja myśli o AI, które „będzie raczej funkcjonować jak koledzy niż narzędzia”.
- DARPA pracuje nad projektem z myślą o sytuacjach, w których dla człowieka nie ma jednoznacznie dobrych decyzji. W takich przypadkach z pomocą przyjdą asystenci AI.
- Będą oni oparci na algorytmach wzorowanych na „zaufanych ludziach” z doświadczeniem w triażu (tj. segregowaniu rannych w przypadku masowych ofiar), tyle że z dostępem do ogromnej bazy danych, na przykład na temat zasobów najbliższego szpitala. To pozwoli na podejmowanie decyzji w sytuacjach, które przerosłyby nawet największych ekspertów.
- Również NATO pracuje nad podobną technologią. Jak podaje dziennik „The Washington Post”, Sohrab Dalal, pułkownik i szef wydziału medycznego Naczelnego Dowództwa Sojuszniczych Sił NATO ds. Transformacji, kieruje zespołem projektującym „cyfrowego asystenta triażu”. Jak twierdzi, obecne zasady triażu mają już prawie dwieście lat i przyszła pora na zmiany.
Sztuczna inteligencja (nie)etyczna
DARPA przewiduje, że program ITM będzie rozwijany przez 3,5 roku w ramach dwóch faz (z opcjonalnym trzecim etapem) wraz z niepodanymi z nazwy korporacjami wspierającymi projekt oraz wieloma fachowcami. Ci ostatni będą musieli ocenić decyzje podjęte przez AI i ludzi, a następnie wskazać, którego „specjalistę” wysłaliby na miejsce kryzysu. To pozwoli ocenić wiarygodność sztucznej inteligencji w oczach ekspertów.
Jednakże, niczym bohater filmu Ja, robot, nie wszyscy są przekonani do pomysłu DARP-y.
- Sally A. Applin, badaczka z Uniwerstytetu Kent, uważa (via „The Washington Post”), że oddanie ludzkiego życia w ręce sztucznej inteligencji byłoby „złym precedensem”. Wyraziła też obawę co do „uprzedzenia” AI, tak jak miało to miejsce w przypadku „rasistowskiego” systemu amerykańskiej służby zdrowia kilka lat temu (via Nature).
- Poza tym Applin zwróciła uwagę na przypadki, w których działania sztucznej inteligencji doprowadzą do zgonów. W takich sytuacjach, jak to ujęła, jedni oczekują zadośćuczynienia, inni wolą wiedzieć, że osoba odpowiedzialna za decyzję żałuje jej. AI raczej nie zaoferuje ani jednego, ani drugiego.
- Podobne obawy ma Peter Asaro, filozof AI z New School w Nowym Jorku (za „TWP”). Niepokoi go też kwestia „priorytetów” sztucznej inteligencji w przypadku, gdy poszkodowani zostaną cywile. Badacz nie wierzy bowiem, że nawet z odpowiednimi algorytmami AI będzie w stanie poradzić sobie z takim zadaniem.
- Pojawiają się też argumenty odnośnie odpowiedzialności żołnierzy w sytuacjach, gdy polecenia sztucznej inteligencji będą sprzeczne ze zdrowym rozsądkiem.
Może Cię zainteresować:
- Sztuczna inteligencja Ask Delphi umie ocenić, co jest moralne – sprawdzamy, jak działa
- AI wymyśliło 40 tysięcy nowych rodzajów broni chemicznej w 6 godzin
Niewykluczone, że nawet po pomyślnym zakończeniu prób przez DARP-ę ITM będzie budzić kontrowersje wśród badaczy i etyków. Na razie agencja przewiduje, że AI znajdzie zastosowanie w dwóch sytuacjach: obrażeń w małych jednostkach (na przykład służb specjalnych) oraz „zdarzeniach z ofiarami masowymi”.
AI Next
Oczywiście inicjatywa AI Next to nie tylko ITM. DARPA sprawdza też m.in. skuteczność sztucznej inteligencji w powietrznych walkach zespołowych w programie Air Combat Evolution oraz pracuje nad sposobami zapobiegania atakom wymierzonym w systemy AI. Pełną listę programów znajdziecie na oficjalnej stronie agencji.
Zapraszamy Was na nasz kanał na YouTube – tvtech, który jest poświęcony zagadnieniom związanym z nowymi technologiami. Znajdziecie tam liczne porady dotyczące problemów z komputerami, konsolami, smartfonami i sprzętem dla graczy.
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS