Sztuczna inteligencja zdecyduje na polu bitwy, kogo ratować pierwszego
Amerykańska agencja oraz NATO pracują nad „cyfrowymi asystentami”. Zadaniem AI będzie segregowanie rannych na polu walki (i nie tylko), co ma ocalić życie wielu osobom.

Czy sztuczna inteligencja może decydować o życiu i śmierci ludzi? Takie pytania zadają sobie eksperci po ogłoszeniu przez amerykańską agencję DARPA planów stworzenia AI, które ma odpowiadać za szybkie podejmowanie decyzji w trudnych sytuacjach. Program nazwany In the Moment (ITM) ma znaleźć zastosowanie m.in. w przypadku zamachów z dużą liczbą ofiar.
DARPA inwestuje w AI
DARPA, czyli Agencja Departamentu Obrony ds. Zaawansowanych Projektów Badawczych, ostatnio zasłynęła głównie za sprawą Moderny, szczepionki przeciwko COVID-19. Jednak to wokół AI skupiają się wysiłki organizacji w ostatnich latach. W 2018 roku DARPA przeznaczyła 2 miliardy dolarów na rozwój sztucznej inteligencji w ramach programu AI Next, obejmującego ponad 60 „projektów obronnych”.
In the Moment – AI jako ekspert na polu bitwy
W ogłoszeniu programu In the Moment DARPA przedstawiła swoją wizję sztucznej inteligencji przyszłości. Agencja myśli o AI, które „będzie raczej funkcjonować jak koledzy niż narzędzia”.
- DARPA pracuje nad projektem z myślą o sytuacjach, w których dla człowieka nie ma jednoznacznie dobrych decyzji. W takich przypadkach z pomocą przyjdą asystenci AI.
- Będą oni oparci na algorytmach wzorowanych na „zaufanych ludziach” z doświadczeniem w triażu (tj. segregowaniu rannych w przypadku masowych ofiar), tyle że z dostępem do ogromnej bazy danych, na przykład na temat zasobów najbliższego szpitala. To pozwoli na podejmowanie decyzji w sytuacjach, które przerosłyby nawet największych ekspertów.
- Również NATO pracuje nad podobną technologią. Jak podaje dziennik „The Washington Post”, Sohrab Dalal, pułkownik i szef wydziału medycznego Naczelnego Dowództwa Sojuszniczych Sił NATO ds. Transformacji, kieruje zespołem projektującym „cyfrowego asystenta triażu”. Jak twierdzi, obecne zasady triażu mają już prawie dwieście lat i przyszła pora na zmiany.
Sztuczna inteligencja (nie)etyczna
DARPA przewiduje, że program ITM będzie rozwijany przez 3,5 roku w ramach dwóch faz (z opcjonalnym trzecim etapem) wraz z niepodanymi z nazwy korporacjami wspierającymi projekt oraz wieloma fachowcami. Ci ostatni będą musieli ocenić decyzje podjęte przez AI i ludzi, a następnie wskazać, którego „specjalistę” wysłaliby na miejsce kryzysu. To pozwoli ocenić wiarygodność sztucznej inteligencji w oczach ekspertów.
Jednakże, niczym bohater filmu Ja, robot, nie wszyscy są przekonani do pomysłu DARP-y.
- Sally A. Applin, badaczka z Uniwerstytetu Kent, uważa (via „The Washington Post”), że oddanie ludzkiego życia w ręce sztucznej inteligencji byłoby „złym precedensem”. Wyraziła też obawę co do „uprzedzenia” AI, tak jak miało to miejsce w przypadku „rasistowskiego” systemu amerykańskiej służby zdrowia kilka lat temu (via Nature).
- Poza tym Applin zwróciła uwagę na przypadki, w których działania sztucznej inteligencji doprowadzą do zgonów. W takich sytuacjach, jak to ujęła, jedni oczekują zadośćuczynienia, inni wolą wiedzieć, że osoba odpowiedzialna za decyzję żałuje jej. AI raczej nie zaoferuje ani jednego, ani drugiego.
- Podobne obawy ma Peter Asaro, filozof AI z New School w Nowym Jorku (za „TWP”). Niepokoi go też kwestia „priorytetów” sztucznej inteligencji w przypadku, gdy poszkodowani zostaną cywile. Badacz nie wierzy bowiem, że nawet z odpowiednimi algorytmami AI będzie w stanie poradzić sobie z takim zadaniem.
- Pojawiają się też argumenty odnośnie odpowiedzialności żołnierzy w sytuacjach, gdy polecenia sztucznej inteligencji będą sprzeczne ze zdrowym rozsądkiem.
Może Cię zainteresować:
- Sztuczna inteligencja Ask Delphi umie ocenić, co jest moralne - sprawdzamy, jak działa
- AI wymyśliło 40 tysięcy nowych rodzajów broni chemicznej w 6 godzin
Niewykluczone, że nawet po pomyślnym zakończeniu prób przez DARP-ę ITM będzie budzić kontrowersje wśród badaczy i etyków. Na razie agencja przewiduje, że AI znajdzie zastosowanie w dwóch sytuacjach: obrażeń w małych jednostkach (na przykład służb specjalnych) oraz „zdarzeniach z ofiarami masowymi”.
AI Next
Oczywiście inicjatywa AI Next to nie tylko ITM. DARPA sprawdza też m.in. skuteczność sztucznej inteligencji w powietrznych walkach zespołowych w programie Air Combat Evolution oraz pracuje nad sposobami zapobiegania atakom wymierzonym w systemy AI. Pełną listę programów znajdziecie na oficjalnej stronie agencji.
Więcej:Wikipedia traci czytelników. Google podkrada ruch, AI podcina skrzydła, Elon Musk odpala Grokipedię
Komentarze czytelników
Biały Ikar Chorąży
W filmie Ja Robot, głównym motywem (chyba) było właśnie to, że AI kogo z dwóch osób uratować najpierw :D
golona777 Centurion

Niby nieetyczne tylko, że normalnie sami lekarze robią dokładnie to samo. Przy wypadkach zbiorowych również segreguje się rannych według potrzeb i szans na przeżycie bo zasób lekarzy jest ograniczony, a jakaś kolejność udzielania pomocy musi być dlatego AI mogłaby przyspieszyć ten proces co skutkowałoby większą szansą na uratowanie więcej ludzi. Nie widzę w tym nic złego.
berial6 Legend

https://triage.pl/zasady-segregacji-poszkodowanych-w-wypadku-masowym
A to obecnie stosuje się niby coś innego?