Kradną nam pracę!. Czy bunt maszyn jest możliwy?

- Czy sztuczna inteligencja może się zbuntować? Może, ale inaczej niż myślicie
- Kradną nam pracę!
- Czy maszyna może zabić człowieka?
- Czy bunt maszyn będzie świadomy?
- Bezmyślny buntownik
Kradną nam pracę!
Jednym z najczęściej wymienianych zagrożeń związanych ze sztuczną inteligencją jest przejmowanie przez nią kolejnych etatów. Skoro program wykrywa raka, po co nam lekarz, prawda? Nie oszukujmy się, maszyny zabierają nam pracę od dawna. Jeden kombajn może wyręczyć dziesiątki rolników, a kilkoma kasami samoobsługowymi w markecie opiekuje się jeden sprzedawca. Takie lęki nie są całkowicie irracjonalne.

Niektórzy uznają czasy, w jakich żyjemy, za czwartą rewolucję przemysłową i sugerują, że będzie się ona wiązać z zanikaniem kolejnych profesji. Ludzie, którzy pracują nad SI, patrzą jednak na to zagrożenie trochę inaczej.
Na przełomie XIX i XX wieku wieszczono, że wprowadzenie samochodów spowoduje masowe bezrobocie furmanów, stelmachów i innych zawodów związanych z transportem konnym. Okazało się jednak, że nowe technologie wygenerowały jeszcze więcej miejsc pracy. Podobnie rzecz ma się z większością przełomowych technologii ostatnich trzech stuleci – czy to będzie wprowadzenie zautomatyzowanych krosien tkackich, kolei lub transportu lotniczego. Są to zjawiska zmieniające strukturę zatrudnienia, ale rozwijające rynek i cywilizację.
W naszej dziedzinie też zaobserwowaliśmy takie zjawisko. Jesteśmy twórcami silnika do wdrażania sztucznej inteligencji w grach – Grail. Pierwsze kontakty z branżą, w szczególności z AI designerami, były bardzo nieufne. Większość uważała, że ten silnik pozbawi ludzi pracy. Dopiero danie narzędzia do ręki, pokazanie jego możliwości przekonało niedowiarków do jego mocy i opcji, które udostępnia. I nagle okazało się, że zamiast zabierać pracę, daje pracę, pozwalając na skupienie się na niuansach AI zamiast na technikaliach implementacji.
Należy przy tym pamiętać o istotnym rozgraniczeniu – poprzednie przełomowe technologie umożliwiały automatyzację i zastępowanie maszynami czynności mechanicznych. Samochód zastąpił konia i furmankę, ale człowiek dalej był potrzebny, by nim sterować. Dzisiejsze przełomowe technologie wchodzą na obszar dotychczas uznawany za nieodłączną domenę człowieka – kreatywność, odczytywanie emocji i sterowanie nimi, funkcje kognitywne. Używając poprzedniej analogii – tutaj AI może już zastąpić woźnicę. Tego typu technologie nie powinny być wdrażane bez zastanowienia się nad ich głębszym wpływem na całokształt stosunków społecznych. Jestem przekonany, iż w niedługim czasie czeka nas konieczność stawienia czoła tym zmianom– zarówno od strony regulacji, jak i dostosowania się do ich wpływu na codzienność rynku pracy.
Piotr Biczyk, QED Software
SI przejmuje kolejne stanowiska także w siłach zbrojnych i to również rodzi poważne obawy. Ten temat zasługuje na osobne omówienie..
Czy my właśnie budujemy Skynet? Trochę tak
Skynet – fikcyjny wojskowy system obronny odgrywający rolę głównego antagonisty w filmach i grach z serii Terminator.
Jeśli rozmawiamy o buncie maszyn, nie mamy przed oczami tostera, który zarzuca właścicielowi kabel na szyję i go dusi. Nie, myślimy raczej o systemach typowo wojskowych, które najpierw powstaną po to, by prowadzić wojny za nas. Czy to się już dzieje? Oczywiście, że tak, i to w wielu armiach świata jednocześnie i na wielu płaszczyznach.

Amerykańskie drony MQ-9 Reaper funkcjonują w armii od 2006 roku. Izrael w 2018 roku ogłosił prace nad nową wersją czołgu Merkava, w którym załogę wspierałby asystent SI. Koncern Kałasznikow opracował bezzałogowy pojazd gąsienicowy Uran-9, który wziął udział w operacji w Syrii.
To tylko trzy przykłady wybrane na chybił trafił z wielu istniejących. Bezzałogowe pojazdy to ogrom plusów. Chociażby wspomniany Uran-9 – uzbrojony w działko 30 mm, karabin maszynowy i kierowane pociski przeciwpancerne. Waży przy tym 10 ton. To dwa razy mniej niż amerykański wóz bojowy Bradley, który oferuje podobną siłę ognia. Bradley jest znacznie większy, bo wewnątrz musi zmieścić się trzech członków załogi i siedmiu żołnierzy desantu.
Mniejsze rozmiary to mniej surowca, mniej zużytego paliwa, łatwiejszy transport lotniczy i morski. Taki pojazd stanowi mniejszy cel, a wytrzymałość pilota nie ogranicza manewrów w przypadku pojazdów latających. Sterujący nim zdalnie mogą zmieniać się w trakcie wykonywania misji, a momentami może wyręczać ich autopilot, czyli SI. Automatyzacja mogłaby też pozwolić ograniczyć etaty w marynarce wojennej. Na współczesnym niszczycielu służy około 300 osób, a w porcie powinna czekać załoga, która ruszy w rejs, kiedy poprzednia będzie miała wolne. Choćby dlatego inwestycja w autonomiczne okręty może się opłacać.
US Navy postanowiła przeznaczyć w latach 2020–2021 400 milionów dolarów na dwa bezzałogowe okręty o długości do 91 metrów. Łącznie do 2024 roku planuje się nabyć 10 takich jednostek za 2,7 miliarda dolarów.
Dr Robert Czulda

Największą zaletą systemów bezzałogowych jest jednak brak strat w ludziach. Wjechanie na minę wspomnianego pojazdu Bradley to potencjalnie 10 poległych lub rannych żołnierzy. To nie tylko koszty państwowych pogrzebów, leczenia, zasiłków dla inwalidów. To także ogromna różnica wizerunkowa. Wojna, w której dany kraj straci kilkuset żołnierzy, może wywołać protesty, niezadowolenie, upadek demokratycznego rządu. Wojna, w której stracimy paręnaście milionów dolarów w sprzęcie, to zupełnie coś innego.
Sieć, głupcze
Prawdziwą rewolucją jest jednak dopiero zastosowanie sieci połączonych systemów, które współpracują ze sobą, wymieniają informacje, aktywnie badają sytuację i podejmują decyzje.
Satelita automatycznie wykrył nieprzyjacielski okręt. Ponieważ jednak nie był w stanie dokładnie zidentyfikować zagrożenia i wskazać jego położenia, przekazał informacje do bezzałogowca, który zebrał dodatkowe dane. Później dron przesłał je do centrum dowodzenia, gdzie znajdowała się baza danych zawierająca różne informacje. Centrum wybrało niszczyciel, który miał wykonać atak.
Najważniejszym elementem tego ćwiczenia było to, że pierwszym człowiekiem w łańcuchu decyzyjnym był dopiero dowódca niszczyciela. Wszystkie inne działania, w tym dotyczące kierunku wymiany informacji i koniecznych kroków, podjęły samodzielnie maszyny. Takie operacje nie są już teorią – to rzeczywistość.
Gen. David Goldfein, Chief of Staff, U.S. Air Force
W tej chwili, jak mówi dr Robert Czulda, obowiązuje zasada „man in the loop”. Tak jak w podanym wyżej przykładzie w całym procesie musi pojawić się człowiek, który podejmie decyzję. Tutaj otwiera się jednak pole do rozważań natury czysto moralnej.