Polecamy Recenzje Przed premierą Publicystyka Warto zagrać
Publicystyka 14 września 2020, 14:55

autor: Marcin Strzyżewski

Gracz od czasów pierwszego Prince of Persia. Niemal zawalił szkołę przez Settlersy II.

Czy sztuczna inteligencja może się zbuntować? Może, ale inaczej niż myślicie

Sztuczna inteligencja ułatwia nam życie, zabiera nam pracę i budzi obawy nawet tych, którzy na niej zarabiają. Czy to możliwe, żeby w którymś momencie zbuntowała się przeciwko nam?

Czy maszyna może zabić człowieka?

Teoretycznie już teraz moglibyśmy powierzyć maszynom decydowanie o tym, czy strzelać, czy nie. Pojazd lub automat wartowniczy otwierający ogień w stronę wykrytego ruchu albo źródła ciepła to coś, co mógłby skonstruować zespół studentów. Póki co byłoby to jednak rozwiązanie niemal losowe, przypominające tłuczenie pałką na oślep. Pomyłki i strzelanie do cywilów czy własnych żołnierzy stałyby się codziennością. Dlatego wojskowi chcą czegoś więcej.

Czołowe armie świata prowadzą zaawansowane prace nad systemami wizualnej identyfikacji swój-obcy. Według przedstawicieli producentów Super aEgis II powstanie w ciągu najbliższych kilku lat. Przyczyni się do zwiększenia autonomiczności wojskowych robotów.

Dr Robert Czulda

Prace nad robotami taktycznymi trwają cały czas na całym świecie. - Czy sztuczna inteligencja może się zbuntować? Może, ale inaczej niż myślicie - dokument - 2020-09-14
Prace nad robotami taktycznymi trwają cały czas na całym świecie.

Większość z nas nie zdaje sobie sprawy, jak wiele problemów się z tym wiąże. Algorytm robota bojowego musi być zgodny z konwencjami międzynarodowymi. Musi na przykład brać pod uwagę, że przeciwnik schował się na cmentarzu, który jest terenem chronionym przez prawo.

Robot bojowy musiałby także umieć odróżniać od siebie żołnierza, uzbrojonego bojownika i cywila. Co więcej, strzelanie do żołnierzy, którzy się poddali, również jest zabronione. W jaki sposób robot ma się w tym rozeznać? Zwłaszcza w konfliktach asymetrycznych, w których przeciwnik od cywila różni się jedynie bronią trzymaną w ręku albo ukrytą pod ubraniem.

Wydaje się, że to rzecz nie do przeskoczenia, że maszyna nigdy nie pojmie złożoności ludzkich emocji i zachowań. Chcielibyśmy tak myśleć, ale to wcale nie musi być prawda.

Nastrój to tylko etykieta. Nazwa zestawu procesów zachodzących w układzie nerwowym człowieka, który może powodować pewne reakcje. Drgnięcia powieki, naprężenie mięśni, zmianę temperatury czy oporu skóry. To, co uczymy się rozpoznawać, to właśnie te reakcje i w ten sposób określamy czyjś nastrój. A w dalszej kolejności uczymy się przewidywać te reakcje, a więc i nastroje. Kolejnym etapem jest analiza danych i wskazanie na tej podstawie, jakie bodźce mogą wpływać na emocje i nastroje. Stąd tylko krok do znajdowania optymalnych strategii wpływania – czy to na pojedynczego człowieka, czy na całe społeczności.

Piotr Biczyk, QED Software

Algorytmy są w stanie analizować ogromne ilości danych, a bojowa maszyna może być wyposażona w czujniki, które mogłyby pomóc jej określić nastrój stojącego przed nią człowieka. Czy to pozwoliłoby odróżnić cywila wystraszonego widokiem bojowego robota od bojownika, który denerwuje się, bo zaraz ma otworzyć ogień? To całkiem możliwe, ale wiele zależy od tego, czy uda się dostarczyć algorytmom wystarczająco dużo danych do nauki. Otwarte pytanie brzmi: w jaki sposób te dane zdobywać?

Wyobraźcie sobie, że w tym tłumie jest terrorysta. Czy maszyna go rozpozna? - Czy sztuczna inteligencja może się zbuntować? Może, ale inaczej niż myślicie - dokument - 2020-09-14
Wyobraźcie sobie, że w tym tłumie jest terrorysta. Czy maszyna go rozpozna?

JAK ROBI TO TESLA?

Wiele firm próbuje stworzyć samochód, który poruszałby się samodzielnie po drogach. To bardzo trudne zadanie. Na drodze może zdarzyć się wszystko, a samochód musi na to zareagować. Dlatego Tesla, szykując się do stworzenia takiej maszyny, buduje swoje załogowe modele w taki sposób, by zbierały jak najwięcej danych. Informacje zapisane w czasie setek tysięcy przejechanych kilometrów ostatecznie mają sprawić, że autonomiczne maszyny będą wiedziały, co robić.

Wciąż trwa dyskusja, czy wojna przy użyciu maszyn będzie etyczna. Przeciwnicy mówią, że rządy poszczególnych krajów mogą zbyt chętnie rozpoczynać wojny, jeśli będą wiedziały, że stawką nie jest ludzkie życie. Sugerują także, że maszyna nie ma litości i po prostu realizuje swój program, nawet tam, gdzie człowiek by się zawahał.

Z drugiej strony, zwolennicy przypominają, że żołnierze w czasie działań wojennych zbyt często tracą nad sobą kontrolę. Widok rannych i zmarłych towarzyszy budzi nienawiść do przeciwnika, która czasem kończy się egzekucjami jeńców, torturami, gwałtami, rabunkami. Armia maszyn nie dokonałaby masakry w Nankinie… O ile oczywiście jej właściciel nie wpisałby tego w ich oprogramowanie.

Ostatecznie możemy uznać, że współczesne armie będą coraz bardziej nasycone systemami SI. Choćby dlatego, że tego rodzaju rozwiązania są skuteczne. Pytanie brzmi: czy gdy już powstaną sieci, kierujące całymi flotami i armiami, możliwy będzie bunt?

TWOIM ZDANIEM

Boisz się, że sztuczna inteligencja w przyszłości pozbawi cię pracy?

Nie
63,9%
Tak
36,1%
Zobacz inne ankiety
Czy żyjemy w Matrixie? 5 rzeczy, które przewidziane zostały w filmach Wachowskich
Czy żyjemy w Matrixie? 5 rzeczy, które przewidziane zostały w filmach Wachowskich

Niektórzy wierzą, że cały czas żyjemy w jakimś rodzaju symulacji. Inni sami ją sobie tworzą i zamykają się w niej, odcinając od prawdziwego życia. Co tak naprawdę przewidziała matrixowa wyrocznia?

Przedziwne gadżety wojskowe z gier, które naprawdę istnieją
Przedziwne gadżety wojskowe z gier, które naprawdę istnieją

Rzeczywistość coraz częściej dogania fantazję. Rzeczy, które wczoraj wydawały się wymysłem pisarzy lub twórców gier, dziś mogą być już realną technologią. Oto popularne mechaniki i przedmioty z gier komputerowych, które istnieją naprawdę.