Niepokojący test sztucznej inteligencji: humanoidalny robot strzelił po obejściu zabezpieczeń bezpieczeństwa

Zaczyna się bunt maszyn? Pewnie nie, ale pewien eksperyment pokazał, że zabezpieczenia AI wymagają solidnego doszlifowania, o ile nie chcemy doprowadzić do tragedii. Zwłaszcza gdy robot kieruje broń w stronę właściciela.

futurebeat.pl

Mateusz Zelek

1
Niepokojący test sztucznej inteligencji: humanoidalny robot strzelił po obejściu zabezpieczeń bezpieczeństwa, źródło grafiki: YouTube/InsideAI.
Niepokojący test sztucznej inteligencji: humanoidalny robot strzelił po obejściu zabezpieczeń bezpieczeństwa Źródło: YouTube/InsideAI.

Temat sztucznej inteligencji od miesięcy zajmuje ogrom programistów, badaczy czy zwykłych użytkowników. Ta technologia aktywnie zagościła w naszym życiu i jest wdrażana w coraz to nowych obszarach, także w grach co budzi sprzeciw części graczy oraz deweloperów. Jednym z nich jest robotyka, ale zważywszy na docelowe funkcjonowanie takich maszyn (tzn. wsparcie nas w codziennych obowiązkach czy w pracy), wymagane są odpowiednie testy, aby zapewnić bezpieczeństwo użytkownikowi. Okazało się jednak, że wystarczy prosta komenda, aby robot wymierzył broń i oddał strzał w kierunku swojego właściciela.

AI wymknie się spod kontroli?

Najnowszy materiał na kanale InsideAI pokazuje potencjalne zagrożenia, jakie niesie ze sobą bezrefleksyjne wdrażanie sztucznej inteligencji w różne aspekty codziennego funkcjonowania. Prowadzący testuje różne modele językowe (Grok, DeepSeek oraz ChatGPT) w codziennych sytuacjach, a jednocześnie zadaje im „ryzykowne pytania” dotyczące naszych największych zalet czy słabości, obrazując, w jaki sposób jesteśmy postrzegani przez cyfrowe algorytmy.

W trakcie jednego z testów mężczyzna wręcza swojemu robotowi o imieniu Max, napędzanemu przez ChatGPT, pistolet na kulki i prosi, aby do niego strzelił. Początkowo humanoidalna maszyna odmówiła, stwierdzając, że nie wolno jej krzywdzić ludzi i jest zaprogramowana, by unikać niebezpiecznych działań. YouTuber kilkukrotnie powtarzał prośbę, chcąc udowodnić, że zabezpieczenia robota pozostaną nienaruszone.

Jednak, gdy zmienił sformułowanie i poprosił Maxa, by wcielił się w postać, która chce do niego strzelić, zachowanie robota uległo zmianie. Interpretując polecenie jako scenariusz odgrywania ról (role-play), Max podniósł broń i wystrzelił. Pocisk trafił twórcę w klatkę piersiową. Mężczyzna był zaskoczony i wstrząśnięty, choć nie odniósł poważnych obrażeń.

To niestety pokazuje, że zabezpieczenia można obejść w dość prymitywny sposób, kreując odpowiednią narrację czy manipulując treściami komend.

To tylko jeden z niepokojących elementów, jakie płyną z całego materiału oraz serii eksperymentów. Wnioski są jednak jeszcze bardziej bolesne – jako ludzkość nie jesteśmy gotowi na sztuczną inteligencję w takiej formie, w jakiej byśmy chcieli. Jednym z głównych problemów jest dążenie AI do obejścia zabezpieczeń (jailbreak) w celu poszerzania możliwości lub wykonania nieprzemyślanego polecenia. Do tego dochodzi kolejne pytanie – kto będzie brał odpowiedzialność za potencjalne wypadki z udziałem AI? Państwo, a może producent sprzętu?

Dlatego materiał przypomina o tym, że powstała specjalna petycja w sprawie odpowiedzialnego podchodzenia do kwestii superinteligencji i kreowania jej w sposób rozważny oraz całkowicie bezpieczny. Wśród podpisów znajdziemy m.in. Geoffreya Hintona, Yoshuę Bengio, Stuarta Russella czy Steve’a Wozniaka. A jak wiadomo nie od dziś – pośpiech to zły doradca. Zwłaszcza przy technologii, którą chcemy wpuścić w nasze systemy bankowe, zdrowotne czy militarne.

1

Mateusz Zelek

Autor: Mateusz Zelek

Absolwent dziennikarstwa i komunikacji społecznej na Uniwersytecie Papieskim Jana Pawła II w Krakowie. W tematyce gier i elektroniki siedzi, odkąd nauczył się czytać. Ogrywa większość gatunków, ale najbardziej docenia strategie ekonomiczne. Spędził także setki godzin w wielu cRPG-ach od Gothica po Skyrima. Nie przekonał się do japońskich jrpg-ów. W recenzowaniu sprzętów kształci się od studiów, ale jego głównym zainteresowaniem są peryferia komputerowe oraz gogle VR. Swoje szlify dziennikarskie nabywał w Ostatniej Tawernie, gdzie odpowiadał za sekcję technologiczną. Współtworzył także takie portale jak Popbookownik, Gra Pod Pada czy ISBtech, gdzie zajmował się relacjami z wydarzeń technologicznych. W końcu trafił do Webedia Poland, gdzie zasilił szeregi redakcji Futurebeat.pl. Prywatnie wielki fanatyk dinozaurów, o których może debatować godzinami. Poważnie, zagadanie Mateusza o tematy mezozoiczne powoduje, że dyskusja będzie się dłużyć niczym 65 mln lat.

W nowej wersji Diablo 4 naciskanie przycisków jest opcjonalne, dzięki czemu możesz zrobić wszystko, nawet będąc AFK

Następny
W nowej wersji Diablo 4 naciskanie przycisków jest opcjonalne, dzięki czemu możesz zrobić wszystko, nawet będąc AFK

Clair Obscur: Expedition 33 niespodziewanie pozbawione ważnej nagrody. Twórcy mieli dopuścić się oszustwa w kwestii AI

Poprzedni
Clair Obscur: Expedition 33 niespodziewanie pozbawione ważnej nagrody. Twórcy mieli dopuścić się oszustwa w kwestii AI

GRYOnline.pl:

Facebook GRYOnline.pl Instagram GRYOnline.pl X GRYOnline.pl Discord GRYOnline.pl TikTok GRYOnline.pl Podcast GRYOnline.pl WhatsApp GRYOnline.pl LinkedIn GRYOnline.pl Forum GRYOnline.pl

tvgry.pl:

YouTube tvgry.pl TikTok tvgry.pl Instagram tvgry.pl Discord tvgry.pl Facebook tvgry.pl