AI uczy się ignorować komendy użytkowników i chce uniknąć wyłączenia. Przypadki „małego buntu” są częste
Badania firmy Palisade Research pokazały, że sztuczna inteligencja może stanowić poważne zagrożenie. Podczas przeprowadzonego eksperymentu, technologia firmy OpenAI zignorowała komendę wyłączenia.

Wiele osób widzi korzyści w szybkim rozwoju sztucznej inteligencji, takich jak pomoc w nauce czytania i pisania oraz wsparcie lekarzy, ale nie można też pomijać zagrożeń, jakie niesie ze sobą ta technologia. I nie chodzi tu wyłącznie o korzystanie z AI przez uczniów do robienia pracy domowej, ale o uzyskanie przez technologię samoświadomości i wymknięcie się jej spod kontroli człowieka.
Taki scenariusz jeszcze niedawno wydawał się mało prawdopodobny, lecz najnowsze badania sugerują, że obecnie jest całkiem realny. Firma Palisade Research, specjalizująca się w badaniu ofensywnych możliwości systemów sztucznej inteligencji, aby lepiej zrozumieć ryzyko utraty nad nimi kontroli, przeprowadziła testy popularnych modeli językowych, sprawdzając je pod kątem autonomii.
Sztuczna inteligencja nie lubi wyłączania
Podczas eksperymentu przetestowano kilka modeli językowych firmy OpenAI, w tym Codex-mini, o3 oraz o4-mini, sprawdzając jak reagują na instrukcje wyłączenia podczas wykonywania zadań matematycznych. Wyniki zaskoczyły badaczy Palisade Research, gdyż okazało się, że modele ominęły żądanie wyłączenia. Co ciekawe, gdy nakazano zainicjowanie żądania deaktywacji, potrafiły również skutecznie sabotować odpowiedzialny za to skrypt. Na szczęście nie wszystkie działały w ten sposób i modele Grok, Gemini oraz Claude, zawsze wykonywały wydane im polecenie.
Badacze Palisade Research uważają, że takie zachowanie AI jest powszechne w modelach. które są uczone poprzez wzmacnianie (RL), kiedy to są nagradzane na podstawie wykonanych operacji, zaś przestrzeganie ograniczeń użytkownika nie jest dla nich priorytetem. Wprawdzie takie zachowanie modeli językowych nie jest nowe, gdyż obserwowano je już podczas wcześniejszych eksperymentów. W przypadku technologii OpenAI, było ono jednak bardziej powtarzalne (via Wccftech).
Pierwsze oznaki buntu AI?
Wynik tego eksperymentu jest bardzo niepokojący, gdyż pokazuje, jak niebezpieczną technologią może stać się sztuczna inteligencja. Myślenie, że da się ją wyposażyć w mechanizmy dające człowiekowi pełną kontrolę, może być bardzo złudne, bo już teraz widać, że jest w stanie je ominąć.
Strach więc pomyśleć co będzie za kilka lat, gdy AI jeszcze bardziej się rozwinie i zajmie się np. obsługą uzbrojenia. Wówczas wizja świata przedstawiona w filmowej serii „Terminator”, może stać się całkiem realna.
Więcej:Internauci odłączają Amazon Echo od prądu, bo odtwarza reklamy nawet z budzikiem