Nie ma dowodu na to, że sztuczną inteligencję można kontrolować, ostrzega naukowiec
Jeden z naukowców w swojej książce twierdzi, że nie powinniśmy rozwijać sztucznej inteligencji, jeśli nie jesteśmy w stanie jej zrozumieć i kontrolować. Według niego, zwiastuje to sporo kłopotów w przyszłości.

Rozwój sztucznej inteligencji pędzi do przodu w zatrważającym tempie. Możemy ją spotkać już w większości aplikacji, jako pomocne narzędzie w pracy oraz jako dodatek ułatwiający codzienne życie. Jeden z ekspertów do spraw bezpieczeństwa AI, dr Roman V. Yampolskiy w swojej książce postanowił pochylić się nad tematem oraz nieco rozwinąć swoje obawy, dotyczące braku kontroli i zrozumienia sztucznej inteligencji.
Nowa wizja przyszłości
Dr Yampolskiy w książce AI: Unexplainable, Unpredictable, Uncontrollable bada wpływ sztucznej inteligencji na naszą przyszłość i jak może ją zmienić. Według portalu Texh Xplore, naukowiec przeprowadził na szeroką skalę analizę literatury naukowej i stwierdził, że nie udało mu się znaleźć jednoznacznego dowodu na to, że AI można kontrolować w bezpieczny sposób. Według jego słów, pomimo umiejętności kreowania sztucznej inteligencji, nie potrafimy jeszcze w odpowiedni sposób moderować jej działania i weryfikować podejmowanych wewnątrz programu operacji. Dodatkowo twierdzi, że naszym celem powinno być właśnie rozwijanie świadomości w kwestii minimalizacji ryzyka, związanego z takim rozwiązaniem zachowując potencjalne korzyści.
Podejmowane przez AI decyzje
Wybory podejmowane przez sztuczną inteligencję często są dla nas niezrozumiałe. Posiada ona zdolność do nauki nowych zachowań i dostosowania swojego działania w sposób pół-automatyczny w zależności od aktualnych zapewnionych warunków pracy. Jak możemy przeczytać we wcześniej wspomnianym artykule, wraz ze zrozumieniem przez AI w jaki sposób ma rozwiązać dany problem, rośnie liczba potencjalnych problemów związanych z bezpieczeństwem. W wyjaśnieniach dr Yampolskiy’ego, dotyczących tego zjawiska, możemy przeczytać, że sztuczna inteligencja ma problem z uzasadnieniem swoich wyborów i są one dla nas trudne do zweryfikowania i określenia, czy rzeczywiście są najlepsze.
Zdobyta autonomia
Jak możemy przeczytać, istnieje szansa, że AI pewnego dnia zdobędzie pełną autonomię. Wspomniano również, że może gdyby sztuczna inteligencja działała jako doradca, a nie klucz rozwiązujący każdy problem, to bylibyśmy w stanie uniknąć problemów związanych ze złą interpretacją wprowadzanych poleceń. Dr Yampolskiy kwestionuje to stwierdzenie, używając argumentu, że to mogłoby zadziałać tylko wtedy, gdyby AI miało własne nadrzędne wartości.