autor: Marek Pluta
Pierwsze firmy zakazują użycia ChatGPT w pracy
ChatGPT to przydatne narzędzie, z którego korzysta wiele osób, jednak nie wszyscy są do niego optymistycznie nastawieni. Wiele japońskich firm wprowadziło zakazy używania sztucznej inteligencji w pracy, ze względu na ryzyko wycieku informacji.

ChatGPT pokazuje, jak bardzo sztuczna inteligencja może nam ułatwiać codzienne życie. Narzędzie zyskujące popularność w błyskawicznym tempie nie tylko pomaga wyszukiwać informacje w sieci, ale też stawia wyjątkowo trafne diagnozy lekarskie oraz może zająć się biznesem (z przymrużeniem oka). Całkiem niedawno, w ramach eksperymentu, chatbot pomyślnie zdał bowiem amerykański egzamin lekarski USMLE, który muszą zaliczyć studenci medycyny, aby zostać licencjonowanymi lekarzami.
Nie wszyscy uważają jednak sztuczną inteligencję za użyteczne narzędzie. Jak donosi Techgoing, część dużych japońskich firm zakazała swym pracownikom korzystania z ChatGPT oraz innych sieci neuronowych, ze względu na ryzyko wycieku informacji i inne zagrożenia.
SoftBank zabronił przetwarzania informacji umożliwiających zidentyfikowanie firmy lub innych poufnych danych za pomocą AI. Hitachi zamierza wprowadzić nowe zasady etyczne dotyczące korzystania ze sztucznej inteligencji, które doprecyzują standardy przyjęte przez koncern w 2021 roku. Fujitsu z kolei ostrzegło pracowników o szeregu problemów etycznych i prawnych pojawiających się podczas korzystania z podobnych usług. Firma powołała też do życia specjalny dział IT, który zajmie się decyzjami związanymi z wykorzystaniem sztucznej inteligencji.
Duże firmy zakazują AI
Oprócz wymienionych firm, podobne zakazy wprowadziły także Mizuho Financial Group, MUFG Bank i Sumitomo Mitsui Banking, które całkowicie zablokowały dostęp do ChatGPT z firmowych komputerów, aby zapobiec wyciekom informacji oraz nadużyciom. Nieco luźniejsze zasady ma Panasonic Connect, który wprawdzie wykorzystuje AI do tworzenia dokumentów, ale dopiero po podjęciu kroków zapobiegających wyciekowi informacji. Ponadto pouczono pracowników, aby nie wprowadzali do systemu żadnych danych osobowych.

Zdaniem ekspertów korzystanie z takich usług sprawia, że pracownicy stają się mniej ostrożni, co zwiększa ryzyko wyprowadzenia poufnych danych poza firmę. Problem stanowi również udzielanie przez ChatGPT błędnych odpowiedzi, a to może spowodować rozprzestrzenianie się fałszywych informacji wśród pracowników i klientów. Specjaliści uważają więc, że takie usługi powinny zostać wstępnie przetestowane przez dedykowane zespoły, aby opracować zasady ich wykorzystania.
Sztuczna inteligencja weszła na salony drzwiami razem z futryną. Dlatego warto już teraz zadbać o jasne i przejrzyste zasady używania takich narzędzi, które pozwolą uniknąć zagrożeń, jakie mogą się pojawić.

Zapraszamy Was na nasz nowy kanał na YouTube – tvtech, który jest poświęcony zagadnieniom związanym z nowymi technologiami. Znajdziecie tam liczne porady dotyczące problemów z komputerami, konsolami, smartfonami i sprzętem dla graczy.