Pierwsze firmy zakazują użycia ChatGPT w pracy
ChatGPT to przydatne narzędzie, z którego korzysta wiele osób, jednak nie wszyscy są do niego optymistycznie nastawieni. Wiele japońskich firm wprowadziło zakazy używania sztucznej inteligencji w pracy, ze względu na ryzyko wycieku informacji.

ChatGPT pokazuje, jak bardzo sztuczna inteligencja może nam ułatwiać codzienne życie. Narzędzie zyskujące popularność w błyskawicznym tempie nie tylko pomaga wyszukiwać informacje w sieci, ale też stawia wyjątkowo trafne diagnozy lekarskie oraz może zająć się biznesem (z przymrużeniem oka). Całkiem niedawno, w ramach eksperymentu, chatbot pomyślnie zdał bowiem amerykański egzamin lekarski USMLE, który muszą zaliczyć studenci medycyny, aby zostać licencjonowanymi lekarzami.
Nie wszyscy uważają jednak sztuczną inteligencję za użyteczne narzędzie. Jak donosi Techgoing, część dużych japońskich firm zakazała swym pracownikom korzystania z ChatGPT oraz innych sieci neuronowych, ze względu na ryzyko wycieku informacji i inne zagrożenia.
SoftBank zabronił przetwarzania informacji umożliwiających zidentyfikowanie firmy lub innych poufnych danych za pomocą AI. Hitachi zamierza wprowadzić nowe zasady etyczne dotyczące korzystania ze sztucznej inteligencji, które doprecyzują standardy przyjęte przez koncern w 2021 roku. Fujitsu z kolei ostrzegło pracowników o szeregu problemów etycznych i prawnych pojawiających się podczas korzystania z podobnych usług. Firma powołała też do życia specjalny dział IT, który zajmie się decyzjami związanymi z wykorzystaniem sztucznej inteligencji.
Duże firmy zakazują AI
Oprócz wymienionych firm, podobne zakazy wprowadziły także Mizuho Financial Group, MUFG Bank i Sumitomo Mitsui Banking, które całkowicie zablokowały dostęp do ChatGPT z firmowych komputerów, aby zapobiec wyciekom informacji oraz nadużyciom. Nieco luźniejsze zasady ma Panasonic Connect, który wprawdzie wykorzystuje AI do tworzenia dokumentów, ale dopiero po podjęciu kroków zapobiegających wyciekowi informacji. Ponadto pouczono pracowników, aby nie wprowadzali do systemu żadnych danych osobowych.

Zdaniem ekspertów korzystanie z takich usług sprawia, że pracownicy stają się mniej ostrożni, co zwiększa ryzyko wyprowadzenia poufnych danych poza firmę. Problem stanowi również udzielanie przez ChatGPT błędnych odpowiedzi, a to może spowodować rozprzestrzenianie się fałszywych informacji wśród pracowników i klientów. Specjaliści uważają więc, że takie usługi powinny zostać wstępnie przetestowane przez dedykowane zespoły, aby opracować zasady ich wykorzystania.
Sztuczna inteligencja weszła na salony drzwiami razem z futryną. Dlatego warto już teraz zadbać o jasne i przejrzyste zasady używania takich narzędzi, które pozwolą uniknąć zagrożeń, jakie mogą się pojawić.
Komentarze czytelników
grabeck666 Senator
AI na bank zrobiłby mniej literówek niż ty jednocześnie zachowując (imo nawet znacząco przewyższając) poziom merytoryczny twojej wypowiedzi...
Poza tym, był tu z miesiąc temu czy dwa artykuł napisany przez AI i połowa ludzi nawet nie zajarzyła, że to przez AI pisane...
Misiaty Legend
Odpowiadając:
1. AI posiada bardzo specjalistyczną wiedzę w wielu dziedzinach. W jakiej branży pracujesz i co robisz na codzien?
2. AI już dzisiaj uspokaja wnerwionych klientów na infoliniach (boty, nawet o tym nie wiesz) czy czatach.
3. AI jest świetne w przygotowywaniu specjalistycznych raportów i obrabianiu danych.
4. To że nie wiesz w czym może pomóc AI to nie jest to ograniczenie AI. To tylko i wyłącznie Twoje ograniczenie.
5. I dlatego nie jesteś prezesem, dyrektorem czy kierownikiem. Oni mogą być tam gdzie są bo nie negują nowych technologii tylko potrafią ułatwić sobie życie.
radek1982 Generał
zA I mek Junior
Może na początku nie ma specjalistycznej wiedzy, czy raczej nie miała. Wystarczy że zapyta ktoś z branży, AI nie zrozumie, pytający rozszerzy temat dodając wiedzy ( doprecyzowujac pytanie) zeby uzyskac odpowiedz. Wystarczy że wpadnie na to parę osób z różnych firm i na pytanie które postawisz po czasie uzyskasz odpoewdz bo AI zwyczajnie zapamietuje i się uczy.
zA I mek Junior
chatgpt uczy sie na biezaco, owszem nie ma dostepu do internetu i "wyjsciowo" jego wiedza jest na wrzesien 2019 o ile dobrze pamietam. i wlasnie dostarczanie mu/jej wiedzy w pytaniach go/ja rozwija. Przyklad z zycia wziety. w 2021 zmienilo sie specyfikacja pewnego API. ChatGPT nie majac dostepu do internetu podal zly kod, a wlasciwie jego kawalek bazujac na starym API. kiedy zostala mu przedstawiona zmiana od tej pory uzywa nowego API. Kwestie fundamentalne nie dadza sie tak latwo zmienic na "zle" ale to tez mozliwe jesli bedziesz cierpliwy i nikt nie bedzie tego w zaden sposob nadzorowal i tu bedzie najprawdopodobniej inna "swiadomosc" do ktorej typ jak ty czy ja nie bedzie mial bezposredniego dostepu. A korpo to calkiem inna kwestia... i nie kazda zakazuje.