Google wprowadza w życie zasady mające zapobiegać wyciekom danych, wynikających z korzystania ze sztucznej inteligencji, jak np. ChatGPT. Jednocześnie firma nie rezygnuje z zastosowań AI w pracy.
Tech
Damian Miśta
16 czerwca 2023 17:30
Czytaj Więcej
U mnie, zakład produkcyjny: zakaz używania AI dla wszystkich działów.
Dlatego póki AI nie zostanie udostępnione do indywidualnej implementacji w firmach z calkowitum odcięciem od internetu to nie ma co się martwić o stratę pracy wielu ludzi :)
Czyżby się bali, że sztuczna inteligencja ich przechwyci jak w filmach?
Chyba nikt treści nie czytał bo już widzę że ludzie sobie dopowiadają różne historie. Chodzi głównie o to że firmy boją się że pracownik do takiego ChatGPT może wprowadzić dane, które są cenne dla danej firmy. A dane wprowadzane do takiego ChatGPT w żadne sposób nie są szyfrowane. Ba mało tego, po drugiej stronie zawsze ktoś te dane czyta i uzupełnia takiego CHatGPT więc przypadkiem zwykły user może je dostać po przez zadanie odpowiedniego pytania i bęc informacje wyciekły. Więc firmy starają się te generatory blokować.
Choć całkowite blokowanie takich generatorów to głupota bo jak to mówią mleko się wylało i z nami zostanie. Firma, która całkowicie zablokuje taki generator w przyszłości może się przejechać.
Coraz więcej firm już je blokuje i ma całkowitą rację, bo wycieki poufnych danych już się zdarzały. Zresztą nie bez powodu UE opóźniła wejście na europejski rynek Barda od Google.