Google ostrzega pracowników przed AI
Google wprowadza w życie zasady mające zapobiegać wyciekom danych, wynikających z korzystania ze sztucznej inteligencji, jak np. ChatGPT. Jednocześnie firma nie rezygnuje z zastosowań AI w pracy.

Narzędzia takie jak ChatGPT usprawniają wykonywanie wielu zadań, a w szczególności lubią wykorzystywać je pracownicy wielu firm. Nie zawsze są one w pełni godne zaufania, a jak pokazuje historia – mogą one nawet powodować wycieki wrażliwych danych. Dlatego właśnie m.in. przedsiębiorstwo Alphabet, będące spółką-matką Google’a, ostrzega swoich pracowników przed wykorzystywaniem AI do ułatwienia sobie pracy.
Google jest ostrożne z AI
Pracownicy korporacji otrzymali wytyczne odnośnie do bezpieczeństwa przy korzystaniu z chatbotów firm zewnętrznych oraz rozwijanej przez Google alternatywy w postaci Barda. Nie powinni oni do takich narzędzi wprowadzać poufnych informacji, ze względu na ryzyko wycieku danych oraz ich potencjalne przetworzenie w trakcie wykonywania operacji dla innych użytkowników, nie będących członkami zespołu Google.
Ponadto programiści giganta z Mountain View nie powinni bezpośrednio korzystać z wygenerowanego kodu przez np. ChatGPT, ponieważ uzyskany wynik może zawierać błędy lub celowo wprowadzone luki w zabezpieczeniach. Mimo tego Google nie zabrania wspomagania się m.in. Bardem w celu usprawnienia swojej pracy.
AI nie zostało zakazane
Google nie ma więc negatywnego stosunku wobec narzędzi wykorzystujących sztuczną inteligencję. Chodzi o wyznaczenie jasnych wytycznych, mających na celu wprowadzenie ograniczeń w zakresie korzystania z tego rodzaju technologii. Wynika to z wrażliwości przechowywanych informacji.
Ponadto ustalenie standardów bezpieczeństwa staje się standardem w korporacjach, bo w końcu dyskusja dot. regulacji prawnych wobec AI nadal trwa. A co Wy uważacie na temat wykorzystywania czatbotów przy pracy z wrażliwymi danymi? Podajcie nam swoją opinię w komentarzach.
Może Cię zainteresować:
- Microsoft chce pracować za nas, firmy mogą nie być zadowolone
- Prawnik może zaprzepaścić 30-letnią karierę z powodu ChatGPT
Więcej:Wikipedia traci czytelników. Google podkrada ruch, AI podcina skrzydła, Elon Musk odpala Grokipedię
Komentarze czytelników
tRikson Pretorianin

dostałem takie samo info w swoim korpo a nie pracuje w google.
NieTakiStarySpecjalista Junior
U mnie, zakład produkcyjny: zakaz używania AI dla wszystkich działów.
Dlatego póki AI nie zostanie udostępnione do indywidualnej implementacji w firmach z calkowitum odcięciem od internetu to nie ma co się martwić o stratę pracy wielu ludzi :)
Benekchlebek Senator
Czyżby się bali, że sztuczna inteligencja ich przechwyci jak w filmach?
sabaru Senator
Chyba nikt treści nie czytał bo już widzę że ludzie sobie dopowiadają różne historie. Chodzi głównie o to że firmy boją się że pracownik do takiego ChatGPT może wprowadzić dane, które są cenne dla danej firmy. A dane wprowadzane do takiego ChatGPT w żadne sposób nie są szyfrowane. Ba mało tego, po drugiej stronie zawsze ktoś te dane czyta i uzupełnia takiego CHatGPT więc przypadkiem zwykły user może je dostać po przez zadanie odpowiedniego pytania i bęc informacje wyciekły. Więc firmy starają się te generatory blokować.
Choć całkowite blokowanie takich generatorów to głupota bo jak to mówią mleko się wylało i z nami zostanie. Firma, która całkowicie zablokuje taki generator w przyszłości może się przejechać.