Co się dzieje z zapytaniem wysłanym do copilota? Czy mogę go poprosić o przeanalizowanie jakiś danych i mieć pewność, że nie opuszczą mojego komputera, nie zostaną wykorzystane w sposób, jaki nie chce by były wykorzystane? Dziwie się, że w ogóle są firmy, które chcą używać copliota.
Obecnie używanie popularnych AI jest bardzo problematyczne jeżeli chodzi o bezpieczeństwo danych. Podam przykład z ekosystemu Samsunga. Wysłaliśmy na początku zeszłego roku zapytanie do Samsunga o ich usługi AI na telefonach z serii ultra. Dostaliśmy jasną odpowiedź większość usług wymaga połączenia z serwerem i jeżeli użyjecie ich my(samsung) nie gwarantujemy, że nie użyjemy wysłanych danych. Tym sposobem większość AI nowości nie jest możliwa do używania w firmie.
To tym bardziej przerażające, bo wchodząc w galerie mamy przycisk od AI na dole i po rozmowie z przedstawicielem Samsunga dosłownie usłyszałem, że tak moje prywatne zdjęcia po aktywacji tej funkcji mogą przestać być prywatne. Mailowo już nie dostaliśmy takiego prostego potwierdzenia. Ale to jest dla mnie totalne szaleństwo, że telefon chwalący się tym, że zabezpiecza dane użytkownika, dosłownie w interfejsie bez bardzo jasnej komunikacji daję furtkę do tego by dane z telefonu wypływały. Jasne trzeba przeklikać z dwa ekrany i są odnośniki do polityki prywatności, ale informacja jest ukryta w dokumencie o polityce prywatności. To doprowadziło do całkowitego zakazu korzystania z AI na telefonach Samsunga.
Może lekko zszedłem z tematu, nie używamy Office w ogóle i nie wiem jak Microsoft komunikuje wykorzystanie danych przez Copilota, ale coś czuję, że nie lepiej niż Samsung.
Też nie wiem jak MS komunikuje politykę prywatności da AI w Office, ale o lokalnym przetwarzaniu możesz sonie tylko pomarzyć. Wszystko leci na serwery.
Z AI, które jakkolwiek próbują dbać o prywatność, to od Protona Lumo. Wciąż dane muszą być dostępne dla serwera, żeby mógł wygenerować odpowiedź, ale nie są później przechowywane i wykorzystywane do uczenia modelu. Proton ma całkiem niezłą reputację i znacznie prędzej uwierzę im, niż MS czy Google, no ale to jednak wciąż działa na zasadzie "uwierz mi". No i samo Lumo nie jest jakieś wybitnie dobre.
Jest też coś takiego jak Confer. Dane też lecą do serwera, ale są niby szyfrowane metodą end-to-end. W praktyce nie są z tego prostego powodu, że AI po prostu musi zobaczyć twoje zapytanie, żeby móc na nie odpowiedzieć i nic, poza szyfrowaniem homomorficznym (w uproszczeniu rodzaj szyfrowania, który pozwala przeprowadzać na nich operacje bez ich odszyfrowania), ale wydajnościowo to wciąż pieśń odległej przyszłości.
W Conferze, jeśli się nie mylę, są używane enklawy sprzętowe, żeby serwer nie wiedział, co właściwie przetwarza. Nie jest idealnie, ale to krok w dobrym kierunku.
Dokładnie. U mnie w pracy dlatego jest używany jest Office 2022 i 2024, który nie ma Copilota.
Używanie czegoś, co ma zintegrowane AI, które nie wiadomo gdzie wysyła dane i jakie dane do pism, które dosyć często zawierają dane osobowe, a także dane zastrzeżone, a niekiedy nawet objęte klauzulami tajności to jest coś, co u mnie by nie przeszło.