Giganci pokroju Mety czy też Google zmieniają swoje polityki prywatności, by móc wykorzystywać dane swoich użytkowników do szkolenia AI. Problemem jest jednak fakt, że modyfikacje wprowadzane są po cichu.
Obecnie sztuczna inteligencja jest niezwykle popularnym tematem. Nie dziwi więc, że każda z wiodących firm technologicznych chce mieć swoje własne AI. Problemem jest jednak jej szkolenie. Wymaga ono bowiem dostępu do informacji. W związku z tym giganci pokoju Mety czy też Google decydują się zmienić przepisy prywatności w taki sposób, by móc wykorzystać dane własnych użytkowników.
Obecnie wiele technologicznych firm podpisuje umowy, w ramach których może korzystać z danych chronionych prawami autorskimi. Przykładem jest chociażby ogłoszona zaledwie kilka dni temu współpraca OpenAI oraz Time.
To jednak nie jedyny sposób, w jak firmy decydują się pozyskać informacje potrzebne do szkolenia AI. Dlatego też część z nich kieruje swój wzrok w kierunku treści publikowanych przez użytkowników.
Warto mieć na uwadze, że na terenie Unii Europejskiej sprawa szkolenia sztucznej inteligencji na danych użytkowników jest zdecydowanie bardziej skomplikowana. Przepisy na terenie wspólnoty są bowiem zdecydowanie bardziej restrykcyjne. Przekonała się o tym chociażby wspomniana już Meta.
Więcej:Ponad 2000 zł za RAM z outletu. Ceny pamięci szaleją wszędzie na świecie

Autor: Agnieszka Adamus
Z GRYOnline.pl związana od 2017 roku. Zaczynała od poradników, a teraz tworzy głównie dla newsroomu, encyklopedii i promocji. Samozwańcza specjalistka od darmówek. Uwielbia strategie, symulatory, RPG-i i horrory. Ma też słabość do tytułów sieciowych. Spędziła nieprzyzwoicie dużo godzin w Dead by Daylight i Rainbow Six: Siege. Oprócz tego lubi oglądać filmy grozy (im gorsze, tym lepiej) i słuchać muzyki. Największą pasją darzy jednak pociągi. Na papierze fizyk medyczny. W rzeczywistości jednak humanista, który od dzieciństwa uwielbia gry.