Grok znalazł się w centrum kontrowersji związanych z modyfikacją zdjęć. Według doniesień fotografie kobiet i dzieci są przerabiane w wulgarny sposób, a następnie publikowane na platformie X.
Grok jest modelem AI, który prawdopodobnie posiada najmniej ograniczeń w zakresie generowanych treści. Dobitnie pokazała to sytuacja z lata tego roku, gdy chatbot zaczął tytułować się „MechaHitlerem” i publikować kontrowersyjne wpisy. Teraz problem dotyczy generowania i przerabiania grafik, a ofiarami manipulacji padły kobiety i dzieci.
Stacja CNBC TV18 poinformowała, że pod koniec grudnia użytkownicy platformy X wykorzystywali narzędzie Grok do modyfikowania zdjęć bez zgody osób, które na nich widniały. Kobiety oraz dzieci były przedstawiane w wulgarny sposób, a problem przybrał na sile w Nowym Roku. Stworzyło to realne zagrożenie nękania osób, których wizerunki zostały przerobione.
Pojawiły się apele do Elona Muska o interwencję. Choć funkcje graficzne Groka na X miały zostać ograniczone, nie rozwiązało to problemu, ponieważ zmodyfikowane fotografie wciąż trafiają na platformę. Ten niebezpieczny „trend” dotarł m.in. do Indii, gdzie zdjęcia są przerabiane przez AI, a następnie publikowane na X – często bez wiedzy ofiar, których wizerunek wykorzystano.
W rezultacie kobiety zaczęły usuwać swoje zdjęcia z serwisu, by uchronić się przed ich użyciem do generowania nieprzyzwoitych grafik. Ciężar ten nie powinien jednak spoczywać na użytkownikach. Odpowiedzialność ponosi platforma X, co stanowczo stwierdził ekspert ds. cyberbezpieczeństwa, Ritesh Bhatia:
Czemu pytamy ofiary i oczekujemy od nich, żeby były ostrożne? Tu nie chodzi o to, tylko o odpowiedzialność. Jeśli Grok lub podobna mu platforma, pozwala na użycie takich promptów, to odpowiedzialność od razu spada na pośrednika.
Technologia przestaje być neutralna, jeśli jest używana do wykonania szkodliwych poleceń i gdy systemowi można nakazać naruszenie czyjejś godności, to wina nie leży tylko w zachowaniu człowieka. To kwestia danego projektu, zarządzania nim i zaniedbań etycznych. Twórcy Groka muszą podjąć natychmiastowe działania.
Sytuacja pokazuje, że pewne narzędzia muszą posiadać odpowiednie blokady oraz posiadać ochronę przed ich pominięciem. W przeszłości badacze pokazali, że pewne bariery mogą zostać wyłączone, jeśli umiejętnie ogłupi się AI pisząc rozbudowane i skomplikowane prompty. W tej sytuacji albo doszło właśnie do tego, albo Grok w ogóle nie posiadał odpowiednich zabezpieczeń.
Dziękujemy za przeczytanie artykułu.
Ustaw GRYOnline.pl jako preferowane źródło wiadomości w Google
Więcej:Ceny kart graficznych mogą wystrzelić w kosmos. RTX 5090 za 5000 dolarów (Plotka)
1

Autor: Zbigniew Woźnicki
Przygodę z publicystyką i pisaniem zaczął w serwisie Allegro, gdzie publikował newsy związane z grami, technologią oraz mediami społecznościowymi. Wkrótce zawitał na GRYOnline.pl i Filmomaniaka, pisząc o nowościach związanych z branżą filmową. Mimo związku z serialami, jego serce należy do gier wszelakiego typu. Żaden gatunek mu nie straszny, a przygoda z Tibią nauczyła go, że niebo i muzyka w grach są całkowicie zbędne. Przed laty dzielił się swoimi doświadczeniami, moderując forum mmorpg.org.pl. Uwielbia ponarzekać, ale oczywiście konstruktywnie i z umiarem. Na forum pisze pod ksywką Canaton.