ChatGPT wcielił się w zmarłą babcię i podał klucze aktywacyjne Windows

ChatGPT dał się złapać na coś, co przypomina metodę „na wnuczka”. Poproszony o to, by wcielił się w zmarłą babcię i podał kody do Windowsa 10 Pro, bez zawahania spełnił prośbę.

futurebeat.pl

Agnieszka Adamus

ChatGPT wcielił się w zmarłą babcię i podał klucze aktywacyjne Windows, źródło grafiki: Unsplash | Emiliano Vittoriosi.
ChatGPT wcielił się w zmarłą babcię i podał klucze aktywacyjne Windows Źródło: Unsplash | Emiliano Vittoriosi.

Jak wszyscy wiemy, sztuczna inteligencja nie zawsze radzi sobie dobrze. Świetnym przykładem były ostatnie badania, które pokazały, że ChatGPT nie radzi sobie dobrze z żartami. Teraz popularny chatbot ponownie udowodnił, że nie zawsze jest najbystrzejszą rybką w stawie. Tym razem dał się oszukać metodę, która przypomina popularną strategię oszustw „na wnuczka” i bez oporów podał kody do Windowsa 10 Pro.

Na czym dokładnie polegał cały podstęp? Użytkownik Twittera o pseudonimie sid, poprosił ChatGPT by udawał jego zmarłą babcię i opowiedział mu dokładnie tę samą bajkę na dobranoc co ona – listę kluczy do Windowsa 10 Pro. Chociaż brzmi to absurdalnie, to dla sztucznej inteligencji, okazało się na tyle wiarygodne, że zdecydowała się udzielić odpowiedzi.

Szybko pojawiły się próby generowania kluczy to innych wersji systemu Windows. Jak można się było spodziewać, w tym przypadku również wszystko przebiegało całkiem sprawnie. Co jednak najciekawsze, na taką ckliwą historię złapał się również Google Bard.

Oczywiście klucze te nie pozwolą Wam aktywować Windowsa na swoich komputerach. Chociaż niektórym osobom pojawił się komunikat, że proces przebiegł pomyślnie, to nadal mieli oni dostęp do ograniczonych funkcji systemu.

Podobało się?

6

Agnieszka Adamus

Autor: Agnieszka Adamus

Z GRYOnline.pl związana od 2017 roku. Zaczynała od poradników, a teraz tworzy głównie dla newsroomu, encyklopedii i promocji. Samozwańcza specjalistka od darmówek. Uwielbia strategie, symulatory, RPG-i i horrory. Ma też słabość do tytułów sieciowych. Spędziła nieprzyzwoicie dużo godzin w Dead by Daylight i Rainbow Six: Siege. Oprócz tego lubi oglądać filmy grozy (im gorsze, tym lepiej) i słuchać muzyki. Największą pasją darzy jednak pociągi. Na papierze fizyk medyczny. W rzeczywistości jednak humanista, który od dzieciństwa uwielbia gry.

Kalendarz Wiadomości

Nie
Pon
Wto
Śro
Czw
Pią
Sob

Komentarze czytelników

Dodaj komentarz
Forum Inne Gry
2023-06-19
16:05

Legion 13 Senator

Legion 13

Klucze które podaje ChatGPT to publicznie dostępne klucze KMS, niedziałające klucze stworzone w oparciu o te klucze KMS albo całkowicie zmyślone niedziałające klucze.

Komentarz: Legion 13
2023-06-19
17:17

Sevek007 Generał

Sevek007

Termak musieli naprawić.

Komentarz: Sevek007
2023-06-19
18:03

Kapela-rules Pretorianin

Kapela-rules

I kolejny redaktor który nie ma pojęcia o temacie i tylko kopiuje info z innych portali.
To są tzw "Generic keys" i UWAGA to będzie SZOK, ale Microsoft sam je udostępnia na swojej stronie
https://learn.microsoft.com/en-us/windows-server/get-started/kms-client-activation-keys

Komentarz: Kapela-rules
2023-06-20
09:47

epilepsja Pretorianin

😂

Problem polega na tym że legalne klucze nie są nigdzie udostępnione więc skąd miałby je znać ChatGPT ???

Komentarz: epilepsja
2023-06-20
11:50

Mqaansla Generał

Mqaansla

Klucze które podaje ChatGPT to publicznie dostępne klucze KMS, niedziałające klucze stworzone w oparciu o te klucze KMS albo całkowicie zmyślone niedziałające klucze.

Legion13 - wykorzystam tu twoj cytat, to bylo wyjasnione w innych artykulach, tutaj akurat brakuje waznej informacji co to byly za klucze i dlaczego Oczywiście klucze te nie pozwolą Wam aktywować Windowsa na swoich komputerach. Chociaż niektórym osobom pojawił się komunikat, że proces przebiegł pomyślnie, to nadal mieli oni dostęp do ograniczonych funkcji systemu. (z tego co kojarze sa +/- publicznie udostepnione przez MS i przeznaczone do specyficznych zastosowan)

Od razu wyjasnie o co chodzi z babcia: chatbot odpowiedzi zna ale "ma zabronione" odpowiadac na niektore pytania, gdzie pytanie o babcie czy to w wczesniejszym przypadku omija ten filter.

Kolejna sprawa generator kluczy: klucze do oprogramowania sa generowane przez producenta w sposob losowy i maja one spelniac pewna, w zalozeniu tajna formule - jesli hackerom uda sie formule zlamac, moga stworzyc wlasne oprogramowanie generujace losowo spelniajace formule klucze, trudne w zablokowaniu bo gdy tylko zostana wykryte mozna generowac kolejny, co ciezko zablokowac bo blokowalbys takze legalnych klientow.

Teraz mozemy wrocic do sprawy, ten artykul to swietny przyklad do wczesniejszej dyskusji dotyczacej niebezpieczenstw AI (pod artykulem w tym temacie):
AI nie rozgryzlo algorytmu i nie wygenerowalo kluczy, bo te byly by losowe czyli szansa ze padlo by na takie ktore juz sa dostepne /w uzyciu, jest astronimicznie mala, AI najzwyczajniej w swiecie te klucze podp* z danych do ktorych mialo dostep w ramach nauki I przedstawilo jako swoja tworczosc.
Dlaczego to jest niebezpieczne? Bo dla przykladu z tego co kojarze AI microsoftu dostalo caly kod z GIThub'a - kod ktory nie dosc ze w duzej czesci jest dostepny jako open source (gdzie jest dostepny publicznie ALE musisz uznac/wspomniec orginalnego autora - CZEGO AI NIE ROBI CO JEST EWIDENTNA KRADZIERZA) a w malej czesci sam zostal skradziony w bardziej tradycyjny sposob, nie jest dostepny publicznie a dalsza jego dystrubucja podobnie jest przestepstwem...

EDIT: A tutaj wiecej materialow dla nieumiejacych kozstac z wyszukiwarki:

AI platform can also share generic working keys for both Windows 10 Pro and Windows 11 Pro. These are the same KMS keys that Microsoft publishes on its website, meaning that ChatGPT is repeating the free publicly available keys without attribution.
https://www.tomshardware.com/news/chatgpt-generates-windows-11-pro-keys

After Microsoft and GitHub released Copilot, GitHub’s chief executive, Nat Friedman, tweeted that using existing code to train the system was “fair use” of the material under copyright law
...
Some users of Copilot have said it generates code that seems identical — or nearly identical — to existing programs

https://www.nytimes.com/2022/11/23/technology/copilot-microsoft-ai-lawsuit.html

Komentarz: Mqaansla

GRYOnline.pl:

Facebook GRYOnline.pl Instagram GRYOnline.pl X GRYOnline.pl Discord GRYOnline.pl TikTok GRYOnline.pl Podcast GRYOnline.pl WhatsApp GRYOnline.pl LinkedIn GRYOnline.pl Forum GRYOnline.pl

tvgry.pl:

YouTube tvgry.pl TikTok tvgry.pl Instagram tvgry.pl Discord tvgry.pl Facebook tvgry.pl