Inwestowanie za pomocą ChatGPT ogromnym ryzykiem; KNF ostrzega

KNF ostrzega użytkowników, przed wykorzystywaniem ChatGPT do szukania pomysłów na zainwestowanie posiadanych pieniędzy. Chatbot może przedstawiać użytkownikowi fałszywe oferty, które doprowadzą do straty środków.

futurebeat.pl

Marek Pluta

Inwestowanie za pomocą ChatGPT ogromnym ryzykiem; KNF ostrzega, źródło grafiki: Steve Buissinne/Pixabay.
Inwestowanie za pomocą ChatGPT ogromnym ryzykiem; KNF ostrzega Źródło: Steve Buissinne/Pixabay.

ChatGPT potrafi dostarczyć odpowiedzi na wiele tematów i najwidoczniej część użytkowników wykorzystuje go nawet do szukania pomysłów, które w trudnych czasach pozwoliłby pomnożyć ich majątek. Wskazuje na to reakcja Zespołu Reagowania na Incydenty Bezpieczeństwa Komputerowego Komisji Nadzoru Finansowego (CSIRT KNF), która na swoim profilu Twitter ostrzega jednak przed takim zastosowaniem popularnego chatbota. Jej zdaniem narzędzie może dostarczać błędnych informacji, gdyż nie potrafi rozpoznać ofert, które nie są prawdziwe.

ChatGPT wykorzystywany w niecnych celach

KNF publikuje na swoim profilu pytanie zadane ChatGPT, dotyczące inwestycji w Baltic Pipe. Chatbot odpowiedział, że jest to „narzędzie handlowe zaprojektowane dla traderów o dużym wolumenie”, oraz że „setki użytkowników potwierdziło wysoki procent wydajności tego produktu”.

Sęk w tym, że Baltic Pipe to system gazociągów łączących Norwegię, Danię i Polskę, będący częścią tzw. „Bramy Północnej”, mającej na celu dywersyfikację źródeł dostaw gazu do naszego kraju. Nie jest więc żadną spółką akcyjną, która jest publicznie dostępna na giełdzie.

Przed „atrakcyjną inwestycją” ostrzega również Stowarzyszenie Inwestorów Indywidualnych, które w obszernym artykule analizuje pojawiające się w sieci reklamy, wykorzystujące m.in. wizerunek byłego ministra gospodarki i byłego prezesa PGNiG Piotra Woźniaka, które obiecują duże zyski.

Kłamiąca AI

To, że ChatGPT często się myli nie jest żadną tajemnicą i potwierdzają to najnowsze badania przeprowadzone przez NewsGuard. Wynika z nich, że model językowy GPT-4 może jeszcze łatwiej rozprzestrzeniać nieprawdziwe informacje w porównaniu do poprzedniej generacji.

Firma OpenAI wprawdzie wielokrotnie ostrzegała przed używaniem ChatGPT jako źródła informacji, jednak teraz obawia się, że sztuczna inteligencja jest „zbyt łatwowierna w przyjmowaniu oczywistych fałszywych oświadczeń od użytkownika”. Innymi słowy, można dostarczyć jej nieprawdziwe dane, a potem będzie dalej je rozpowszechniać. Nie powinniśmy więc wierzyć we wszystko co nam mówi.

Podobało się?

2

Marek Pluta

Autor: Marek Pluta

Od lat związany z serwisami internetowymi zajmującymi się tematyką gier oraz nowoczesnych technologii. Przez wiele lat współpracował m.in. z portalami Onet i Wirtualna Polska, a także innymi serwisami oraz czasopismami, gdzie zajmował się m.in. pisaniem newsów i recenzowaniem popularnych gier, jak również testowaniem najnowszych akcesoriów komputerowych. Wolne chwile lubi spędzać na rowerze, zaś podczas złej pogody rozrywkę zapewnia mu dobra książka z gatunku sci-fi. Do jego ulubionych gatunków należą strzelanki oraz produkcje MMO.

Total War: Pharaoh oficjalnie zapowiedziane, premiera w tym roku

Następny
Total War: Pharaoh oficjalnie zapowiedziane, premiera w tym roku

Zestawy konstrukcyjne Halo, Pokemon i Minecraft w wyprzedaży na Amazon.pl

Poprzedni
Zestawy konstrukcyjne Halo, Pokemon i Minecraft w wyprzedaży na Amazon.pl

Kalendarz Wiadomości

maj
Nie
Pon
Wto
Śro
Czw
Pią
Sob

GRYOnline.pl:

Facebook GRYOnline.pl Instagram GRYOnline.pl X GRYOnline.pl Discord GRYOnline.pl TikTok GRYOnline.pl Podcast GRYOnline.pl WhatsApp GRYOnline.pl LinkedIn GRYOnline.pl Forum GRYOnline.pl

tvgry.pl:

YouTube tvgry.pl TikTok tvgry.pl Instagram tvgry.pl Discord tvgry.pl Facebook tvgry.pl