Głos generowany przez AI oszukał tysiące ludzi
Sztuczna inteligencja może ludziom pomagać, ale również stanowić dla nich zagrożenie. Przykładem są technologie umożliwiające naśladowanie głosu, które coraz częściej służą oszustom do wyłudzania pieniędzy.

W ostatnich latach bardzo upowszechniło się tzw. oszustwo „na wnuczka", polegające na podszyciu się przestępcy pod członka rodziny swej ofiary i wyłudzenia od niego pieniędzy. Takie oszustwa już teraz są bardzo skuteczne, a wkrótce mogą stać się prawdziwą plagą. Jak donosi The Washington Post, przestępcy coraz chętniej wykorzystują modele sztucznej inteligencji stworzone do naśladowania głosu. Dzięki temu mogą łatwiej podszyć się pod członka rodziny swej ofiary, a technologia dodatkowo pozwala dostosować ton głosu mówiącego do określonej sytuacji, odwzorowując emocje i zapewniając jeszcze większą wiarygodność.
Jako przykład dziennikarze przytoczyli sytuację pewnej pary, która wysłała oszustowi 15 tys. dolarów, wierząc iż rozmawia ze swym synem. Przestępca powiedział im, że potrzebuje pieniędzy na pokrycie kosztów adwokata, gdyż spowodował wypadek samochodowy, w którym życie stracił amerykański dyplomata.
AI sklonuje głos każdej osoby
Jak wynika z najnowszego raportu Federalnej Komisji Handlu, w zeszłym roku tego typu oszustwo (podszywanie się pod kogoś innego) było w USA jednym z najczęściej popełnianych i drugim pod względem wysokości spowodowanych strat. Wpłynęło bowiem ponad 36 tys. zgłoszeń, zaś około 5 tys. z nich dotyczyło podejrzanych połączeń telefonicznych. Komisja oszacowała, że w ten sposób wyłudzono ponad 11 mln dolarów. Walka z takimi przestępstwami jest niezwykle trudna, gdyż mogą być przeprowadzane z dowolnego miejsca na świecie. Organom ścigania nie jest łatwo śledzić połączenia, identyfikować oszustów, a także odzyskiwać skradzione pieniądze.
Szybki rozwój sztucznej inteligencji w zakresie modelowania głosu otwiera zupełnie nowe możliwości, czego przykładem jest narzędzie ukraińskiego startupu Respeecher, pozwalające wiernie kopiować głos dowolnej osoby. Lucasfilm stosował to narzędzie m.in. do sklonowania głosu aktora Earla Jonesa, znanego z roli Darth Vadera, którego użyto w serialu Obi-Wan Kenobi, a także głosu Marka Hamilla, wykorzystanego w serialu The Book of Boba Fett.

Niestety możliwości AI chętnie wykorzystują przestępcy, aby przy ich pomocy dokonywać oszustw i wyłudzać pieniądze. Możemy śmiało założyć, że w przyszłości takich przypadków będzie więcej, gdyż sztuczna inteligencja staje się coraz popularniejsza, a jej możliwości rosną. Potrzebne są więc nie tylko nowe regulacje prawne, które pozwolą skuteczniej eliminować przestępstwa z jej wykorzystaniem, ale też narzędzia pomagające wykryć, że głos i obraz powstały z użyciem AI.
Więcej:Nowa umowa OpenAI na 10 gigawatów pokazuje, jak kosztowna energetycznie jest sztuczna inteligencja
Komentarze czytelników
onek Pretorianin
No to emeryci maja kolejny powod by wystapic na perwszej stronie "super expresu"
oj bedzie sie działo :-)