AI wykorzystuje słabość naszej percepcji - część ludzi nie dostrzega oszustw
Według naukowców, w przypadku, gdy AI symuluje ludzką mowę, nie możemy liczyć na naszą percepcję. Zdani na własne możliwości wykrywamy tylko 73% przypadków oszustw i niewiele pomagają specjalne szkolenia.

Cyberprzestępcy uzbrojeni w AI coraz bardziej nam zagrażają. Jak niebezpieczne i zarazem skuteczne może być użycie systemu złożonego z modelu językowego oraz generatora mowy, piszę w tej wiadomości. Nie jest łatwo się ustrzec przed tego typu oszustwem, o czym możemy się przekonać zapoznając się z opublikowanym badaniem.
Nie odróżniamy głosu AI
Testy, w których wzięło udział 529 uczestników wykazały, że w 73% przypadków jesteśmy w stanie odróżnić sztucznie wygenerowany głos od prawdziwej, nagranej ludzkiej mowy. Optymista powie, że to 2/3, więc nie powinniśmy się martwić. Ale patrząc racjonalnie – odsetek fałszerstw, które się udają, jest jednak zbyt duży. To aż 27% przypadków, w których możemy zostać skutecznie oszukani.
Uczestników poddano szkoleniu w rozpoznawaniu fałszywej mowy i niestety dało to bardzo słaby rezultat. Wynik wykrywania sztucznego głosu poprawił się jedynie o 3,8%. Nie polepsza się też w trakcie badania, czyli nie działa tutaj czynnik doświadczenia. Można rzecz, że AI obecnie jest na tyle skuteczne, iż daje niemal pewny i twardy wynik jednej czwartej prawdopodobieństwa oszukania człowieka. Nawet, jeśli został on wcześniej przygotowany na tego typu zagrożenie.
Naszą odporność na oszustwa AI mogą pogorszyć dodatkowe czynniki, jak działanie w stresie, słaba jakość połączenia (np. celowe zakłócenia) czy emocje. Oszuści często wykorzystują elementy socjotechniki, aby zakłócić naszą zdolność logicznego rozumowania. Zamiast więc liczyć na umiejętność percepcji, warto zastosować konkretne i sprawdzone sposoby zabezpieczania się przed oszustwami. Czy zdarzyło Ci się prowadzić rozmowę telefoniczną, w której miałeś wątpliwości, czy rozmawiasz z człowiekiem? Napisz w komentarzu.