Wystarczą 3 sekundy, by ukraść Twój głos
Lepiej uważać na głuche telefony. Nowe AI potrafi skutecznie naśladować czyjś głos i sposób mówienia, a do nauki wystarczy jej nawet 3-sekundowa próbka.

- Microsoft stworzył AI naśladujące głos na podstawie kilkusekundowej próbki.
Microsoft opublikował dokumentację swojej nowo opracowanej sztucznej inteligencji VALL-E, która potrafi imitować ludzkie głosy. Nie byłoby w tym nic dziwnego – wszak mamy już wiele systemów przetwarzających tekst na mowę (TTS). Ale AI Microsoftu może jednak całkiem skutecznie naśladować czyjś głos, tembr i emocje, ucząc się na podstawie zaledwie 3-sekundowej próbki.
Interaktywna papuga?
Wystarczy krótkie nagranie, by sieć neuronowa opracowała kodek dźwiękowy, który może „powiedzieć” dowolny tekst, a rozmówca będzie miał wrażenie, że konwersuje z prawdziwą osobą. VALL-E zostało wytrenowane na bazie 60 tys. godzin próbek mowy angielskiej. Na stronie (link wyżej) są dostępne specyfikacja i demonstracyjne nagrania audio.
VALL-E Microsoftu może zagrozić pracy aktorów podkładających głos w filmach i kreskówkach (choć raczej jeszcze nie teraz), ale nie tylko. Skoro systemy imitujące głos stały się tak zaawansowane i zarazem proste w użyciu, może pojawić się np. nowy typ oszustwa telefonicznego, polegającego na podszywaniu się pod bliskich. Odbierzemy pozornie głuchy telefon, a kilka słów wystarczy, by sieć neuronowa po drugiej stronie nauczyła się naśladować nasz głos.
Komentarze czytelników
Jerry_D Senator
To taka iluzja umysłu, pozwalająca nam wierzyć, że w jakimś stopniu jesteśmy wyjątkowi, niepodrabialni. A w praktyce dla algorytmu będziesz taki sam jak każdy inny.
Trzy sekundy to oczywiście o wiele za mało, żeby stworzyć podróbkę uwzględniającą coś więcej, niż tylko ogólną barwę głosu. Ale już przy większej próbce możliwości rosną.
BartekTenMagik Senator

Wielu ludzi ma zbyt specyficzny na to głos by to AI ogarnęła nawet z minutą gadaniny. W tym mój ;)
AUTO6 Generał

Coś czuję, że niedługo pojawią się w mediach informacje o unowocześnionej wersji kradzieży "na wnuczka".
Jerry_D Senator
Ech, co za czasy. Zaraz się okażę, że te wszystkie zabawki do zmieniania głosu dla "paranoików" okażą się narzędziem niezbędnym we współczesnym świecie.
zanonimizowany1370475 Pretorianin
Nigdy do czegoś takiego nie dojdzie. Za mocno to wszystko ingeruje w nasze życie (także zawodowe) byśmy mogli sobie wygodnie z tego zrezygnować. Jedyne co może nastąpić to jeszcze bardziej postępujący wskaźnik chorób psychicznych, psychozy i fobii społecznych. Poza tym, większość z nas i tak wolałaby sypnąć groszem na wesołe tabletki od psychiatry (by z czasem i tak się przekonać że są g... warte btw) niż radykalnie coś zmienić, bo tak jest po prostu szybciej, łatwiej i na pozór bezpieczniej.