Sztuczna inteligencja jest w stanie wygenerować dobrej jakości zdjęcia z uszkodzonych fotografii. Efekty robią wrażenie.
źródło: YouTube | What’s AI
Jakiś czas temu pisaliśmy o sztucznej inteligencji, która tworzy obrazy na podstawie wpisanych fraz. Choć efekty jej działań wyglądają imponująco, to zazwyczaj są jedynie ciekawostką. Istnieją jednak algorytmy, które mogą przydać się większości z nas. Przykładem może być AI, która naprawia zniszczone zdjęcia.
Narzędzie Opracowane przez naukowców z Tencent oraz GFP-GAN (Generative Facial Prior-Generative Adversarial Network) zostało udostępnione za darmo i może przywrócić zniszczone lub wykonane w niskiej rozdzielczości zdjęcia. Technologia łączy informacje z dwóch modeli AI, aby w ciągu kilku sekund uzupełnić brakujące szczegóły zdjęcia realistycznymi detalami, zachowując przy tym wysoką dokładność i jakość.
Konwencjonalne metody dostrajają istniejący model sztucznej inteligencji w celu odnowienia obrazów, mierząc różnice między sztucznymi i prawdziwymi zdjęciami. To niestety dość często prowadzi do wyników o niskiej jakości. Nowa metoda wykorzystuje wstępnie wytrenowaną wersję istniejącego modelu (StyleGAN-2 firmy NVIDIA), aby „informować” autorskie rozwiązanie zespołu na wielu etapach procesu generowania obrazu.
Program można wypróbować za darmo. Choć działa on zaskakująco dobrze, to jego twórcy zaznaczają, że czasami mogą pojawić się niedokładności. Film przedstawiający możliwości algorytmu znalazł się na kanale What's AI w serwisie YouTube.
Inne ciekawostki związane ze sztuczną inteligencją znajdziecie tutaj:
29

Autor: Adam Adamczyk
Pisaniem zajmuje się zawodowo od 2013 roku. W 2021 roku dołączył do GRYOnline.pl, gdzie poza tematyką gamingową zajmuje się informacjami stricte technologicznymi. Współpracował z największymi sklepami muzycznymi w Polsce, tworząc artykuły związane z instrumentami i ogólnie pojętym udźwiękowieniem. Grami komputerowymi interesuje się od dziecka. Poza tym jego zainteresowania obejmują grę na gitarze, komponowanie muzyki oraz sporty siłowe.