AI napotkało spory problem. To informacje wygenerowane przez samą sztuczną inteligencję, co może mieć opłakane skutki dla branży. Brana pod uwagę jest nawet zapaść AI.
Zaczyna realizować się scenariusz, o którym mówiono już w 2024 roku. Sztuczna inteligencja – karmiona informacjami wygenerowanymi przez nią samą – zaczyna podawać coraz mniej dokładne informacje. Największy problem pojawia się, gdy AI przeszukuje Internet. Wszystko przez użytkowników sieci, którzy sztucznej inteligencji używają do tworzenia treści wątpliwej jakości (vide Futurism).
Pod koniec maja w serwisie The Register opublikowano artykuł, który przybliża problemy sztucznej inteligencji. Wynika z niego, że potwierdzają się tezy z magazynu Nature – AI „zapada się” poprzez trenowanie na danych, które samo wygenerowało. Dlatego korzystając z AI, jak z wyszukiwarki, należy być dokładnym. Zadanie ogólnego pytania może poskutkować wątpliwymi odpowiedziami.
Podawane są trzy różne powody, dlaczego tak się dzieje:
Wydaje się, że powodem takiego stanu rzeczy jest korzystanie z generowania wspomaganego wyszukiwaniem (ang. retrieval-augmented generation, RAG). Deweloperzy AI podłączają sztuczną inteligencję do Internetu, a ta następnie wyszukuje nowe dla siebie informacje i na nich się trenuje. Sieć jednak została zalana generowaną przez AI treścią niskiej jakości, co wpływa na pogorszenie działania.
W kwietniu tego roku opublikowano informacje potwierdzające zachodzące zjawisko. Według nich modele, takie jak GPT-4o, Claude-3.5-Sonnet i Gemma-7B, generują mniej spójne i prawidłowe informacje niż ich odpowiedniki, które z RAG nie korzystają. Dodano, że przez RAG sztuczna inteligencja może rozpowszechniać dezinformację, a w skrajnych przypadkach nawet naruszać bezpieczeństwo i prywatność danych osób.
AI jednak potrzebuje danych do trenowania. Posiadane informacje są skończone, a Internet teoretycznie pozwala na korzystania z nieprzepastnych zasobów, które jednak są coraz gorszej jakości. Odpowiedzią byłoby włączenie do treningu autorskich treści generowanych przez człowieka, ale współpraca może być ciężka, biorąc pod uwagę niektóre wypowiedzi, o czym donosił Futurism.
Jeśli nic nie zostanie zrobione, branżę może czekać zapaść. AI zacznie wyrzucać z siebie dane tak złej jakości, że ludzie powrócą do standardowych wyszukiwarek.
Więcej:Amazon testuje okulary AI wśród swoich kurierów. „Amelia” pomoże w pracy i unikaniu agresywnych psów
2

Autor: Zbigniew Woźnicki
Przygodę z publicystyką i pisaniem zaczął w serwisie Allegro, gdzie publikował newsy związane z grami, technologią oraz mediami społecznościowymi. Wkrótce zawitał na GRYOnline.pl i Filmomaniaka, pisząc o nowościach związanych z branżą filmową. Mimo związku z serialami, jego serce należy do gier wszelakiego typu. Żaden gatunek mu nie straszny, a przygoda z Tibią nauczyła go, że niebo i muzyka w grach są całkowicie zbędne. Przed laty dzielił się swoimi doświadczeniami, moderując forum mmorpg.org.pl. Uwielbia ponarzekać, ale oczywiście konstruktywnie i z umiarem. Na forum pisze pod ksywką Canaton.