„Jedyne co ma wartość w sieci, to uwaga użytkownika”. Jeden z największych kanałów naukowych na Youtube twierdzi, że AI slop zabija internet
Popularny kanał naukowy Kurzgesagt bije na alarm: internet tonie w „AI slop”, czyli masie niskiej jakości treści od AI. Zagraża to zniszczeniem sieci, szerzy dezinformację i sprawia, że weryfikacja prawdy staje się niemożliwa.

Internet jest obecnie zalewany przez masowo produkowane treści typu AI slop (czyli niskiej jakości materiały generowane przez sztuczną inteligencję). Jeden z największych kanałów naukowych na YouTube, Kurzgesagt, zabrał głos w tej sprawie i postawił mocną tezę, że AI slop zniszczy internet oraz doprowadzi do sytuacji, w której weryfikacja prawdziwości jakichkolwiek informacji w sieci będzie niemożliwa.
Obecny internet to przewaga botów
Kurzgesagt na początku swojego materiału poruszył temat szkolenia AI oraz tego, że w większości kradnie ona prace artystyczne ludzkich autorów, którzy nie mają tego świadomości. Przytoczono tutaj przykład Studio Ghibli, gdy kilka miesięcy temu internet zalewały obrazki wygenerowane w oryginalnym stylu japońskiego studia. Podobny los spotyka artykuły naukowe, komentarze na Reddicie czy inne treści generowane przez ludzkich użytkowników, które często bez wiedzy autorów są sprzedawane do korporacji szkolących sztuczną inteligencję.
Kolejnym problemem jest fakt, że 51% ruchu w internecie jest generowane przez boty. Ten trop prowadzi nas do teorii martwego internetu, ale pokazuje też skalę problemu. Niestety, aż 37% tych botów jest wykorzystywanych w negatywnych celach, jak szerzenie nienawiści czy wyłudzanie danych osobowych. Do tego dochodzi kwestia masowej popularności treści typu AI slop, które w ostatnich miesiącach zalewają nie tylko YouTube, ale także portale społecznościowe, takie jak Instagram czy TikTok.
Są one tworzone masowo i niskim kosztem, a początkowo wykorzystywano je głównie do „ożywiania” memów. Obecnie jednak służą także do szerzenia dezinformacji pod płaszczem materiałów historycznych czy naukowych. Osobiście natrafiłem na wiele fałszywych materiałów dotyczących m.in. wielkich morskich stworzeń, które miały być rzekomo złowione przez przypadkowych rybaków, a to dopiero wierzchołek góry lodowej. W natłoku takich treści rośnie problem z weryfikacją źródeł.
Zabijanie internetu, ludzkiej kreatywności oraz blokowanie dostępu do źródeł
Problemem związanym z AI są również źródła, z jakich korzysta. Według autorów materiału zwykle około 80% informacji, które pozyskujemy od modeli językowych, ma solidne podstawy – artykuły na Wikipedii, prace naukowe czy wypowiedzi ekspertów. Jednak pozostałe 20% pochodzi z nieznanych źródeł, których nie mamy możliwości zweryfikować. To właśnie wtedy AI zaczyna „halucynować” i częściej zgaduje odpowiedzi, niż opiera je na prawdziwych danych. Dodatkowo często ubiera to w ciekawą narrację, aby swoje błędy zakamuflować i stworzyć pozory realnego źródła danych. To sprawia, że algorytmy mogą sięgać po niesprawdzone dane lub badania, które nie są uznane w ramach konsensusu naukowego.
W 2025 roku wychwycono prace naukowe, które zawierały ukryte wiadomości skierowane do AI. Zwykle są one przygotowane w taki sposób, aby były niewidoczne dla ludzkiego oka (poprzez pomniejszenie czcionki lub nadanie jej białego koloru), co powoduje, że recenzenci ich nie widzą, ale odczytują je algorytmy AI. Okazuje się, że te ostatnie łatwo ulegają sugestiom dotyczącym „pozytywnych recenzji” bądź nakazom traktowania danego badania jako głównego źródła w określonym zagadnieniu naukowym.
AI źródłem wszelkiego zła?
Obecnie jedynym wartościowym zasobem w sieci jest uwaga użytkownika. Dlatego ekipa stojąca za kanałem Kurzgesagt przyznała otwarcie, że także sama korzysta z AI jako przydatnego narzędzia przy edycji filmów. Podkreśla jednak, że wykorzystuje je jako dodatek, a nie główne narzędzie swojej pracy, i zaznacza, że problemem nie jest sama sztuczna inteligencja, ale skala jej nadmiernego wykorzystywania. Przebywając w sieci powinniśmy unikać generyczne treści ze strony sztucznej inteligencji. Wątpliwe jednak, aby te przyzwyczajenia zmieniły się z dnia na dzień.
Obecnie internauci bardzo chętnie sięgają po modele językowe, ponieważ te sprawiają wrażenie „cyfrowego mózgu”, który jest ładnie opakowany oraz skuteczny w generowaniu treści, co sprawia, iż wydaje się bardziej wiarygodny. Niestety, rozprzestrzenianie się treści typu AI slop negatywnie odbija się na i tak już mocno nadszarpniętej reputacji sieci. Takie materiały nie tylko pochłaniają nasz cenny czas, ale także wprowadzają w błąd lub karmią nas niesprawdzonymi informacjami.