Newsroom Wiadomości Najciekawsze Komiksy Tematy RSS
Wiadomość pozostałe 29 stycznia 2019, 15:39

autor: Bartosz Świątek

YouTube będzie ograniczać zasięg teorii spiskowych

Administracja YouTube'a poinformowała, że zamierza zmienić funkcjonujący w serwisie system rekomendacji – celem jest ograniczenie widoczności tzw. treści skrajnych, w tym np. promujących teorie spiskowe lub zawierających fałszywe informacje. Co ciekawe, zadanie to spadnie w dużej mierze na barki algorytmów AI.

YouTube czekają zmiany. - YouTube będzie ograniczać zasięg teorii spiskowych - wiadomość - 2019-01-30
YouTube czekają zmiany.

W SKRÓCIE:

  1. YouTube planuje ograniczyć widoczność tzw. skrajnych treści – w tym takich, które zawierają fałszywe informacje lub teorie spiskowe;
  2. filmy, które są bliskie złamania tzw. wytycznych dla społeczności, nie będą podsuwane przez system rekomendacji;
  3. za wprowadzenie zmiany w życie odpowiadać mają moderatorzy oraz algorytmy AI.

W zeszły piątek firma YouTube poinformowała, że zamierza podjąć działania na rzecz ograniczenia zasięgu filmów zawierających „dezinformację” i „teorie spiskowe”, w celu zmniejszenia wpływu materiałów o charakterze ekstremistycznym na opinię publiczną. Portal ma przestać rekomendować filmy z tzw. „treściami na granicy” – czyli takimi, które co prawda nie łamią wytycznych dla społeczności, ale niewiele im brakuje. Zmiana podobno dotknie mniej więcej 1% materiałów zamieszczanych w serwisie i w pierwszej kolejności będzie testowana w USA.

Zaczniemy redukować rekomendacje dla treści z pogranicza i takich, które mogłyby wprowadzać użytkowników w błąd w szkodliwy sposób - jak np. filmów promujących cudowne lekarstwo na poważną chorobę czy twierdzenie, że Ziemia jest płaska, lub rażąco fałszywe informacje o wydarzeniach historycznych, takich jak 9/11 - czytamy w oświadczeniu.

Problematyczne „treści z pogranicza”

Portal YouTube często był oskarżany o radykalizowanie opinii poprzez promowanie skrajnych lub nieprawdziwych materiałów (zgodnie z badaniem Pew Research Center, aż 64% jego użytkowników trafia okazyjnie na treści zawierające fałszywe lub kłamliwe tezy, a zdaniem BuzzFeed osoba, która założy nowe konto i zacznie oglądać filmy dotyczące polityki, po mniej więcej szóstym otrzyma rekomendację z treściami ekstremistycznymi).

Obecny krok firmy pozornie wydaje się więc iść w dobrą stronę, jednak diabeł tkwi w szczegółach. Warto sobie bowiem zadać pytanie o to, jakie filmy będą uznawane za „skrajne”. Wyznacznikiem mają być tutaj wspomniane już wytyczne dla społeczności, w których znajduje się np. punkt dotyczący „treści szerzących nienawiść”.

Na zmianie polityki YouTube teoretycznie mogą ucierpieć niektórzy sieciowi skandaliści.
Na zmianie polityki YouTube teoretycznie mogą ucierpieć niektórzy sieciowi skandaliści.

Nasze usługi zapewniają swobodę wypowiedzi. Nie dotyczy to jednak materiałów, które zachęcają do przemocy wobec osób lub grup z powodu rasy, pochodzenia etnicznego, religii, niepełnosprawności, płci, wieku, statusu weterana bądź orientacji seksualnej czy tożsamości płciowej, a także tych, które szerzą nienawiść na tle wspomnianych cech. Nie zawsze jest to oczywiste, jednak jeśli głównym celem materiału jest atakowanie chronionych grup, jest on niedopuszczalny – czytamy.

Sęk w tym, że w wielu wypadkach odróżnienie krytyki od ataku bywa niełatwym zadaniem, co świetnie widać w przypadku wielu sporów światopoglądowych (np. dotyczących wolności słowa, tożsamości płciowej, tzw. „poprawności politycznej”, a nawet zjawisk/wydarzeń z naszej własnej branży, takich jak słynne GamerGate). Gdzie kończy się polemika, a zaczyna hejt?

Algorytmy i ludzie na straży porządku

Odpowiedź na to ostatnie pytanie będzie należała do zespołu moderatorów, wspieranych przez uczące się algorytmy – a w zasadzie na odwrót, bowiem, co ciekawe, głównym zadaniem ludzi ma być właściwe wyedukowanie maszyn, tak, by możliwie jak najskuteczniej radziły sobie z wykrywaniem problematycznych treści. Dzięki temu zmiany w systemie rekomendacji mają zostać wprowadzone automatycznie i skutecznie.

Warto odnotować, że filmy, które zostaną „oznaczone” przez AI, nie będą usuwane z platformy – jedyną konsekwencją będzie uniemożliwienie im występowania w systemie rekomendacji. Zdaniem firmy, dzięki pomysłowi uda się zapewnić równowagę pomiędzy wolnością słowa a odpowiedzialnością. W praktyce jednak z pewnością pojawią się liczne oskarżenia o cenzurę i w gruncie rzeczy naprawdę trudno jest powiedzieć, czy będą całkowicie bezpodstawne. Czy swoboda wypowiedzi ma taką samą wartość w sytuacji, kiedy wolno nam głosić swoje racje wyłącznie w zamkniętym, wygłuszonym pomieszczeniu, podczas gdy inni mogą robić to na środku ulicy?

Temat wolności słowa powraca ostatnio jak bumerang.
Temat wolności słowa powraca ostatnio jak bumerang.

Walka z fałszywymi informacjami i ekstremizmem w sieci zdaje się być jednym z największych wyzwań, które stoją przed ludźmi w XXI wieku. Rozwiązanie zaproponowane przez YouTube może w tym pomóc – ale może też okazać się źródłem wielkiej frustracji i poważnych problemów dla wielu osób. Z oceną trzeba będzie poczekać co najmniej do zakończenia testów w Stanach Zjednoczonych.

  1. YouTube – strona oficjalna