futurebeat.pl News Tech Mobile Gaming Nauka Moto Rozrywka Promocje
Wiadomość sprzęt i soft 6 sierpnia 2021, 14:36

Apple zajrzy użytkownikom w telefony - oczywiście w słusznej sprawie

Apple zamierza nieco nadszarpnąć rygor swojej polityki ochrony danych użytkownika, a to w ramach szczytnej idei walki z pedofilią. Nagromadzenie niepożądanych materiałów może być raportowane do odpowiednich służb.

W SKRÓCIE:
  • aby chronić nieletnich, Apple zamierza sprawdzać pliki graficzne na wyprodukowanych przez siebie urządzeniach;
  • dotyczyć to będzie przede wszystkim osób używających iCloud.

Apple, po budzących kontrowersje zmianach ograniczających śledzenie reklamowe, szykuje mocny zwrot w przeciwnym kierunku. Z opublikowanej oficjalnej informacji wynika, że kolejne wersje systemów będą identyfikować treści naruszające prawo. Dotyczy to pornografii dziecięcej lub materiałów w jakikolwiek inny sposób mogących skrzywdzić małoletnich. Aby ich chronić, iPhone i inne urządzenia firmy Apple będą sprawdzać lokalne pliki graficzne, skanować te udostępnione w iCloud i zwracać uwagę na wpisywane w wyszukiwarce frazy.

Nowe funkcje działać będą na razie tylko w USA i obejmować systemy iOS 15, iPadOS 15, watchOS 8 i macOS Monterey. W swoim działaniu współpracować mają z Narodowym Centrum Dzieci Zaginionych i Wykorzystywanych (NCMEC) i amerykańskimi organami ścigania. Cały system ma obejmować trzy główne obszary.

Wykrywanie CSAM w urządzeniach Apple

Skanowanie fotografii – urządzenie będzie sprawdzać lokalne pliki graficzne pod względem występowania tzw. CSAM (Child Sexual Abuse Material). W tym celu wykorzysta bazę obrazów uznanych za zawierające niepożądaną zawartość przez NCMEC. Technicznie nie będzie ich skanować, porównywane będą tylko hashe (i tylko takie informacje zawierać ma baza). Pozytywny wynik odpowiednio oznaczy kryptograficznie zdjęcie.

Drugi etap nastąpi, gdy użytkownik użyje iCloud do przechowywania zdjęć. Gdy ilość „pozytywnych” wyników występowania CSAM przekroczy pewien próg (według Apple tak obliczony, by zminimalizować fałszywe alarmy), „trefne” zdjęcia w usłudze zostaną przeskanowane. Wtedy odpowiednie służby i NCMEC mogą zostać powiadomione, a Apple nałoży blokadę na konto.

Ekrany ostrzegające przed zawartością uznaną za niepożądaną. Źródło: Apple

Kontrola wysyłanych wiadomości – urządzenie wykorzysta AI i uczenie maszynowe, by rozpoznawać materiały mogące zaszkodzić nieletnim. W przypadku próby ich odebrania zamaże zdjęcie i wyświetli ostrzeżenie. Funkcja ma być powiązana z kontami rodzinnymi w iCloud i może także powiadomić rodziców, gdy dziecko zdecyduje się jednak obejrzeć zdjęcie uznane jako CSAM.

Wyszukiwanie treści – wyszukiwarka i Siri dostaną aktualizacje, które pozwolą na rozpoznanie prób wyszukania treści CSAM. W takim wypadku aplikacja „wytłumaczy użytkownikowi, że zainteresowanie tym tematem jest szkodliwe i problematyczne, oraz zapewni zasoby od partnerów, aby zaoferować pomoc w tej kwestii”.

Ktoś zapomniał o prywatności?

Nowe funkcje w urządzeniach Apple mogą wywoływać kontrowersje, mimo że wydają się mieć szczytne cele. Firma zapewnia jednak, że poczyniła odpowiednie kroki, by chronić prywatność:

  • treści nie są skanowane w urządzeniu, porównuje ono jedynie hashe;
  • w usłudze iCloud skanowane są jedynie zdjęcia oznaczone jako CSAM i tylko po przekroczeniu progu;
  • użytkownik nie może sprawdzić, jakie zdjęcia zostały oznaczone w urządzeniu, ani nie ma dostępu do bazy CSAM;
  • raportowanie do NCMEC jest wykonywanie manualnie, by zapobiec fałszywym zgłoszeniom.

Trudno powiedzieć, na ile te fakty mogą pomóc zaakceptować obecność nowych funkcji. Sądząc z komentarzy pod wiadomością w serwisie TheVerge, dla niektórych powodem do niepokoju może być samo wykonywanie przez urządzenie takich operacji w tle. Jeden z internautów zwraca uwagę, że mechanizmy te mogą podsunąć pomysły cyberprzestępcom. Jak można komuś przysporzyć problemów lub skompromitować znaną osobę?

Jego iPhone może zostać zainfekowany malware, które w tle ściągnie zdjęcia z pornografią dziecięcą. Dalszych etapów już łatwo się domyślić. System je oznaczy, iCloud przeskanuje, a Apple wyśle raport do odpowiednich służb. Kogoś czekają niespodziewane problemy i tłumaczenia. Program ochrony nieletnich, który proponuje firma z Cupertino, mimo wspaniałomyślnych idei wywołuje obawy o prywatność oraz jego nieomylność. Aktualizacje te mają pojawić się „później w tym roku” na systemach i urządzeniach Apple.

Arkadiusz Strzała

Arkadiusz Strzała

Swoją przygodę z pisaniem zaczynał od własnego bloga i jednego z wczesnych forum (stworzonego jeszcze w technologii WAP). Z wykształcenia jest elektrotechnikiem, posiada zamiłowanie do technologii, konstruowania różnych rzeczy i rzecz jasna – grania w gry komputerowe. Obecnie na GOL-u jest newsmanem i autorem publicystyki, a współpracę z serwisem rozpoczął w kwietniu 2020 roku. Specjalizuje się w tekstach o energetyce i kosmosie. Nie stroni jednak od tematów luźniejszych lub z innych dziedzin. Uwielbia oglądać filmy science fiction i motoryzacyjne vlogi na YouTube. Gry uruchamia głównie na komputerze PC, aczkolwiek posiada krótki staż konsolowy. Preferuje strategie czasu rzeczywistego, FPS-y i wszelkie symulatory.

więcej