Forum Gry Hobby Sprzęt Rozmawiamy Archiwum Regulamin

Technologie Apple zajrzy użytkownikom w telefony - oczywiście w słusznej sprawie

06.08.2021 14:41
Dzienciou
1
15
Dzienciou
159
Generał

Generalnie prawa obywatelskie zawsze się łamie w imię szczytnych idei, by nikt się temu nie przeciwstawiał. Jak przejdzie pomsył w imię ochrony najmłodszych to następna w kolejce walka z handlem ludźmi, potem fotki z bronią, potem skanowanie w imię obrony przed terroryzmem... a że definicja terroryzmu jest teraz ruchoma (od talibów po przeciwników politycznych) i definiowana przez każdy rząd inaczej to szykuje się kolejna metoda na inwigilacje.

06.08.2021 20:13
madmec
😁
9
6
odpowiedz
madmec
88
Generał

Pierwsza ofiara beda zdjecia rodzinne, zdjecia z wakacji z plazy=wizyta policji.
Dzieki uprzejmosci Apple.

Ta walka z pedofilami to taka sama bajka jak szpiegowanie wszystkich by pomoc w walce z terroryzmem. Pozniej sie okazuje, ze amerykanscy oficjele moga klamac w ichniejszym parlamencie bez zadnych konsekwencji.

06.08.2021 14:41
Dzienciou
1
15
Dzienciou
159
Generał

Generalnie prawa obywatelskie zawsze się łamie w imię szczytnych idei, by nikt się temu nie przeciwstawiał. Jak przejdzie pomsył w imię ochrony najmłodszych to następna w kolejce walka z handlem ludźmi, potem fotki z bronią, potem skanowanie w imię obrony przed terroryzmem... a że definicja terroryzmu jest teraz ruchoma (od talibów po przeciwników politycznych) i definiowana przez każdy rząd inaczej to szykuje się kolejna metoda na inwigilacje.

06.08.2021 15:28
😡
2
odpowiedz
4 odpowiedzi
Jerry_D
57
Senator
Image

I pomyśleć, że ja ich chwaliłem za podejście do prywatności i bezpieczeństwa...

06.08.2021 15:46
aope
2.1
aope
191
Corporate Occult

Niewiele się IMO zmienia, ponieważ tego typu rzeczy realizowane sa u Apple przez urządzenie użytkownika a nie - tak jak u Google - w chmurze.
W podejściu do prywatności Apple a reszta to wciąż totalna przepaść, co było nie raz i nie dwa badane.

post wyedytowany przez aope 2021-08-06 15:49:53
06.08.2021 16:38
2.2
5
Jerry_D
57
Senator

Ale mi to nie robi wielkiej różnicy, że na urządzeniu. Puszkę Pandory można tylko otworzyć. Raz wprowadzisz taką możliwość ze szlachetnych pobudek, to potem bardzo łatwo będzie rozszerzyć zakres jej użycia, zarówno z powodów szlachetnych, jak i mało szlachetnych.

Poza tym to prowadzi do pewnego paradoksu. Załóżmy, że sfotografuję mojego brzdąca (mojego piszę metaforycznie, bo jeszcze się dzieci nie dorobiłem) jak się pluska w wannie, w bąbelkowej kąpieli, żeby wysłać fotkę babci, która mieszka na drugim końcu kraju i pilnie domaga się zdjęć swojego wnuka. Algorytm stwierdza, że seria tych zdjęć spełnia warunki bycia "podejżanymi", a ich ilość przekracza jakiś arbitralnie określony próg, po którym zdjęcia zostają przesłane do sprawdzenia przez człowieka. I teraz ja się pytam, kim będzie człowiek, który będzie oceniać "seksualność" tych zdjęć? Pracownikiem Apple? Jakimś podwykonawcą nie wiadomo skąd i nie wiadomo z jakimi kwalifikacjami do oceniania, co jest zdjęciem niewinnym, a co szkodliwym? I najważniejsze, nagle ten sam mechanizm, który miał sprawić, żeby mojego gołego dziecka nie oglądał nikt bez mojej zgody, sprawia, że ktoś go bez mojej zgody ogląda.

Czy jeśli ktoś przyjdzie do mojego domu i moją nastoletnią córkę ktoś zacznie podglądać, gdy jest nago, to mam prawo dać mu w zęby, czy mam przeglądać 36 stron spisanej drobnym drukiem umowy świadczenia usług i warunków prywatności, czy czasem się nie zgodziłem, żeby w określonych warunkach jakiś obcy człowiek ją oglądał?

Kto właściwie dał Apple prawo do bawienia się w stróża prawa i grzebania w prywatnych rzeczach ludzi (chociaż nawet policji nie wolno tego robić bez nakazu) i bycia autorytetem moralnym, decydującym, co już jest, a co jeszcze nie jest przestępstwem?

Dalej: co jeśli takie zdjęcia trafią do weryfikacji, ale niezależnie od werdyktu, wyciekną i rzeczywiście dostaną się w ręce jakichś pedofilów, którzy będą się nimi niezdrowo podniecać? Kogo wtedy mam pozwać? A co jeśli Analiza pokaże, że algorytm się pomylił, ale wykryje jakieś inne, mniej poważne przestępstwo, którego oficjalnie nie ściga? Czy Apple nie zareaguje, bo teoretycznie szuka tylko pedofilii, czy może jednak doniesie?

Taka jedna, dobra funkcja wprowadzana z dobrymi intencjami, a tyle potencjalnych problemów.

06.08.2021 17:40
szyszka_PC
2.3
szyszka_PC
101
Generał

Jeśli dobrze rozumiem, takie zdjęcie musiałoby się znajdować w bazie NCMEC, by zostało przez algorytm uznane za nieodpowiednie w tym systemie, gdzie zostaną wysłane do centrali.

post wyedytowany przez szyszka_PC 2021-08-06 17:47:17
06.08.2021 20:05
2.4
1
Jerry_D
57
Senator

szyszka_PC
Na postawie technicznego podsumowania detekcji CSAM z tego linku https://www.apple.com/child-safety/pdf/CSAM_Detection_Technical_Summary.pdf

"NeuralHash analizuje zdjęcie i przekształca je na unikalny numer, specyficzny dla tego zdjęcia. Tylko inne zdjęcie, które wydaje się prawie identyczne, może dać ten sam numer. Przykładowo obrazy o różnym rozmiarze lub poddane ponownej kompresji wciąż będą miały tę samą wartość NeuralHash."

"AI" analizuje obraz i na podstawie tej analizy tworzy hasz do porównania. Tyle, że raz: skoro porównuje swoją interpretację analizowanego zdjęcia ze swoimi interpretacjami zdjęć wzorcowych, to może się w tej interpretacji pomylić i dwa: istnieje coś takiego jak kolizja, czyli zjawisko polegające na tym, że dwa zupełnie różne pliki dają takie same hasze. Więc nie, zdjęcie nie musi znajdować się w tym systemie. Wystarczy, że algorytm uzna, że dane zdjęcie jest w wystarczającym stopniu podobne, czy też istnieje wystarczająco wysokie prawdopodobieństwo, że dane zdjęcie może być tym samym, które znajduje się w bazie wzorcowej. I niestety, przy wszystkich spektakularnych możliwościach uczenia maszynowego, algorytmom "AI" wciąż zdarzają się jeszcze bardziej spektakularne wpadki.

06.08.2021 15:39
3
odpowiedz
ssforever
11
Generał

Trzeba to jeszcze dopracować i napisać program, który wyłapie murarzy, a przepuści wyższe sfery.

06.08.2021 15:44
aope
😊
4
odpowiedz
3 odpowiedzi
aope
191
Corporate Occult

Przecież to będzie wykonywane na urządzeniu przez Ai. Uczenie maszynowe PRZEZ URZĄDZENIE od lat jest przez iOS realizowane w obrębie systemu np. w aplikacji Zdjęcia (co jest w kompletnej opozycji do tego jak realizuje to np. Google). Tytuł sugeruje jakoby Apple skanowało te rzeczy tak jak od lat robi to Google a to kompletna bzdura. Sami w załączonym w tekście screenshocie możecie przeczytać, że Apple nie posiada dostępu do zdjęć, po czym walicie takim tytułem, po co?

Ciekaw jestem wzburzenia użytkowników szpiega od Google, którzy swoje dane oddają w zasadzie od zawsze, to może być całkiem śmieszne :]

post wyedytowany przez aope 2021-08-06 15:53:22
06.08.2021 16:07
4.1
1
Jerry_D
57
Senator

Ale tu nie chodzi o to JAK Apple to robi, tylko, że W OGÓLE to robi. Dziś w szczytnym celu będzie analizować twoje zdjęcia (i to ostatecznie musi być coś więcej niż porównywanie haszy samego pliku graficznego, bo w takim przypadku wystarczy zmienić 1 piksel, żeby hasz był zupełnie inny i zdjęcie zostało uznane za bezpieczne. Już prędzej hasz analizy zawartości zdjęcia.), bo możesz się okazać pedofilem. Jutro do Apple zadzwonią z Chin, że system ma wyłapywać, kiedy ktoś sobie przesyła memy z Kubusiem Puchatkiem, a Siri i wyszukiwarka mają wykrywać, kiedy użytkownik szuka odniesień do Tajwanu, Tybetu, czy placu Tienanmen i wyświetlać powiadomienie, że takie zainteresowania są chorobliwe i jeśli użytkownik sam się z nich nie wyleczy, to już rząd go wyleczy, albo wynocha z kraju, nie sprzedacie u nas więcej żadnego iPhone'a. I myślisz, że się Apple postawi, tracąc ogromne zyski, czy się ugnie?

Za tydzień kolejny rząd zechce, żeby sprawdzało czy użytkownik nie jest terrorystą, handlarzem narkotykami/bronią, albo nie popiera przeciwników politycznych aktualnej władzy. A Apple nie będzie mogło powiedzieć, że zwyczajnie nie ma takich technicznych możliwości.

06.08.2021 16:15
aope
4.2
aope
191
Corporate Occult

JAK Apple to robi, tylko, że W OGÓLE to robi

Przecież u Apple ai i uczenie maszynowe NA urządzeniu robi to już od kilku lat, choćby w aplikacji zdjęcia (i potrafi zrobić rzeczy jakie się użytkownikom bloatware od Google nawet nie śniły), do tego chcieli uniezależnić Siri od Internetu i to się też w obrębie systemu z tego co wiem udało. Trochę jesteś do tyłu z informacjami. Jedyna i OGROMNA różnica jest taka, że u Apple tego typu rzeczy robi ai i ML NA urządzeniu podczas gdy inni robią to POZA urządzeniem użytkownika na serwerach. I to jest ten fundament, który nie ulega zmianie.

post wyedytowany przez aope 2021-08-06 16:32:00
06.08.2021 16:52
4.3
1
Jerry_D
57
Senator

Ale co mi z tego, że na urządzeniu? Co innego, jeśli mi lokalnie, na urządzeniu rozpoznaje, co jest na zdjęciu i automatycznie dodaje słowa kluczowe, albo rozpoznaje twarz i odpowiednio podpisuje zdjęcie, a zupełnie co innego, jeśli te same algorytmy "AI", działające na MOIM urządzeniu przeprowadzają to samo rozpoznawanie obrazu w celu potencjalnego donoszenia na MNIE, bo jak pisała Chmielewska "Wszyscy jesteśmy podejrzani". O to chodzi, że ufam, że to całe "AI" działa wyłącznie na moim urządzeniu i nie użyje tego, czego się "dowie" przeciwko mnie. A teraz mi wprost mówią, że jestem podejrzany i wszystko, co zrobię na moim własnym urządzeniu, zostanie wykorzystane przeciwko mnie. Dla mnie to złamanie zaufania na fundamentalnym poziomie. Rozumiem intencje, ale metody uważam za błędne. Tak właśnie to widzę. Nie używam produktów Apple, ale gdybym z nich korzystał, to z miejsca bym się przesiadł na co innego. Co prawda Android jest pod tym względem zacofany, ale zawsze istnieją ciekawe custom ROM-y. Calyx OS i zwłaszcza Graphene OS wydają się dobrą alternatywą.

06.08.2021 16:08
6
1
odpowiedz
LecOLiCe
28
Pretorianin

"urządzenie wykorzysta AI i uczenie maszynowe, by rozpoznawać materiały mogące zaszkodzić nieletnim. W przypadku próby ich odebrania zamaże zdjęcie i wyświetli ostrzeżenie. Funkcja ma być powiązana z kontami rodzinnymi w iCloud i może także powiadomić rodziców, gdy dziecko zdecyduje się jednak obejrzeć zdjęcie uznane jako CSAM."

Tak, i z pewnością NIKOMU nie przyjdzie do głowy, aby lekko zmodyfikować algorytm tak, że za materiały "mogące zaszkodzić nieletnim" uzna on zdjęcia promujące tego czy innego polityka (Trump case), jakieś niewygodne zdjęcie danych dotyczących konkretnego preparatu, lub zdjęcia i filmy, które pokazują osoby o konkretnym kolorze skóry, kiedy to dokonują np. kradzieży, które mogłyby mieć zdaniem algorytmu podłoże rasistowskie.

Oczywiście NIEMOŻLIWYM jest też, że taki algorytm zbyt pochopnie zinterpretuje KIEDYKOLWIEK jakieś zdjęcie i zrobi, ze zwykłego ojca chcącego wysłać babci zdjęcie wnuka, zwykłego pedofila.

To wszystko przecież tylko i wyłącznie dla naszego bezpieczeństwa :)

*Jak przypomniałem sobie tą sytuację z artykułu to zacząłem się śmiać XD

antyweb.pl/fbi-placze-ze-musialo-wydac-miliony-na-zlamanie-iphone-terrorysty-i-bardzo-dobrze-postepowanie-apple-to-powinien-byc-standard

06.08.2021 17:36
7
3
odpowiedz
1 odpowiedź
kain_pl
91
Generał

Pedofilia jest okropna ,ale ten sposób walki jest typowym kitem by zamydlić oczy. Youtube już pokazał jak boty potrafiły pomyłkowo zawieszać filmy lub banować twórców bo uznały ,,algorytmem'' ,że twórca dopuścił się łamania praw autorskich lub dopuścił się wysłowić swoje zdanie na jakiś głośny temat. Mam rozumieć ,że jak będę miał zdjęcie mojego syna na plaży z siusiakiem ( bo małe dzieci przeważnie latają nago w lato po plaży) to stanę się automatycznie zwyrodnialcem i pedofilem ,a po pewnym czasie służby zapukają mi do drzwi bo numer jest przypisany do właściciela i danymi ,,rodo'' dostaną na tacy mój adres lub wyśledzą nawigacyjnie? Co za czasy... ,,Watch dogs uczy'' zaczyna mieć nowe znaczenie.

07.08.2021 02:42
WolfDale
7.1
WolfDale
74
Sztuczny Wytwór Forumowy

Będę Ci paczki wysyłał do więzienia, trzymaj się.

06.08.2021 18:25
Creed18
8
1
odpowiedz
Creed18
62
Pretorianin

Pozwolcie ze ja zdecyduje co jest sluszba sprawa

06.08.2021 20:13
madmec
😁
9
6
odpowiedz
madmec
88
Generał

Pierwsza ofiara beda zdjecia rodzinne, zdjecia z wakacji z plazy=wizyta policji.
Dzieki uprzejmosci Apple.

Ta walka z pedofilami to taka sama bajka jak szpiegowanie wszystkich by pomoc w walce z terroryzmem. Pozniej sie okazuje, ze amerykanscy oficjele moga klamac w ichniejszym parlamencie bez zadnych konsekwencji.

06.08.2021 22:26
Edziek
10
odpowiedz
2 odpowiedzi
Edziek
38
Generał

Dziwne jest to że wszyscy zachowujecie się jak grube ryby, a przecież tak naprawdę jesteśmy zwykłymi robaczkami próbującymi się dorobić w tym wielkim świecie. Czego się boicie? Co mnie obchodzi że AI skanuje moją chmurę, niech skanuje. Nie mam sobie nic do zarzucenia. Whatever. Nic nie zmieni to w moim życiu. Jak zwykle zbytnio się podniecacie i karmicie foliarzy teoriami spiskowymi. Wrzućcie na luz ludzie.

post wyedytowany przez Edziek 2021-08-06 22:27:24
07.08.2021 00:56
WolfDale
😊
10.1
1
WolfDale
74
Sztuczny Wytwór Forumowy

Gorzej jak jakaś koleżanka prześle Ci zdjęcie swojego dziecka z kąpieli bez ubranka. Patrzysz i nagle słyszysz jak futryna odrywa się od ściany z dwoma smutnymi panami.

07.08.2021 13:46
10.2
Jerry_D
57
Senator

Edziek
Niejaki Martin Niemöller powiedział tak:

"Najpierw przyszli po komunistów; nie protestowałem, bo nie byłem komunistą.
Później przyszli po socjalistów; nie protestowałem, bo nie byłem socjalistą.
Potem przyszli po związkowców; nie protestowałem, bo nie byłem związkowcem.
Następnie przyszli po Żydów; nie protestowałem, bo nie byłem Żydem.
A wtedy przyszli po mnie, a nie został nikt, kto mógłby dla mnie zaprotestować."

Gdyby żył w obecnych czasach, to pewnie mówiłby za parę lat "Najpierw przyszli po pedofilów; nie protestowałem, bo nie byłem pedofilem. Potem przyszli po terrorystów..."

07.08.2021 01:01
😐
11
1
odpowiedz
2 odpowiedzi
makaronZserem
35
Generał

Jerry_D

...Puszkę Pandory można tylko otworzyć. Raz wprowadzisz taką możliwość ze szlachetnych pobudek, to potem bardzo łatwo będzie rozszerzyć zakres jej użycia, zarówno z powodów szlachetnych, jak i mało szlachetnych. ...

Zgadza się, mają taki zamiar, sami to potwierdzili.

https://www.ft.com/content/14440f81-d405-452f-97e2-a81458f5411f

Apple confirmed its plans in a blog post, saying the scanning technology is part of a new suite of child protection systems that would “evolve and expand over time”. The features will be rolled out as part of iOS 15, expected to be released next month.

post wyedytowany przez makaronZserem 2021-08-07 01:03:39
07.08.2021 02:02
11.1
makaronZserem
35
Generał

W razie gdyby pokazał ci się paywall zainstaluj to rozszerzenie, na tej samej stronie jest również wersja dla Fire Fox

https://github.com/iamadamdev/bypass-paywalls-chrome

07.08.2021 13:55
11.2
Jerry_D
57
Senator

Racja. Też zwróciłem na to uwagę. Źródło bez paywalla:
https://www.apple.com/child-safety/

07.08.2021 10:00
12
odpowiedz
zanonimizowany449082
103
Generał

Prawda jest taka, że każda firma, usługa i urządzenie szpieguje swoich użytkowników.
A jeśli tylko administracja jakiegoś państwa ma możliwość położenia łap na zebranych danych, to na 300% to zrobi.

Afera zaczyna się kręcić dopiero, gdy zostanie to ujawnione.

Także chill moi mili - bez zmian od 1989
Rząd się nie zmienia. Można co prawda zmienić rząd, ale to nic nie zmienia.

post wyedytowany przez zanonimizowany449082 2021-08-07 10:00:52
07.08.2021 10:32
Pan P.
13
odpowiedz
1 odpowiedź
Pan P.
178
022

Wedle zachodnich portali jabłko potwierdziło, ze ta funkcja będzie działała tylko na telefonach dzieci poniżej 13 r.ż. i tylko, gdy włączy ją (i wcale nie musi) rodzic podczas konfiguracji telefonu dziecka w ramach jednej „rodziny”, więc nie ma mowy o żadnym skanowaniu dorosłych wbrew ich wiedzy i woli, a to jednak trochę zmienia postać rzeczy.

07.08.2021 14:02
13.1
Jerry_D
57
Senator

Tak, funkcja, która w iMessage wykrywa czy przesłane zdjęcie zawiera nagość i w razie jego obejrzenia wysyła powiadomienie rodzicowi, rzeczywiście dotyczy telefonu "dziecinnego".

Natomiast dwie pozostałe, gdzie Siri i wyszukiwarka będzie wyświetlać użytkownikowi komunikaty o niezdrowych zainteresowaniach, jeśli uzna, że jego wyszukiwanie dotyczy dziecięcej pornografii i skanowanie zdjęć znajdujących się w pamięci telefonu, to zupełnie inne funkcje, które będą dotyczyły wszystkich, nie tylko dzieci do lat 13.

07.08.2021 18:14
14
odpowiedz
zanonimizowany1362090
0
Pretorianin

Kolejny dowód na to, że iPhone to przyrost formy nad treścią

07.08.2021 22:58
15
odpowiedz
1 odpowiedź
zanonimizowany1358724
7
Pretorianin

No i jak wyślę mojego małego mojej małej?

08.08.2021 00:24
WolfDale
15.1
WolfDale
74
Sztuczny Wytwór Forumowy

Polecam tradycyjną pocztę.

10.08.2021 18:30
Orzołek
😁
16
odpowiedz
1 odpowiedź
Orzołek
152
Haters gonna hate

Większość osób piszących tutaj chyba nie zauważyło kluczowej informacji w tekście -
Nowe funkcje działać będą na razie tylko w USA
UE musiałoby zmienić prawo, żeby weszło to u nas.

11.08.2021 11:03
16.1
Jerry_D
57
Senator

Dziś w USA, jutro w Azji, pojutrze w Europie. Najważniejsze jest to, że ustalają pewien precedens. Jak już raz przełamią pierwszy opór przeciwko takim rozwiązaniom, to potem będzie już z górki. A jak już do nas dotrze, to będzie za późno protestować.

"Najpierw przyszli po Amerykanów; nie protestowałem, bo nie byłem Amerykaninem..."

post wyedytowany przez Jerry_D 2021-08-11 11:04:29
Technologie Apple zajrzy użytkownikom w telefony - oczywiście w słusznej sprawie