Dwóch studentów pokazało jak używając okularów Ray-Ban można naruszyć prywatność nieznajomych
Dwóch studentów wykorzystało inteligentne okulary od Ray-Bana, że wyszukiwać prywatne informacje niczego nieświadomych ludzi. Pokazali, w jaki sposób to zrobili, co zwiększa świadomość o możliwym zagrożeniu.

Ray-Ban ma w swojej ofercie Meta Smart Glasses, czyli okulary z zamontowanymi dwiema kamerami. Dzięki nim można tworzyć nagrania w wysokiej rozdzielczości i zdjęcia, które są następnie zapisywane na urządzeniu połączonym z gadżetem. Dwóch studentów z Harvardu pokazało, że sprzęt ten można w łatwy sposób wykorzystać do tak zwanego doxxowania, czyli do wyszukiwania w sieci prywatnych informacji o osobach (vide 404 Media).
Inteligentne okulary pozwalają zbierać wrażliwe dane o ludziach
Ray-Ban Meta Smart Glasses posiadają oprogramowanie, które reaguje na komendy głosowe. Wspomniani studenci postanowili więc wykorzystać inteligentne okulary do operowania systemem rozpoznawania twarzy I-XRAY. W połączeniu z działaniem sztucznej inteligencji mogli w szybki sposób przeskanować sieć w poszukiwaniu informacji o napotkanych po drodze osobach.
Okulary Meta od Ra-Bana nie wyróżniają się niczym szczególnym od zwykłych poza widocznymi obiektywami kamer w oprawkach. Idąc jednak przez ulicę dodatek nie jest aż tak dobrze widoczny i możemy nie wiedzieć, że jesteśmy właśnie nagrywani. Ich właściciel jednak może już sprawdzać w Internecie, jak się nazywamy, gdzie pracujemy i jaki jest nasz adres.
Studenci Harvardu pokazali, że teoretycznie ciekawy gadżet może być w rzeczywistości niebezpiecznym narzędziem. Równie istotne jest nasze świadome poruszanie się po Internecie. Im więcej informacji na swój temat zostawimy, w postaci zdjęć lub naszych danych, tym łatwiej można nas potem odnaleźć. Nie wiadomo, do czego potem mogą one być wykorzystane.
Meta, która odpowiada za powstanie okularów miała stwierdzić, że urządzenie nie jest niczym wyjątkowym i w taki sposób można wykorzystać inny sprzęt z kamerą. Studenci jednak zaznaczyli, że wybrali je do eksperymentu, bo wyglądają zwyczajnie i nie rzucają się w oczy. To porusza poważną kwestię bezpieczeństwa w czasach dynamicznego rozwoju sztucznej inteligencji. Narzędzie może pomóc odnowić zniszczone zdjęcia i wspomóc rozwój gier, ale nie każdy może mieć dobre intencje.
Więcej:Nowa umowa OpenAI na 10 gigawatów pokazuje, jak kosztowna energetycznie jest sztuczna inteligencja