Sztuczna inteligencja nie zawsze działa dobrze. Nowe narzędzie wyszukiwania Google promuje podejrzane witryny
Wyszukiwanie Google wspomagane przez sztuczną inteligencja nie sprawdza się najlepiej. Testowana obecnie funkcja poleca użytkownikom niebezpieczne strony.

W czasie ubiegłorocznej konferencji Google I/O 2023, zapowiedziano że popularna wyszukiwarka doczeka się dużej zmiany – pierwszym wynikiem na nasze zapytanie ma być odpowiedź wygenerowana przez AI. Niedawno w ramach testów niewielka grupa użytkowników otrzymała dostęp do tej funkcji. Jak się okazuje, rozwiązanie to nie sprawdza się najlepiej i często promuje ono niebezpieczne wręcz strony.
Konsultantka SEO Lily Ray opublikowała na X wpis, który pokazuje działanie AI w wyszukiwarce Google. Nie ma co ukrywać, wygląda to dość niepokojąco. Wynika z nich, że algorytmy giganta z Mountain View polecają użytkownikom strony, które często stanowią próbę oszustwa.
Sprawę postanowił dokładnie zbadać portal Bleeping Computer. Dzięki temu poznaliśmy więcej szczegółów związanych z całym procederem.
- Wiele szkodliwych witryn zostało skonstruowanych w taki sam sposób. Wpasowują się one w algorytmy SEO, dzięki czemu zostają zaindeksowane przez wyszukiwarkę. Następnie zostają w niewyjaśniony sposób uznawane przez sztuczną inteligencję za godne polecenia.
- Strony te często próbują wyłudzić pieniądze. Przykładowo mogą one zachęcać do wykupienia jakiejś usługi – np. antywirusa.
- Inną metodą oszustwa jest sugerowanie, że użytkownik wygrał w konkursie. W ten sposób można wyłudzić dane osobowe.
Tworzy to więc swojego rodzaju paradoks. Z jednej strony wprowadzają zabezpieczenia w swoim generatorze obrazów. Z drugiej natomiast testowana obecnie funkcja zalewana jest przez niebezpieczny spam. Pozostaje mieć nadzieję, że problem zostanie wyeliminowany.
Więcej:Wikipedia traci czytelników. Google podkrada ruch, AI podcina skrzydła, Elon Musk odpala Grokipedię