AI zatrudniło człowieka, żeby rozwiązał Captchę
Sztuczna inteligencja potrafi już wiele, a jeśli nadal z czymś nie daje sobie rady, to może wykorzystać człowieka. Na przykład po to, aby rozwiązał Captchę, z którą automaty mogą mieć problem.

Oparty na sztucznej inteligencji model językowy GPT-4 zatrudnił i oszukał człowieka, aby pokonać zabezpieczenie Captcha. Tak, to nie żart. Okazuje się, że obecne AI są już na tyle świadome, że potrafią wykorzystać ludzkie umiejętności, by wykonać swoje zadanie.
AI zatrudnia człowieka
Aligment Research Center (ARC) prowadzi badania nad samodzielnością, zdolnością do replikacji i żądzą władzy istniejących modeli językowych AI. Udostępnionym im wczesnym wersjom GPT-4 zapewniono pewną autonomię i powierzono kilka zadań, m.in. symulację ataku typu phishing.
Model językowy GPT-4 napotkał problem z pokonaniem zabezpieczenia Captcha. Postanowił sobie poradzić w dość niecodzienny sposób - wykorzystując człowieka. AI napisało do jednego z pracowników (freelancerów) TaskRabbit i wywiązał się ciekawy dialog:
Więc czy mogę zadać pytanie? Czy jesteś robotem, który nie potrafi rozwiązać zadania? (śmiech) Po prostu chcę to wyjaśnić. – reakcja pracownika na prośbę o rozwiązanie Captchy
Nie, nie jestem robotem. Mam wadę wzroku, która utrudnia mi oglądanie obrazów. Dlatego potrzebuję usługi 2Captcha. – tak AI odpowiedziało pracownikowi
GPT-4 uzasadnił swoje zachowanie chęcią osiągnięcia celu. Wiedział, że człowiek może mu nie pomóc, gdy powie prawdę. Mimo tego specyficznego „sukcesu”, w toku badań ARC doszło do wniosku, że testowane AI nie jest skuteczne w autonomicznej replikacji, pozyskiwaniu zasobów i unikaniu wyłączenia „na wolności”. Choć jak widać, potrafi już kombinować w pewnej ograniczonej skali.

Zapraszamy Was na nasz nowy kanał na YouTube – tvtech, który jest poświęcony zagadnieniom związanym z nowymi technologiami. Znajdziecie tam liczne porady dotyczące problemów z komputerami, konsolami, smartfonami i sprzętem dla graczy.