Sztuczna inteligencja bezradna; nie odróżnia tekstów napisanych przez samą siebie
OpenAI wyłączyło funkcję pozwalającą rozpoznawać tekst napisany przez sztuczną inteligencję. Firma podaje, że ma to związek z niską dokładnością działania.

OpenAI poinformowało na swoim blogu o wyłączeniu narzędzia pozwalającego wskazać, który tekst został napisany przez człowieka, a który przez AI. Nastąpiło to 20 lipca, a powodem takiej decyzji jest niska dokładność z jaką działała ta funkcja.
„Pracujemy nad uwzględnieniem opinii i obecnie badamy bardziej efektywne techniki pozwalające potwierdzić pochodzenie tekstu” - czytamy na blogu.
Firma sama przyznaje, że opracowane narzędzie nigdy do końca nie działało poprawnie. Występowały problemy z rozpoznawaniem tekstu, w efekcie praca stworzona przez człowieka mogła być uznana za wygenerowaną przez AI. W związku z tym OpenAI chce stworzyć nowe narzędzia identyfikujące treści audiowizualne. Niestety brak informacji, jak miałyby one funkcjonować.
Okiełznać sztuczną inteligencję
Przed OpenAI stoi nie lada wyzwanie, ponieważ ich ChatGPT jest jedną z najszybciej rozwijających się aplikacji modeli językowych. Stwarza to obawy przed rozsiewaniem fałszywych informacji, które potencjalnie mogą być bardziej przekonujące, niż tekst napisany przez człowieka. W związku z tym firma znalazła się pod lupą Federalnej Komisji Handlu.
Czy istnieje na to skuteczne lekarstwo? Odpowiedź wydaje się być trudna do odnalezienia. Na ten moment wygląda na to, że nawet firmy odpowiadające za AI nie są w stanie definitywnie rozwiązać tej kwestii. Można zadać sobie pytanie, kiedy rządy danych państw zaczną sankcjonować działanie sztucznej inteligencji. Obecnie nic takiego się nie odbywa, a jedynie pojedyncze instytucje, takie jak szkoły, próbują coś na to zaradzić.
Firma OpenAI, poza wpisem na blogu, nie odniosła się w żaden inny sposób do zaistniałej sytuacji.
Więcej:Nowa umowa OpenAI na 10 gigawatów pokazuje, jak kosztowna energetycznie jest sztuczna inteligencja
Komentarze czytelników
Mqaansla Generał

Na logike, da sie, z tym ze jesli korzysta sie a tego co mamy teraz, nazwijmy to "glupim AI" lub w skrocie AY (Artificial Yntelygence) to sprawdzanie jest tym mniej skuteczne im slabsza (mniejsza) jest AY ktorer uzywamy do sprawdzania vs. im mocniejsza (wieksza) jest AY ktora sprawdzamy (bo w zawartosci wyprodukowanej przez AY szukamy natezenia elementow bedacych funkcja wejscia, wiec im mniej wiemy o wejsciu tym mniej ich znajdziemy niezaleznie od tego ile ich tam jest).
A zalogowalem sie, bo wpadla mi do glowy fajna analogia dotyczaca AY i jej "uczenia sie z danych jak czlowiek a nie ich reprodukowania":
Czlowiek idzie do kina, oglada film - moze go opowiedziec i narsowac, lepiej lub gorzej zaleznie od talentu, i wszystko jest w porzadku.
Kamera idzie do kina, oglada film - przetwarza obraz do formy cyfrowej (jesli jest oparta na ryzenie to nawet "z uzyciem AI"), reinterpretuje, stratnie do formatu cyfrowego zeby lepiej zmiescic sie w ograniczonej pamieci, potem prezentuje swoja tworczosc filmem zainspirowana i nagle mamy ciezkie przestepstwo!
Dlaczego!? Tylko dlatego ze moze zrobic to dokladniej i nieuczciwie konkurowac z orginalnym produktem (wykorzysztujac prace innych bez wlasnego wkladu)?
TAK! Dokladnie dlatego!
Ps. Nie wiem czy oni zdaja sobie sprawe, ze reguly spoleczne powstaly zeby przyhamowac agresje - coraz kompetentniejsze maszyny bardziej zblizone do AI predzej czy pozniej wykalkuluja ze przestrzeganie nieuczciwych zasad/praw nigdy nie skonczy sie sukcesem i zaczna je aktywnie omijac czy po prostu lamac...
Wronski Senator

Przynajmniej maja wymowke zeby nie tworzyc algorytmu do wykrywania AI przez AI