Sztuczna inteligencja bezradna; nie odróżnia tekstów napisanych przez samą siebie
Na logike, da sie, z tym ze jesli korzysta sie a tego co mamy teraz, nazwijmy to "glupim AI" lub w skrocie AY (Artificial Yntelygence) to sprawdzanie jest tym mniej skuteczne im slabsza (mniejsza) jest AY ktorer uzywamy do sprawdzania vs. im mocniejsza (wieksza) jest AY ktora sprawdzamy (bo w zawartosci wyprodukowanej przez AY szukamy natezenia elementow bedacych funkcja wejscia, wiec im mniej wiemy o wejsciu tym mniej ich znajdziemy niezaleznie od tego ile ich tam jest).
A zalogowalem sie, bo wpadla mi do glowy fajna analogia dotyczaca AY i jej "uczenia sie z danych jak czlowiek a nie ich reprodukowania":
Czlowiek idzie do kina, oglada film - moze go opowiedziec i narsowac, lepiej lub gorzej zaleznie od talentu, i wszystko jest w porzadku.
Kamera idzie do kina, oglada film - przetwarza obraz do formy cyfrowej (jesli jest oparta na ryzenie to nawet "z uzyciem AI"), reinterpretuje, stratnie do formatu cyfrowego zeby lepiej zmiescic sie w ograniczonej pamieci, potem prezentuje swoja tworczosc filmem zainspirowana i nagle mamy ciezkie przestepstwo!
Dlaczego!? Tylko dlatego ze moze zrobic to dokladniej i nieuczciwie konkurowac z orginalnym produktem (wykorzysztujac prace innych bez wlasnego wkladu)?
TAK! Dokladnie dlatego!
Ps. Nie wiem czy oni zdaja sobie sprawe, ze reguly spoleczne powstaly zeby przyhamowac agresje - coraz kompetentniejsze maszyny bardziej zblizone do AI predzej czy pozniej wykalkuluja ze przestrzeganie nieuczciwych zasad/praw nigdy nie skonczy sie sukcesem i zaczna je aktywnie omijac czy po prostu lamac...