Szkoły i uczelnie chcące przeciwdziałać używaniu AI uzyskały odwrotny skutek. Badania pokazały, że detektory AI tylko wzmagają używanie czatbotów przy pracach pisemnych.
Detektory AI miały pomóc w wykrywaniu, czy dana osoba użyła sztucznej inteligencji do napisania pracy, ale uzyskały odwrotny skutek. Uczniowie i studenci masowo korzystają z możliwości AI, żeby upewnić się, czy ich praca przejdzie weryfikację detektora, ponieważ ten karze osoby używające bogatszego języka. Bardziej opłaca się pisać w generyczny sposób.
Jeśli nauczyciele kierują się wyłącznie tym, co na temat danego wypracowania odpowie detektor AI, to może nieświadomie przyczyniać się do demotywowania kreatywnych uczniów. Okazuje się, że korzystanie z bogatszego języka może prowadzić do oznaczenia treści jako stworzonej przez sztuczną inteligencję, jak w przypadku ucznia, którego wypracowanie zostało określone jako napisane przez AI w 18% ze względu na użycie słowa „devoid” (pozbawiony czegoś). Gdy podmienił to słowo na „without” (bez czegoś) wynik spadł do 0%.
Serwis Techspot powołał się na słowa instruktora pisania Dadlanda Maye'a, który zwrócił uwagę, że jego kursanci zaczęli używać sztucznej inteligencji, żeby upewnić się, czy ich praca przejdzie weryfikację detektora. System sprawił, że nawet osoby, które dotychczas pisały swoje wypracowania w pełni samodzielnie, sięgają teraz po pomoc czatbotów.
Natomiast inny uczeń został fałszywie oskarżony o użycie AI przy pisaniu pracy, co zmotywowało go do zasubskrybowania kilku modeli sztucznej inteligencji, których używa do weryfikacji swoich prac. W ten sposób osoby uczęszczające do szkół i na uniwersytety uczą się, że należy działać bezpiecznie. Jeśli zależy od tego ich ocena, a może nawet stypendium, to lepiej upewnić się, iż dany tekst powstał w sposób, który zostanie zaakceptowany przez detektor AI.
Te działania zostały określone „efektem kobry”, gdy próba przeciwdziałania jakiemuś zjawisku tylko je wzmacnia. Detektory AI miały przypilnować samodzielnej pracy uczniów, ale ich działanie doprowadziło do odwrotnego skutku. Takie programy odgadują treść i oceniają długość zdań, ich regularność oraz użycie danych słów. Przez to nie są idealne, co pokazują powyższe historie.
Zamiast detektorów potrzebna jest edukacja wskazująca, że AI jest wyłącznie narzędziem. Należy weryfikować powstałe treści i pilnować halucynacji. Nauczyciele i wykładowcy nie powinni opierać oceny danej pracy wyłącznie na tym, co wskaże detektor.
Dziękujemy za przeczytanie artykułu.
Ustaw GRYOnline.pl jako preferowane źródło wiadomości w Google
Więcej:Szef Asusa nie ukrywa, że budżetowy MacBook Neo to szok dla całej branży

Autor: Zbigniew Woźnicki
Przygodę z publicystyką i pisaniem zaczął w serwisie Allegro, gdzie publikował newsy związane z grami, technologią oraz mediami społecznościowymi. Wkrótce zawitał na GRYOnline.pl i Filmomaniaka, pisząc o nowościach związanych z branżą filmową. Mimo związku z serialami, jego serce należy do gier wszelakiego typu. Żaden gatunek mu nie straszny, a przygoda z Tibią nauczyła go, że niebo i muzyka w grach są całkowicie zbędne. Przed laty dzielił się swoimi doświadczeniami, moderując forum mmorpg.org.pl. Uwielbia ponarzekać, ale oczywiście konstruktywnie i z umiarem. Na forum pisze pod ksywką Canaton.