Nauczyciele kontra ChatGPT: niektórzy chcą wrócić do papierowych testów
Nauczyciele gotowi na otwartą wojnę z AI, uczniowie masowo idą na łatwiznę. Filozofia sztucznej inteligencji rozszerzona o kolejne niepokojące zagadnienia.

Nastoletni wiek rządzi się swoimi prawami. Brak perspektywicznego spojrzenia, chęć osiągnięcia wyniku najniższym możliwym nakładem pracy i nieuczciwe zagrywki, to swoiste „przywileje” młodości.
Istnieją jednostki, które mają świadomość, że czas poświęcony na gruntowną edukację zwróci się w przyszłości. Niestety, większość młodzieży i młodych dorosłych woli iść na łatwiznę, korzystając z gotowych rozwiązań, które dziś są dostępne na wyciągnięcie smartfona.
Egzaminy bez ściągi, za to z pomocą ChatGPT
Nadmierne użycie modelu języka GPT, przy sporządzaniu prac pisemnych i projektów, nie umyka uwadze nauczycieli. Wielu wykładowców mówi głośno o swoich obawach i apeluje o zmiany w procesie weryfikacji egzaminów.
Bonnie MacKellar, profesor informatyki na Uniwersytecie St. Johns w Nowym Jorku, która na swój sposób walczy ze sztuczkami OpenAI stosowanymi przez uczniów, przyznaje:
Nastąpi duża zmiana z powrotem do testów w formie papierowej. Słyszę, jak koledzy z kierunków humanistycznych mówią to samo: wracamy do odręcznie pisanych tekstów.
Obecnie Bonnie motywuje swoich studentów na kursie wprowadzającym do ręcznego pisania kodu, a papierowy egzamin będzie stanowił najwyższy procent końcowej oceny z jej przedmiotu.
Bill Hart-Davidson, prodziekan College of Arts and Letters na Michigan State University, sugeruje formułowanie pytań testowych w podchwytliwe opisy zawierające błędy, w których uczniowie będą musieli samodzielnie wskazać nieprawidłowości.

Opis narzędzia AI na oficjalnej stronie mówi sam za siebie:
ChatGPT to (…) model językowy (…) zdolny do generowania tekstu podobnego do ludzkiego w oparciu o kontekst i wcześniejsze rozmowy.
Brzmi jak zachęta dla mniej ambitnych jednostek będących w trakcie edukacji. ChatGPT odpowiada na zadawane pytania w przekonującym, pewnym nieomylności tonie, co skutkuje często nadmiernym zaufaniem do przesłanej odpowiedzi i powielaniem jej bez weryfikacji.
Brak konieczności choćby przełożenia odpowiedzi z chatu na swobodną, ludzko brzmiącą wypowiedź, odbiera uczniom jakikolwiek angaż w sporządzenie pracy, poza zadaniem celnego pytania. Dostają wygenerowany gotowiec, który bez większych refleksji prezentują jako własną myśl. Przy przygotowywaniu ściąg, chcąc nie chcąc, uczeń nieco przypadkiem zapoznaje się z treścią omawianego materiału.
Innymi pomysłami na walkę z wykorzystywaniem AI, zamiast pracy samodzielnej, jest ustalenie, by studenci do prac załączali historię redagowania oraz wersje robocze. Plik, który zawierałby „ludzkie błędy”, mógłby stanowić dowód autentyczności przygotowanego projektu.
Filozofia sztucznej inteligencji – czyli gałąź filozofii, której przedmiotem dyskusji są problemy kategorii „myślących maszyn”, bez wątpienia w najbliższym czasie pochyli się nad moralnym zagrożeniem prezentowania w systemie edukacji odpowiedzi dostarczonych przez AI, jako własności intelektualnej uczniów.