Jednym ułatwia pracę, innych doprowadza do frustracji — opiekunowie silnika Godot przyznają, że coraz trudniej odróżnić błędy początkujących programistów od treści generowanych przez sztuczną inteligencję.
Sztuczna inteligencja może ułatwić codzienną pracę, a nawet pozwolić użytkownikom na wykonywanie zadań, o których nie mają pojęcia. Problem pojawia się wtedy, kiedy przygotowany prompt przestaje dawać odpowiednie rezultaty. Okazuje się, że opiekunowie silnika Godot mierzą się z coraz większą liczbą bezsensownych próśb o zmiany w kodzie napisanych przy użyciu LLM-ów. Ekspertom trudno określić, czy za błędy odpowiada człowiek, czy też sztuczna inteligencja.
Na początek krótkie wyjaśnienie – Godot jest otwartoźródłowym silnikiem do tworzenia gier 2D i 3D. Dostęp do wprowadzania zmian w oprogramowaniu ma wąska grupa osób, która dba o jego odpowiednie działanie. Użytkownicy zewnętrzni mogą tworzyć własne modyfikacje, a następnie zgłaszać je do wprowadzenia do repozytorium, co wiąże się z koniecznością weryfikacji.
Jak przyznał Rémi Verschelde – weteran Godota oraz założyciel wspierającej go firmy W4 Games – identyfikowanie oraz sortowanie żądań pisanych przez sztuczną inteligencję stało się wykańczające. Opiekunowie projektu są sfrustrowani żmudną pracą, co nie powinno dziwić. W tym momencie na ich opinię czeka ponad 4,5 tysiąca wniosków, a określenie, czy kod napisany jest choćby częściowo przez człowieka, jest bardzo trudne. „Czy »autor« rozumie przesyłany kod?” – pyta kąśliwie Verschelde.
GitHub Godota ma coraz więcej próśb o zmiany generowane przez LLM-y i jest to ogromna strata czasu dla recenzentów – szczególnie jeśli ludzie tego nie ujawniają. Zmiany często nie mają sensu, opisy są niezwykle rozwlekłe, użytkownicy nie rozumieją własnych zmian... To kompletna porażka – wtóruje Verscheldemu Adriaan de Jongh, współtwórca gry logicznej Hidden Folks.
Verschelde podkreślił, że opiekunowie Godota z otwartymi rękami witają członków społeczności, którzy chcą współtworzyć silnik. Zachęca przy tym do składania dobrowolnych datków, co pozwoliłoby powiększyć kadrę odpowiedzialną za weryfikację zgłoszeń. Nie chciałby natomiast wykorzystywać sztucznej inteligencji do odsiewania próśb zgłaszanych z pomocą LLM-ów, choć nie wyklucza takiego rozwiązania.
Dziękujemy za przeczytanie artykułu.
Ustaw GRYOnline.pl jako preferowane źródło wiadomości w Google

Autor: Krzysztof Kałuziński
W GRYOnline.pl związany z Newsroomem. Nie boi się podejmowania różnych tematów, choć preferuje wiadomości o niezależnych produkcjach w stylu Disco Elysium. W dzieciństwie pisał opowiadania fantasy, katował Pegasusa, a potem peceta. Pasję przekuł w zawód redaktora portalu dla graczy prowadzonego z przyjacielem, jak również copywritera oraz doradcy w sklepie z konsolami. Nie przepada za remake'ami i growymi tasiemcami. Od dziecka chciał napisać powieść, choć zdecydowanie lepiej tworzy mu się bohaterów niż fabułę. Pewnie dlatego tak pokochał RPGi (papierowe i wirtualne). Wychowały go lata 90., do których chętnie by się przeniósł. Uwielbia filmy Tarantino, za sprawą Mad Maksa i pierwszego Fallouta zatracił się w postapo, a Berserk przekonał go do dark fantasy. Dziś próbuje sił w e-commerce i marketingu, jednocześnie wspierając Newsroom w weekendy, dzięki czemu wciąż może kultywować dawne pasje.