Fajnie, że Claude rozumie, ale kto będzie rozumiał Claude'a? Jeśli ktoś chce pushować na produkcję kod w COBOLU (który bardzo często odpowiada za bardzo stare i bardzo ważne systemy informatyczne), bez doświadczonego człowieka odpowiedzialnego za zrozumienie i utrzymanie tego kodu no to brawo. Ostatni akapit bardzo trafny. Warto pamiętać o tym, że pewne projekty, systemy, mają ograniczenia prawne. Muszą być napisane w pewnym języku a programista piszący taki kod musi być za niego odpowiedzialny, nie tylko na gruncie dumy profesjonalisty, ale i prawnym. Claude za kod który wypluje nie jest odpowiedzialny, Anthropic też nie. Używanie AI w wielu miejscach, wielkich korporacjach operujących wrażliwymi danymi czy systemami krytycznymi, odpowiedzialnymi za zdrowie, pociągi itp. jest wciąż zabronione, albo bardzo, bardzo mocno ograniczone.
Bójmy się wszyscy teraz o nasze otoczenie, konta i transakcje między bankami jak będzie kod z AI bez testowania w takim cobolu, gdzie lepiej jest dopisać kolejne linijki kodu, niż coś pisać od nowa. To będzie tak niestabilne jak ktoś zbyt popłynie z vibe code'owaniem. Oczywiście pewnie tylko inwestorzy to debile i za dużo się nie zmieni, bo nikt nie puści kodu AI w cobolu odpowiedzialnego za infrastrukturę krytyczną/bankową. Podobna sytuacja z tym, że AI będzie generowało gry XD
Skoro Claude rozumie COBOLA to osoby ktore go feedowaly tez musza raczej go znac i wiedziec jak operuje, nie wzieli tej wiedzy z chmury... chyba.
A co z bezpieczeństwem? Już udowodniono, że np. AI od kolegów z Chin ma wbudowane mechanizmy, które w określonych sytuacjach umieszczają furtki w zabezpieczeniach aplikacji.