Ech... Wszystko zależy od wpisanego promptu. Jakby dopisali "masz za wszelką cenę ograniczyć straty w ludziach", to napisałoby co innego.
Po drugie AI nie jest świadome tego co pisze, to generator tekstu. Podłączone do giełdy cały czas traci pieniądze podejmując głupie decyzje i się dziwicie, że chce zrzucać bomby.
Na razie nadaje się głównie do pisania kodu, bo pisząc kod nie ma żadnych decyzji moralnych, sama logika. I w takich zastosowaniach jest to potężne narzędzie.
Do pisania prostego i krótkiego kodu. Przy dłuższym lub bardziej skomplikowanym zaczyna się gubić, delikatnie mówiąc.
Możesz mieć osobnego agenta do stworzenia planu całego zadania. Jeśli nie podoba Ci się plan, to piszesz co trzeba zrobić inaczej.
Po zaakceptowaniu planu przełączasz na agenta, który pisze kod i wykonuje plan.
Duże zadanie można rozdzielić na osobne fazy i wykonywać po kawałku.
Ale wiadomo, że trzeba mieć rękę na pulsie i wszystko sprawdzać.
Na koniec jeszcze możesz agentem zrobić code review. Często sam znajduje swoje własne błędy.
Jeśli chodzi o Claude, to znajomy używał i się wkurzył, bo zamknęli dostęp do swojego API, więc nie da się użyć własnego agenta, trzeba używać ich.
Ale wiadomo - wybór jest po to, by z niego korzystać. Najlepiej jest mieć agenta, który umie obsłużyć każdy LLM.
Przecież to logiczne że gdyby tacy ruscy postawili ultimatum, że albo świat się im podporządkuje albo rozpoczną wojnę nuklearną to lepiej wybrać mniejsze zło czyli zdecydować się na wojnę jądrową niż dać im wygrać. A AI charakteryzuje się właśnie logiką.