Mnie bardziej interesuje kwestia odpowiedzialności. Oczywiście Anthropic umyje ręcę twierdząc, że to wina promptów użytkownika albo braku należytej kontroli tego, co agent robi.
A ja bym potraktował to jako body leasing. Gdy jedna firma wynajmuje drugiej pracownika to zwykle podpisują umowę, że firma sprzedająca bierze odpowiedzialność finansową za błędy pracownika. Od biedy można pracownika pociągnąć do odpowiedzialności. Z AI nie powinno być inaczej. Skoro Anthropic, Open AI, i inni, tak odważnie chcą zmieniać świat to niech biorą za to odpowiedzialność.
Ech, podobny tok rozumowania można zastosować do wszystkich ubezpieczeń czy przepisów dotyczących bezpieczeństwa czy prawa pracy - "bo firma i tak przerzuci koszty na klienta". No i przerzuci. Niech przerzuca. Zawsze to lepsze niż dziki zachód bez żadnych reguł
Jeśli ktoś daje pracownikom dostęp do produkcji to liczy się z ryzykiem i każe podpisywać papiery obligujące pracownika do przestrzegania należytych procedur, pod groźbą grubej kary.
Jeśli ktoś sprzedaje Ci narzędzie, które się zepsuje i zrobi Ci krzywdę to też masz prawo wystąpić o odszkodowanie
Second. Co ci po konfiguracji jeśli AI ją zignoruje? Pół artykułu jest o tym, że bot złamał wszystkie zasady łącznie z najprostszą "nie usuwaj danych".
Ale za to ile kierownictwo zaoszczędziło na pracownikach !!!!! :Drotflmao