Prawnik może zaprzepaścić 30-letnią karierę z powodu ChatGPT
O tym, że ChatGPT nie zawsze należy wierzyć przekonał się pewien prawnik. Wykorzystał chatbota do uzupełnienia dokumentów do jednego z procesów, a ten umieścił w nim nieistniejące orzeczenia sądowe.

Eksperci podkreślają, że nie należy bezgranicznie polegać na sztucznej inteligencji, gdyż chatboty potrafią często mijać się z prawdą i należy weryfikować podawane przez nich informacje. Boleśnie przekonał się o tym prawnik Steven Schwartz z kancelarii Levidow, Levidow & Oberman, który poszedł na skróty i przygotował wniosek do jednej ze spraw za pomocą ChatGPT. Ten jednak zawierał nieprawdziwe informacje.
AI często kłamie
Jak donosi The New York Times, adwokat pracujący w zawodzie od około 30 lat, zajął się sprawą Roberto Mata, który pozwał linie lotnicze za to, że podczas lotu wózek stewardessy zranił jego kolano.
Linie Avianca chciały doprowadzić do oddalenia sprawy, więc adwokat ofiary złożył wniosek mający umożliwić kontynuowanie procesu, zawierający orzeczenia sądowe z podobnych spraw, które miały miejsce w przeszłości. Zamiast jednak samodzielnie to zrobić, postanowił ułatwić sobie pracę i skorzystał z pomocy ChatGPT, co okazało się dużym błędem. Chatbot dostarczył mu nazwy podobnych procesów, które jak później ustalono, nigdy się nie odbyły.
Adwokat zeznał potem, iż nie zdawał sobie sprawy z tego, że informacje dostarczone przez AI mogą być fałszywe. W przyszłym miesiącu odbędzie się więc kolejne przesłuchanie, które ma zadecydować o ukaraniu go za wykorzystanie we wniosku procesowym fałszywych informacji. Nie ulega bowiem wątpliwości, że prawnik naraził w ten sposób na szwank wizerunek swej kancelarii, a także swoją wieloletnią karierę.
Ten przykład jasno pokazuje, że chatboty może i bywają pomocne, ale mogą często mijać się z prawdą. Nie należy więc bezgranicznie im ufać i lepiej samodzielnie zweryfikować dostarczane dane.
Komentarze czytelników
Szefoxxx Senator

Nie zawsze? Nigdy.
Z AI to ma tyle wspólnego co nic.
Ten szajs kłamie na potęgę, więc nadaje się tylko w zastosowaniach w których czynnik wiarygodności nie jest potrzebny, jak np. generowanie obrazków śmiesznych kotów...
Mqaansla Generał

Jak to stwierdzili niektorzy geniusze tutaj przy okazji innego artykulu:
"powinien byl swojemu AI tego zabronic" xD
pawel1812 Generał
Myślę, że ten prawnik powinien być od ręki przykładnie ukarany zakazem wykonywania zawodu za upublicznienie niejawnych akt rozpraw.
Zastanawiałem się w jaki sposób Chat GPT mógłby naruszac prywatność, ale patrząc co ludzie wyprawiają używając go, zaczynam rozumieć. Ludzie niezależnie od wykształcenia to idioci.
keeper_4chan Generał

GPT to jest zwykły przed-trenowany klasyfikator jako model językowy.
Do tego nie ma dostępu do internetu.
Sporo ludzi nie rozumie tego narzędzia i traktuje go jak wyrocznie.
Mówiąc prościej, przez kontekst logiki rozmytej.
Nie polega on na dostarczaniu konkretnej wiadomości, a jakiejkolwiek najlepiej pasującej.
Wronski Senator

Eksperci podkreślają, że nie należy bezgranicznie polegać na sztucznej inteligencji, gdyż chatboty potrafią często mijać się z prawdą i należy weryfikować podawane przez nich informacje. Boleśnie przekonał się o tym prawnik Steven Schwartz...
Idiota...