Prawnik może zaprzepaścić 30-letnią karierę z powodu ChatGPT

O tym, że ChatGPT nie zawsze należy wierzyć przekonał się pewien prawnik. Wykorzystał chatbota do uzupełnienia dokumentów do jednego z procesów, a ten umieścił w nim nieistniejące orzeczenia sądowe.

futurebeat.pl

Marek Pluta

Prawnik może zaprzepaścić 30-letnią karierę z powodu ChatGPT, źródło grafiki: Unsplash | Jonathan Kemper.
Prawnik może zaprzepaścić 30-letnią karierę z powodu ChatGPT Źródło: Unsplash | Jonathan Kemper.

Eksperci podkreślają, że nie należy bezgranicznie polegać na sztucznej inteligencji, gdyż chatboty potrafią często mijać się z prawdą i należy weryfikować podawane przez nich informacje. Boleśnie przekonał się o tym prawnik Steven Schwartz z kancelarii Levidow, Levidow & Oberman, który poszedł na skróty i przygotował wniosek do jednej ze spraw za pomocą ChatGPT. Ten jednak zawierał nieprawdziwe informacje.

AI często kłamie

Jak donosi The New York Times, adwokat pracujący w zawodzie od około 30 lat, zajął się sprawą Roberto Mata, który pozwał linie lotnicze za to, że podczas lotu wózek stewardessy zranił jego kolano.

Linie Avianca chciały doprowadzić do oddalenia sprawy, więc adwokat ofiary złożył wniosek mający umożliwić kontynuowanie procesu, zawierający orzeczenia sądowe z podobnych spraw, które miały miejsce w przeszłości. Zamiast jednak samodzielnie to zrobić, postanowił ułatwić sobie pracę i skorzystał z pomocy ChatGPT, co okazało się dużym błędem. Chatbot dostarczył mu nazwy podobnych procesów, które jak później ustalono, nigdy się nie odbyły.

Adwokat zeznał potem, iż nie zdawał sobie sprawy z tego, że informacje dostarczone przez AI mogą być fałszywe. W przyszłym miesiącu odbędzie się więc kolejne przesłuchanie, które ma zadecydować o ukaraniu go za wykorzystanie we wniosku procesowym fałszywych informacji. Nie ulega bowiem wątpliwości, że prawnik naraził w ten sposób na szwank wizerunek swej kancelarii, a także swoją wieloletnią karierę.

Ten przykład jasno pokazuje, że chatboty może i bywają pomocne, ale mogą często mijać się z prawdą. Nie należy więc bezgranicznie im ufać i lepiej samodzielnie zweryfikować dostarczane dane.

Podobało się?

8

Marek Pluta

Autor: Marek Pluta

Od lat związany z serwisami internetowymi zajmującymi się tematyką gier oraz nowoczesnych technologii. Przez wiele lat współpracował m.in. z portalami Onet i Wirtualna Polska, a także innymi serwisami oraz czasopismami, gdzie zajmował się m.in. pisaniem newsów i recenzowaniem popularnych gier, jak również testowaniem najnowszych akcesoriów komputerowych. Wolne chwile lubi spędzać na rowerze, zaś podczas złej pogody rozrywkę zapewnia mu dobra książka z gatunku sci-fi. Do jego ulubionych gatunków należą strzelanki oraz produkcje MMO.

Kalendarz Wiadomości

maj
Nie
Pon
Wto
Śro
Czw
Pią
Sob

Komentarze czytelników

Dodaj komentarz
Forum Inne Gry
2023-05-29
12:41

Szefoxxx Senator

Szefoxxx

Nie zawsze? Nigdy.
Z AI to ma tyle wspólnego co nic.

Ten szajs kłamie na potęgę, więc nadaje się tylko w zastosowaniach w których czynnik wiarygodności nie jest potrzebny, jak np. generowanie obrazków śmiesznych kotów...

Komentarz: Szefoxxx
2023-05-29
13:45

Mqaansla Generał

Mqaansla
😂

Jak to stwierdzili niektorzy geniusze tutaj przy okazji innego artykulu:
"powinien byl swojemu AI tego zabronic" xD

Komentarz: Mqaansla
2023-05-29
15:00

pawel1812 Generał

Myślę, że ten prawnik powinien być od ręki przykładnie ukarany zakazem wykonywania zawodu za upublicznienie niejawnych akt rozpraw.
Zastanawiałem się w jaki sposób Chat GPT mógłby naruszac prywatność, ale patrząc co ludzie wyprawiają używając go, zaczynam rozumieć. Ludzie niezależnie od wykształcenia to idioci.

Komentarz: pawel1812
2023-05-30
06:09

keeper_4chan Generał

keeper_4chan

GPT to jest zwykły przed-trenowany klasyfikator jako model językowy.
Do tego nie ma dostępu do internetu.
Sporo ludzi nie rozumie tego narzędzia i traktuje go jak wyrocznie.

Mówiąc prościej, przez kontekst logiki rozmytej.
Nie polega on na dostarczaniu konkretnej wiadomości, a jakiejkolwiek najlepiej pasującej.

Komentarz: keeper_4chan
2023-05-30
10:40

Wronski Senator

Wronski
😒

Eksperci podkreślają, że nie należy bezgranicznie polegać na sztucznej inteligencji, gdyż chatboty potrafią często mijać się z prawdą i należy weryfikować podawane przez nich informacje. Boleśnie przekonał się o tym prawnik Steven Schwartz...

Idiota...

Komentarz: Wronski

GRYOnline.pl:

Facebook GRYOnline.pl Instagram GRYOnline.pl X GRYOnline.pl Discord GRYOnline.pl TikTok GRYOnline.pl Podcast GRYOnline.pl WhatsApp GRYOnline.pl LinkedIn GRYOnline.pl Forum GRYOnline.pl

tvgry.pl:

YouTube tvgry.pl TikTok tvgry.pl Instagram tvgry.pl Discord tvgry.pl Facebook tvgry.pl