O tym, że ChatGPT nie zawsze należy wierzyć przekonał się pewien prawnik. Wykorzystał chatbota do uzupełnienia dokumentów do jednego z procesów, a ten umieścił w nim nieistniejące orzeczenia sądowe.
Tech
Marek Pluta
29 maja 2023 11:57
Czytaj Więcej
Ten przykład jasno pokazuje, że chatboty może i bywają pomocne, ale...
Wróć. Ten przykład jasno pokazuje, że ludzie to idioci.
Taki mądry, wzięty prawnik, 30 lat w zawodzie... a taki głupi.
Jak zajmuje się sprawami typu
Roberto Mata, który pozwał linie lotnicze za to, że podczas lotu wózek stewardessy zranił jego kolano
to oznacza że nie jest jakimś wybitnym adwokatem.
Wiadomo że ktoś to musi robić, ale raczej najlepsze kancelarie nie przyjmują takich spraw.
Pracując jako prawnik powinno się znać prawo i rozumieć, że wrzucanie tego typu dokumentów do ChatGPT nie jest najlepszym pomysłem, przecież ChatGPT nie oferuje poufności, więc ujawnił dane spraw, które były niejawne... No kretyn.
Ogólnie w większości kancelarii radców prawnych pracują nieogary życiowe po prawie. Łatwy sposób na biznes jeśli ktoś ma kapitał i wygodniejsze, niż foodtracki
Znajomych którzy takie firmy pozakładali (jeden z nich bez wykształcenia i z wyrokiem za pobicie, ale kto to sprawdza? xD) i Alexa rzecz jasna
Coś ci się pomyliło, żeby prowadzić kancelarię radcowską lub adwokacką, trzeba być odpowiednio radcą prawnym lub adwokatem. Każdy może otworzyć np. biuro porad prawnych, zatrudniające radców prawnych lub zlecające wykonanie różnych usług adwokatom, ale to nie to samo co kancelaria.
Nie zawsze? Nigdy.
Z AI to ma tyle wspólnego co nic.
Ten szajs kłamie na potęgę, więc nadaje się tylko w zastosowaniach w których czynnik wiarygodności nie jest potrzebny, jak np. generowanie obrazków śmiesznych kotów...
ChatGPT jest świetny ale często halucynuje i trzeba ręcznie weryfikować tego typu rzeczy. Prosiłem go o prace naukowe na pewne tematy i 3 z 4 nie istniały. Takie rzeczy trzeba po prostu sprawdzać
To na uj komu takie info, które trzema samemu za każdym razem weryfikować....
A te ich bzdurne terminy typu "halucynacje", to są zwykłe brednie, po prostu nie działa, bo algorytm jest za słaby i źle działa.
Liczy się efekt końcowy, nikogo nie obchodzi czemu działa źle.
Zabawka do generowania memów.
Jak to stwierdzili niektorzy geniusze tutaj przy okazji innego artykulu:
"powinien byl swojemu AI tego zabronic" xD
Myślę, że ten prawnik powinien być od ręki przykładnie ukarany zakazem wykonywania zawodu za upublicznienie niejawnych akt rozpraw.
Zastanawiałem się w jaki sposób Chat GPT mógłby naruszac prywatność, ale patrząc co ludzie wyprawiają używając go, zaczynam rozumieć. Ludzie niezależnie od wykształcenia to idioci.
GPT to jest zwykły przed-trenowany klasyfikator jako model językowy.
Do tego nie ma dostępu do internetu.
Sporo ludzi nie rozumie tego narzędzia i traktuje go jak wyrocznie.
Mówiąc prościej, przez kontekst logiki rozmytej.
Nie polega on na dostarczaniu konkretnej wiadomości, a jakiejkolwiek najlepiej pasującej.