Designed & Developed by MHweb.pl
Sztuczna inteligencja w kancelarii – amerykański prawnik surowo ukarany za fikcyjne orzeczenia
W głośnej sprawie z lutego 2025 roku amerykański sąd federalny nałożył grzywnę w wysokości 15 000 dolarów na prawnika, który w pismach procesowych cytował nieistniejące orzeczenia wygenerowane przez sztuczną inteligencję. Przypadek ten może stanowić przestrogę również dla polskich prawników coraz częściej sięgających po narzędzia AI w codziennej praktyce zawodowej.
Szczegóły sprawy i przebieg postępowania
Amerykański adwokat Rafael Ramirez, występując w imieniu spółki HoosierVac LLC przed United States District Court for the Southern District of Indiana, złożył wniosek o ponowne rozpatrzenie sprawy. W przedłożonym piśmie procesowym powołał się na orzeczenie w sprawie „In re Cook County Treasurer, 773 F.3d 834 (7th Cir. 2014)”, którego istnienia sąd nie zdołał potwierdzić w dostępnych zbiorach orzecznictwa. Wezwany do wskazania prawidłowego oznaczenia sprawy, Ramirez oświadczył, iż nie jest w stanie zlokalizować przedmiotowego orzeczenia, przyznając się do błędu.
W następstwie tej sytuacji sąd dokonał weryfikacji wcześniejszych pism procesowych przedłożonych przez tego pełnomocnika, identyfikując kolejne dwa nieistniejące wyroki: „Knoedler Manufactuers, Inc. v. Cox, 545 F.2d 1033, 1035 (7th Cir. 1976)” oraz „Brown v. Local 58, IBEW, 628 F.2d 441 (6th Cir. 1980)”. W związku z powyższym skład orzekający zobowiązał Ramireza do osobistego stawiennictwa celem złożenia stosownych wyjaśnień.
W trakcie posiedzenia wyjaśniającego w styczniu 2025 roku pełnomocnik przyznał, że przy sporządzaniu przedmiotowych pism korzystał z oprogramowania opartego na generatywnej sztucznej inteligencji. Podnosił jednocześnie, że nie był świadomy zjawiska tzw. „halucynacji AI”, polegającego na generowaniu przez narzędzia AI fikcyjnych cytatów oraz orzeczeń. Okolicznością szczególnie obciążającą był fakt, że adwokat zaniechał podjęcia jakichkolwiek czynności weryfikacyjnych w zakresie rzeczywistego istnienia powoływanych precedensów, kierując się wyłącznie pozorną wiarygodnością wygenerowanych przez sztuczną inteligencję fragmentów orzeczeń.
Naruszenia etyki zawodowej i uzasadnienie kary
Sędzia prowadzący sprawę podkreślił, że sprawdzenie aktualności i poprawności cytowanych źródeł to absolutnie podstawowy obowiązek każdego prawnika – obowiązek istniejący od zarania zawodów prawniczych. Jak zauważył sędzia, współczesne systemy informacji prawnej uczyniły to zadanie jeszcze prostszym, niż było w przeszłości.
Sąd zwrócił uwagę na to, że korzystanie z generatywnej AI na etapie wstępnej analizy prawnej jest czymś zupełnie innym niż bezkrytyczne poleganie na jej wynikach. Nawet narzędzia AI nieprzeznaczone stricte do celów prawniczych mogą dostarczyć wartościowego ogólnego zarysu problematyki. Niedopuszczalne jest jednak przyjmowanie rezultatów wygenerowanych przez sztuczną inteligencję bez należytej weryfikacji aktualnego stanowiska judykatury oraz aktualności, a nawet – co najbardziej fundamentalne – samego istnienia powoływanego orzecznictwa.
Wykroczenie poza granice bezpiecznego korzystania z technologii
W uzasadnieniu wymiaru kary sąd nawiązał do analogicznych przypadków, w których prawnicy stosujący sztuczną inteligencję w podobny sposób byli obciążani sankcjami finansowymi w przedziale 2000-5000 dolarów. Skład orzekający doszedł jednak do przekonania, że dotychczasowa praktyka orzecznicza w tym zakresie nie wywiera dostatecznego efektu prewencyjnego, czego dowodzi zachowanie obwinionego pełnomocnika.
W konsekwencji sąd zarekomendował zastosowanie sankcji w podwyższonej wysokości 15 000 dolarów (kalkulowanej jako 5000 dolarów za każde z trzech pism procesowych zawierających fikcyjne orzeczenia) oraz przekazanie sprawy celem rozważenia wdrożenia dalszego postępowania dyscyplinarnego. Na Ramireza nałożono ponadto obowiązek przedstawienia przedmiotowego orzeczenia zarządowi reprezentowanej spółki, co było chyba najgorszą możliwą karą.
Warto podkreślić, że sąd nie zakwestionował zasadności wykorzystywania sztucznej inteligencji per se, uznając jej potencjalną użyteczność w pracy prawnika. Sędzia posłużył się tu celnym porównaniem AI do piły łańcuchowej – narzędzia o znacznej użyteczności, które jednak przy niewłaściwym zastosowaniu może wyrządzić istotne szkody. W konkluzji wskazano dobitnie, że „stosowaniu sztucznej inteligencji musi towarzyszyć wykorzystanie inteligencji naturalnej”.
I tak właśnie należy podsumować tę powiastkę – korzystajmy z wszelkich technologii z głową i z zasadą ograniczonego zaufania do uzyskiwanych podpowiedzi, szczególnie w kontekście zastosowań profesjonalnych.