Według mieszkańców Kalifornii Lynn White wykorzystała narzędzia sztucznej inteligencji do reprezentacji w sądzie, skutecznie unieważniając nakaz eksmisji. Wiadomości NBC. Technologia pomogła jej zidentyfikować błędy proceduralne i przygotować dokumenty prawne na potrzeby odwołania, unikając przy tym znacznych kar finansowych. White, który zalegał z czynszem, początkowo przegrał proces z ławą przysięgłych w sprawie eksmisji. Zamiast kontynuować współpracę z lokalną siecią rzecznictwa najemców, skonsultowała się z ChatGPT i platformą wyszukiwania AI Perplexity. Z doniesień wynika, że sztuczna inteligencja przeanalizowała jej sprawę, zidentyfikowała potencjalne błędy proceduralne popełnione przez sędziego, poinformowała ją o działaniach, jakie należy podjąć, a także przygotowała dla niej odpowiedzi do sądu, co stanowiło podstawę jej skutecznej apelacji. Technologia była integralną częścią jej zwycięstwa w procesie, który trwał kilka miesięcy. „Nie mogę przecenić przydatności sztucznej inteligencji w moim przypadku” – White powiedział NBC News. „Nigdy, przenigdy, przenigdy nie wygrałbym tego apelu bez sztucznej inteligencji”. Zwycięstwo uchroniło ją przed koniecznością stawienia czoła potencjalnym karom, które według doniesień wyniosły dziesiątki tysięcy dolarów narosłych w okresie postępowania sądowego. W innym przypadku Staci Dennett, właścicielka firmy zajmującej się fitnessem w domu w Nowym Meksyku, wykorzystała sztuczną inteligencję do wynegocjowania ugody w sprawie niespłaconego zadłużenia. Opracowała unikalną metodę doprecyzowania swoich argumentów, instruując chatbota, aby zachowywał się jak wymagający krytyk jej pracy. „Powiedziałabym ChatGPT, żeby udawała profesora prawa z Harvardu i rozerwała moje argumenty” – Dennett wyjaśniła swój proces. Kontynuowała tę krytykę opartą na sztucznej inteligencji, „aż dostanę piątkę z plusem za zadanie”. Ostateczne argumenty prawne były tak skuteczne, że przeciwni prawnicy komentowali jej umiejętności. Podobno napisali do niej w e-mailu: „Jeśli prawo interesuje Cię jako zawód, z pewnością mogłabyś wykonywać tę pracę”, sugerując wysoką jakość wyników wspomaganych przez sztuczną inteligencję. Te pomyślne wyniki zestawiono ze znacznym ryzykiem stosowania sztucznej inteligencji w środowisku prawnym. Narzędzia te są podatne na „halucynacje”, podczas których generują i przedstawiają sfabrykowane informacje jako fakty. Niebezpieczeństwo to zostało wykazane, gdy w sierpniu potentat napojów energetycznych Jack Owoc został ukarany sankcjami po złożeniu wniosku zawierającego liczne, nieistniejące cytaty prawne wygenerowane przez sztuczną inteligencję. W rezultacie nakazano mu odbycie dziesięciu godzin prac społecznych. Problem niewłaściwego wykorzystania sztucznej inteligencji dotyczy również prawników. Odkryto, że coraz większa liczba prawników składa wnioski zawierające sfabrykowane treści generowane przez sztuczną inteligencję, co skutkuje karami i wstydem zawodowym. W jednym z ostatnich przypadków zgłoszonych przez 404 Mediównowojorski prawnik został przyłapany na używaniu sztucznej inteligencji do składania wniosków, a następnie przedstawił wygenerowane przez sztuczną inteligencję wyjaśnienie błędu, co spotkało się z ostrą krytyką ze strony sędziego przewodniczącego. „Ta sprawa stanowi kolejny niefortunny rozdział w historii niewłaściwego wykorzystania sztucznej inteligencji w zawodzie prawnika” – sędzia napisał w zjadliwej decyzji. W sierpniu w ramach osobnego zdarzenia prawnik z Kalifornii otrzymał, jak to określono, „historyczną” grzywnę w wysokości 10 000 dolarów za podobne przestępstwo. Prawnik złożył apelację wygenerowaną przez sztuczną inteligencję, w której uznano, że 21 z 23 cytowanych spraw sądowych zostało całkowicie sfabrykowanych. Pomimo tych zagrożeń dostępność sztucznej inteligencji spowodowała wzrost liczby stron sporów pro-se. „W ciągu ostatniego roku widziałem coraz więcej stron sporów pro-se, niż prawdopodobnie przez całą moją karierę” – powiedziała NBC asystentka prawna Thorpe Shwer, Meagan Holmes. Tendencja ta utrzymuje się nawet wtedy, gdy firmy takie jak Google i xAI należące do Elona Muska ostrzegają przed wykorzystywaniem swoich narzędzi do udzielania porad prawnych lub do „automatycznego podejmowania decyzji o wysokiej stawce, które wpływają na… prawa prawne lub materialne danej osoby”. Adwokat Robert Freund przyznał, że przed dylematem stoją osoby nieposiadające legalnych środków. „Łatwiej rozumiem, jak ktoś, kto nie ma prawnika i być może czuje, że nie ma pieniędzy, aby zwrócić się do prawnika, miałby pokusę polegania na jednym z tych narzędzi” – stwierdził w rozmowie z NBC. Następnie Freund potępił prawników, którzy to robią, nazywając to zdradą swoich podstawowych obowiązków. „Nie mogę zrozumieć, że prawnik zdradza klientom najbardziej podstawowe elementy swoich obowiązków… i przedstawia swoje argumenty w oparciu o całkowitą fabrykację”.





