Uwierzył ChatGPT w sądzie. Teraz zapłaci za sprawy, których nigdy nie było

Uwierzył ChatGPT w sądzie. Teraz zapłaci za sprawy, których nigdy nie było

Sztuczna inteligencja coraz śmielej wkracza do różnych branż, jednak najnowszy przypadek z Utah pokazuje, że korzystanie z generatywnych narzędzi AI bez odpowiedniej weryfikacji może mieć poważne konsekwencje prawne i zawodowe. 

Prawnik Richard Bednar został ukarany przez Sąd Apelacyjny stanu Utah za złożenie dokumentu zawierającego fałszywe cytowania i odniesienia do nieistniejących spraw, które, jak ustalono, pochodziły z ChatGPT.

Adwokat strony przeciwnej szybko zauważył, że dokument zawiera odwołania do spraw, które nie istnieją lub są całkowicie niepowiązane z omawianym tematem.

Sprawa „Royer v. Nelson”, która nigdy nie istniała

Jak wynika z dokumentów sądowych, Bednar wspólnie z prawnikiem Douglasem Durbano złożyli w terminie wniosek o apelację incydentalną. Jednak adwokat strony przeciwnej szybko zauważył, że dokument zawiera odwołania do spraw, które nie istnieją lub są całkowicie niepowiązane z omawianym tematem.

Szczególnie kuriozalnym przypadkiem okazało się powołanie na sprawę „Royer v. Nelson”, która nie figuruje w żadnej znanej bazie danych prawa amerykańskiego i mogła zostać „wymyślona” wyłącznie przez model językowy ChatGPT. Przykład ten to klasyczny przypadek tzw. halucynacji AI, czyli tworzenia pozornie prawdziwych, lecz całkowicie fikcyjnych informacji.

Generatywne AI nie zwalnia. ChatGPT topi serwery i rośnie szybciej niż TikTok

W oświadczeniu przed sądem Bednar przyznał, że nie był świadomy użycia ChatGPT w przygotowaniu dokumentu. Wyjaśnił, że wniosek został sporządzony przez niezatrudnionego oficjalnie prawnika, byłego aplikanta i absolwenta prawa, który korzystał z narzędzia AI. Bednar podpisał dokument bez uprzedniej weryfikacji treści. Po ujawnieniu błędów przeprosił i zaproponował pokrycie kosztów prawnych poniesionych przez stronę przeciwną.

Mimo że nie był bezpośrednim autorem fałszywych cytatów, sąd uznał, że jako składający podpis pod dokumentem, ponosi pełną odpowiedzialność za jego treść. Sąd docenił postawę skruchy, jednak nałożył na niego szereg sankcji, w ramach których został zobowiązany do pokrycia kosztów adwokackich strony przeciwnej, rekompensaty dla klienta drugiej strony za czas poświęcony na przygotowanie i uczestnictwo w rozprawie oraz do wpłacenia 1 000 dolarów na rzecz organizacji non-profit „And Justice for All”, działającej na rzecz równego dostępu do wymiaru sprawiedliwości w stanie Utah.

W swoim orzeczeniu Sąd Apelacyjny zauważył, że generatywna AI, taka jak ChatGPT, może stanowić przydatne narzędzie badawcze, jednak każdy prawnik ma obowiązek sprawdzenia jej wyników przed złożeniem dokumentów w sądzie. „Odpowiedzialność za treść składanych pism spoczywa na człowieku, nie na algorytmie” - podkreślił sąd.

Nie pierwszy taki przypadek i zapewne nie ostatni

To już kolejny przypadek, w którym adwokat zostaje ukarany za wykorzystanie fikcyjnych cytatów wygenerowanych przez AI. Od 2023 roku odnotowano kilka podobnych sytuacji, w jednym przypadku prawnicy zostali ukarani grzywną w wysokości 5 000 dolarów, a w innym nawet 15 000 dolarów.

Choć sztuczna inteligencja może zrewolucjonizować wiele aspektów naszego życia, w tym branżę prawniczą, wciąż wymaga ostrożnego i odpowiedzialnego podejścia. W przeciwnym razie ryzyko dezinformacji i szkód prawnych staje się zbyt wysokie. Pytanie w ilu takich przypadkach sądy nie wyłapały błędów wygenerowanych przez AI?

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: Uwierzył ChatGPT w sądzie. Teraz zapłaci za sprawy, których nigdy nie było

 0
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł