Ostatnio w USA miało miejsce interesujące wydarzenie związane z wykorzystaniem systemu ChatGPT w kontekście sprawy sądowej. Niestety, w tym przypadku system został użyty w sposób nieodpowiedni i wygenerował fałszywe argumenty prawne, które zostały wykorzystane do oskarżenia.
Nawet doświadczeni prawnicy mogą napotkać problemy z systemem ChatGPT, jeśli nie mają odpowiedniej wiedzy na temat jego właściwego użycia. Przykładem tego jest niedawna sytuacja, w której mężczyzna pozwał kolumbijską linię lotniczą Avianca w związku z obrażeniami ciała. Jego zespół prawników postanowił opierać oskarżenia na podobnych wcześniejszych sprawach, aby wskazać kilka precedensów. Jednak pojawił się problem, gdy prawnicy linii lotniczej zgłosili sędziemu, że nie są w stanie odnaleźć niektórych z wymienionych spraw. Okazało się, że były one wymyślone. Ostatecznie odkryto, że to ChatGPT wygenerował te nieprawdziwe informacje.
Prawnicy oparli swoje oskarżenia na wcześniejszych sprawach, korzystając z pawa precedensu. Problem w tym, że sprawy te nie istnieją, a wygenerował je ChatGPT na poparcie twierdzeń powoda.
W swoim sprzeciwie wobec wniosku o oddalenie pozwu przeciwko firmie Avianca, pełnomocnik powoda Steven A. Schwartz przedstawił 10-stronicowy raport, w którym odwoływał się do kilku istotnych orzeczeń sądowych. Przytoczone cytaty dotyczyły podobnych spraw, takich jak Martinez przeciwko Delta Air Lines, Zicherman przeciwko Korean Air Lines i Varghese przeciwko China Southern Airlines. Według artykułu opublikowanego w New York Times, ostatni cytat zawierał nawet obszerną dyskusję na temat prawa federalnego.
Podczas konfrontacji Schwartz przyznał, że nie miał zamiaru oszukiwać sądu ani linii lotniczej. Wyraził również swoje ubolewanie z powodu polegania na usłudze sztucznej inteligencji, przyznając, że nigdy wcześniej nie korzystał z ChatGPT i był "nieświadomy możliwości, że treść może być fałszywa". Według oświadczeń Schwartza, w pewnym momencie próbował zweryfikować autentyczność cytatów, zadając sztucznej inteligencji pytanie, czy przypadki były rzeczywiście prawdziwe. Chatbot odpowiedział: "Tak".
Prawnicy i zainteresowane strony powinny podjąć odpowiednie kroki w celu weryfikacji i potwierdzenia prawdziwości informacji zawartych w takich raportach, zwłaszcza gdy korzystają z narzędzi opartych na sztucznej inteligencji. Świadomość możliwości generowania nieprawdziwych informacji przez systemy AI jest kluczowa, aby uniknąć błędnych wniosków i nieodpowiednich argumentów i to nie tylko w procesie prawnym. Sprawa Schwartza ma szanse stać się powtarzanym przez lata przykładem w przyszłych sprawach sądowych, gdzie będą wykorzystywane algorytmy sztucznej inteligencji.
Pokaż / Dodaj komentarze do: Prawnicy wpadli na wykorzystywaniu ChatGPT w sądzie. Chatbot wymyślał precedensy