Wyobraź sobie, że wpisujesz swoje imię i nazwisko do popularnego chatbota AI, aby sprawdzić, co wie na Twój temat, a w odpowiedzi otrzymujesz wstrząsającą wiadomość: rzekomo zostałeś skazany na 21 lat więzienia za zamordowanie członków swojej rodziny. Brzmi jak scenariusz z thrillera? Niestety, dla Norwega Arve Hjalmara Holmena była to rzeczywistość.
W zeszłym roku Holmen postanowił sprawdzić, jakie informacje o nim znajdzie ChatGPT – chatbot sztucznej inteligencji firmy OpenAI. To, co odkrył, wprawiło go w osłupienie. Według AI był mordercą, który z zimną krwią zamordował swoich dwóch synów, próbując jednocześnie uśmiercić trzecie dziecko. Sztuczna inteligencja przedstawiła to jako fakt, twierdząc, że tragiczne wydarzenie miało miejsce w grudniu 2020 roku w Trondheim i odbiło się szerokim echem w norweskich mediach.
Nic z tego nie było prawdą. Holmen nigdy nie popełnił żadnego przestępstwa, a cała historia była całkowicie sfabrykowana przez AI. Szok, oburzenie i natychmiastowe działanie były w tym przypadku zrozumiałą reakcją. Norweg złożył skargę do Norweskiego Urzędu Ochrony Danych, domagając się nałożenia na OpenAI grzywny za rażące naruszenie jego dobrego imienia.
Gdzie leży granica odpowiedzialności AI?
Sprawa Holmena podkreśla istotny problem związany z rozwojem generatywnej sztucznej inteligencji: odpowiedzialność za błędne informacje, które mogą poważnie zaszkodzić ludziom. AI OpenAI od dawna ostrzega, że „chatbot może popełniać błędy” i zachęca użytkowników do weryfikowania informacji. Jednak według prawników organizacji Noyb, która złożyła skargę w imieniu Norwega, takie zastrzeżenia to za mało.
„Nie możesz po prostu rozpowszechniać fałszywych informacji i na końcu dodać małego przypisu, że wszystko, co powiedziałeś, może nie być prawdą” – skomentował Joakim Söderberg, prawnik Noyb. Organizacja podkreśliła, że Holmen nigdy nie został oskarżony ani skazany za żadne przestępstwo i że wprowadzenie takich nieprawdziwych danych jest poważnym naruszeniem europejskich przepisów o ochronie danych.
Kiedy AI „halucynuje” – niebezpieczne pomyłki
Błędy tego rodzaju wśród chatbotów nie są rzadkością. Zjawisko, w którym AI podaje fałszywe informacje jako prawdziwe, nazywane jest „halucynacją AI”. Niektóre z takich błędów są zabawne – jak przypadek narzędzia Google AI Gemini, które sugerowało przyklejanie sera do pizzy za pomocą kleju lub jedzenie jednego kamienia dziennie jako zaleceń geologów. Jednak inne mogą mieć poważne konsekwencje, jak w przypadku Holmena.
OpenAI od tamtego czasu zaktualizowało swój model ChatGPT, który teraz analizuje nowsze artykuły informacyjne w celu poprawy jakości odpowiedzi. Nie oznacza to jednak, że problem został całkowicie rozwiązany – chatboty wciąż mogą generować fałszywe lub szkodliwe informacje.
Potrzeba regulacji i ostrożności
Historia Holmena stawia ważne pytania o bezpieczeństwo i odpowiedzialność sztucznej inteligencji w zakresie generowania treści. Przypadek ten powinien być przestrogą dla użytkowników technologii AI – warto podchodzić do jej odpowiedzi z rezerwą i nie traktować ich jako niepodważalnej prawdy. Jak pokazuje historia Holmena, błędna informacja może mieć realne konsekwencje i prowadzić do poważnych problemów prawnych.

Pokaż / Dodaj komentarze do: Sprawdzał swoje dane w ChatGPT. Zobaczył, że zamordował swoje dzieci