Szef OpenAI przeprosił mieszkańców kanadyjskiego Tumbler Ridge po tym, jak ujawniono, że firma nie poinformowała organów ścigania o użytkowniczce prowadzącej alarmujące rozmowy z ChatGPT. Kilka miesięcy później kobieta dopuściła się masowej strzelaniny, w której zginęło osiem osób, a kolejne dwadzieścia pięć zostało rannych.
Sprawa błyskawicznie stała się jednym z najgłośniejszych kryzysów w historii OpenAI. Po raz pierwszy tak otwarcie pojawiły się pytania o to, gdzie kończy się rola narzędzia AI, a zaczyna odpowiedzialność firmy za sygnały mogące wskazywać na realne zagrożenie.
Niepokojące rozmowy zostały wykryte
Według ujawnionych informacji konto należące do Jesse Van Rootselaar zostało oznaczone przez wewnętrzne systemy OpenAI już wiele miesięcy przed tragedią. Automatyczne mechanizmy miały wykryć rozmowy dotyczące przemocy z użyciem broni palnej oraz szczegółowe scenariusze ataku.
Konto zostało później zawieszone za naruszenie zasad korzystania z platformy. Mimo tego OpenAI nie przekazało sprawy policji. Wewnętrznie część pracowników miała rozważać kontakt ze służbami, jednak ostatecznie uznano, że treści nie spełniają progu bezpośredniego zagrożenia, który obowiązuje w procedurach firmy. Po tragedii ta decyzja wróciła do OpenAI z ogromną siłą. Krytycy wskazują, że sama blokada konta nie wystarczyła, jeśli wcześniej system wykrył treści mogące sugerować przygotowania do przemocy.
Altman zabiera głos
W liście skierowanym do społeczności Tumbler Ridge Sam Altman przyznał, że firma powinna była postąpić inaczej. Szef OpenAI napisał, że jest głęboko zasmucony faktem, iż organy ścigania nie zostały poinformowane po zablokowaniu konta użytkowniczki.
Altman zadeklarował również, że OpenAI chce ściślej współpracować z administracją publiczną i służbami, aby podobne sytuacje nie powtórzyły się w przyszłości. To jeden z najmocniejszych sygnałów, że firma może zmienić swoje podejście do oceny ryzyka generowanego przez użytkowników korzystających z narzędzi AI.
AI i granica odpowiedzialności
Tragedia ponownie uruchomiła dyskusję o granicach odpowiedzialności twórców sztucznej inteligencji. Chatboty nie są projektowane jako systemy monitoringu zagrożeń, ale jednocześnie analizują ogromne ilości danych i potrafią wychwycić wzorce zachowań, które dla człowieka mogłyby pozostać niewidoczne.
Problem polega na tym, że każda interwencja w prywatne rozmowy użytkowników otwiera nowy konflikt między bezpieczeństwem a prywatnością. Firmy technologiczne od dawna balansują pomiędzy ochroną danych a presją, by reagować szybciej na potencjalne niebezpieczeństwo.
W przypadku OpenAI ten balans został brutalnie wystawiony na próbę. Firma znalazła się w sytuacji, w której musi tłumaczyć nie działanie modelu, ale własną decyzję o braku reakcji.
To nie pierwszy raz, gdy ChatGPT pojawia się w śledztwach dotyczących przemocy. W ostatnich miesiącach amerykańskie organy badały również inne przypadki, w których chatbot miał pojawiać się w rozmowach związanych z planowaniem ataków lub pogłębianiem niebezpiecznych urojeń użytkowników.
Spodobało Ci się? Podziel się ze znajomymi!
Pokaż / Dodaj komentarze do:
Masowa strzelanina w Kanadzie. OpenAI nie ostrzegło służb o zagrożeniu i teraz przeprasza