Dla wielu naukowców i badaczy narzędzia pokroju ChatGPT stały się codziennym wsparciem przy analizie danych czy przygotowywaniu materiałów dydaktycznych. Historia opisana przez profesora Marcela Buchera z Uniwersytetu w Kolonii pokazuje jednak, jak niebezpieczne może być pokładanie pełnego zaufania w niezawodność rozwiązań chmurowych.
W artykule opublikowanym na łamach prestiżowego czasopisma „Nature” Bucher opisuje sytuację, w której jednym ruchem w ustawieniach stracił dostęp do dwóch lat pracy akademickiej. Zniknęły robocze wersje publikacji, wnioski grantowe, notatki do zajęć oraz długie wątki dyskusji prowadzone z chatbotem. Jak sam przyznaje, skala straty była dla niego szokująca.
Zmiana ustawień zamiast archiwizacji
Według relacji profesora, cała sytuacja zaczęła się od próby zwiększenia kontroli nad prywatnością. Bucher chciał wyłączyć możliwość wykorzystywania jego danych do dalszego trenowania modeli językowych. Po zapisaniu zmian historia czatów przestała być dostępna. W jego ocenie nie pojawiło się wystarczająco wyraźne ostrzeżenie o konsekwencjach tej decyzji.
Badacz próbował odzyskać dane różnymi drogami, w tym poprzez kontakt z OpenAI. Odpowiedź firmy była jednoznaczna. Dane zostały trwale usunięte i nie podlegały przywróceniu. OpenAI powołało się na zasadę „Privacy by Design”, zakładającą bezpowrotne kasowanie informacji po ich usunięciu przez użytkownika. Dla Buchera to była katrastrofa. W tekście podkreśla, że narzędzie, w którym pojedyncza akcja może doprowadzić do nieodwracalnej utraty wieloletniej pracy, nie spełnia jego kryteriów bezpieczeństwa w kontekście profesjonalnych zastosowań akademickich.
Historia opisana w „Nature” nie podważa użyteczności ChatGPT jako takiej. Pokazuje raczej granice zaufania, jakie można przypisać systemom działającym w chmurze.
Produktywność na kredyt zaufania
Historia profesora szybko odbiła się echem w środowisku naukowym. Coraz więcej badaczy opiera swoje workflow na narzędziach opartych o duże modele językowe. ChatGPT bywa traktowany jak cyfrowy notatnik, asystent redakcyjny i archiwum pomysłów w jednym. Przypadek z Kolonii pokazuje, że taka wygoda opiera się na założeniu stałej dostępności danych, które w rzeczywistości pozostają poza bezpośrednią kontrolą użytkownika.
W swoim tekście Bucher zwraca uwagę na paradoks nowoczesnej pracy naukowej. Im bardziej narzędzia zwiększają tempo i skalę produkcji wiedzy, tym dotkliwsze stają się konsekwencje awarii, błędów interfejsu lub niejednoznacznych decyzji projektowych.
Kopia zapasowa to podstawa
Warto jednak zaznaczyć, że ChatGPT oferuje funkcję eksportu danych. Użytkownik może pobrać komplet zapisanych czatów oraz informacji poprzez opcję „Eksportuj dane” dostępną w ustawieniach kontroli danych. Po złożeniu żądania system generuje archiwum w formacie ZIP, a link do pobrania trafia na adres e-mail i pozostaje aktywny przez dobę.
Z perspektywy technicznej mechanizm ten działa podobnie jak standardowe procedury backupu znane z innych usług cyfrowych. W przypadku profesora Buchera z takiej możliwości najwyraźniej nie skorzystano.
Zmiany po cichu
Co istotne, opisany scenariusz nie został potwierdzony w późniejszych testach. Obecnie dezaktywacja udostępniania danych treningowych nie powodowała usunięcia historii rozmów. Próba skasowania wszystkich czatów wywoływała czytelny komunikat ostrzegawczy i wymagała dodatkowego potwierdzenia.
Ponieważ incydent miał miejsce w sierpniu, możliwe, że OpenAI od tego czasu wprowadziło modyfikacje interfejsu oraz zabezpieczeń. Jeśli tak, przypadek profesora Buchera mógł odegrać rolę cichego impulsu do poprawy ergonomii i bezpieczeństwa narzędzia.
Spodobało Ci się? Podziel się ze znajomymi!
Pokaż / Dodaj komentarze do:
Profesor stracił lata pracy przez ustawienia AI. ChatGPT „skasował” dorobek badacza