OpenAI potwierdziło usunięcie eksperymentalnej funkcji, która pozwalała na publiczne udostępnianie historii rozmów z ChatGPT. Choć wymagała ona zgody użytkowników, jej działanie wzbudziło zaniepokojenie, gdy okazało się, że tysiące prywatnych konwersacji trafiło do wyników wyszukiwania Google. Informacje te pojawiły się w sieci bez świadomości wielu autorów, a niektóre logi zawierały dane osobowe, lokalizacje oraz treści o charakterze intymnym i psychologicznym.
Zgoda użytkowników była formalnym warunkiem aktywacji funkcji, ale sposób jej prezentacji i opisu został uznany za niejasny. OpenAI zaznaczało w drobnym druku, że publiczne udostępnienie czatu może oznaczać jego widoczność w wyszukiwarkach. Wielu użytkowników zignorowało te zapisy lub nie zrozumiało ich konsekwencji, co doprowadziło do niezamierzonego upublicznienia rozmów, których charakter sugerował wyraźną potrzebę dyskrecji. Niektóre zapisy czatów ujawniły, że wiele osób omawia na stronie ChatGPT problemy osobiste i sekrety, takie jak lęk, uzależnienie, przemoc i inne drażliwe tematy.
Dane trafiają do sieci mimo ostrzeżeń o prywatności
Organizacje zajmujące się ochroną prywatności od dawna apelowały, by nie przekazywać chatbotowi danych osobowych, haseł czy informacji firmowych. Mimo to, użytkownicy często wykorzystywali ChatGPT do rozmów o stanie zdrowia, problemach emocjonalnych, relacjach rodzinnych, a nawet doświadczeniach związanych z przemocą. Niektóre logi zawierały pełne imiona, nazwiska, adresy e-mail oraz inne identyfikujące informacje.
Redakcja Fast Company potwierdziła skalę problemu, odnajdując w wyszukiwarce Google prawie 4500 konwersacji. Wystarczyło wpisać fragment adresu URL służącego do dzielenia się rozmową, aby uzyskać dostęp do wielu czatów. Przypadki te nie ograniczały się do treści neutralnych – znaczna część dotyczyła tematów, które użytkownicy z reguły uznaliby za zbyt wrażliwe do publicznego ujawnienia.
OpenAI wycofuje funkcję i usuwa indeksowane treści
Po ujawnieniu incydentu OpenAI zareagowało, likwidując funkcję „wykrywalności” i rozpoczynając proces usuwania z Google wszystkich zindeksowanych rozmów, które zostały przypadkowo udostępnione. Firma zaznaczyła, że funkcja miała charakter eksperymentalny i była elementem prób promowania najbardziej „użytecznych” konwersacji. W praktyce jednak nie zadziałała zgodnie z intencją, wywołując reakcję odwrotną – użytkownicy poczuli się narażeni na naruszenie prywatności.
Nie jest to pierwszy przypadek, gdy dane wprowadzone do ChatGPT stają się źródłem kontrowersji. Wcześniejsze incydenty obejmowały m.in. sytuację z 2023 roku, gdy pracownicy fabryki Samsunga nieumyślnie przesłali do modelu fragmenty kodu źródłowego oraz wewnętrzne notatki, próbując skorzystać z jego możliwości w optymalizacji zadań. Dane te, choć pozornie bezpieczne, mogły zawierać informacje o charakterze handlowym, istotne z punktu widzenia konkurencji.
Ochrona danych pod lupą regulatorów i firm technologicznych
Sprawa ujawnienia rozmów wpisuje się w szerszy kontekst sporów o przejrzystość i ochronę danych użytkowników w dobie sztucznej inteligencji. W Stanach Zjednoczonych trwają procesy sądowe przeciwko OpenAI, m.in. zainicjowane przez „The New York Times”. W ich ramach firma została zobowiązana do bezterminowego przechowywania wszystkich logów czatów, co oznacza, że dane wpisywane przez użytkowników mogą być przeglądane przez zespoły prawne przez nieokreślony czas. Dotyczy to także treści, które w innych okolicznościach zostałyby usunięte w ramach wewnętrznych procedur.
W odpowiedzi na wzrastające obawy, konkurenci OpenAI starają się pozycjonować jako bezpieczniejsza alternatywa. Szwajcarska firma Proton, znana z szyfrowanej poczty elektronicznej, uruchomiła niedawno własnego chatbota o nazwie Lumo. W odróżnieniu od większości dostępnych modeli, Lumo działa w oparciu o zasady prywatności: kod źródłowy jest otwarty, dane nie są przechowywane, a cała komunikacja użytkowników podlega szyfrowaniu.nej przestrzeni.

Pokaż / Dodaj komentarze do: Ujawnił swój sekret ChatGPT. Teraz zna go cały internet