Rozmowy z ChatGPT trafiają na sprzedaż. Wrażliwe czaty i dane osobowe w komercyjnych bazach


Rozmowy z ChatGPT trafiają na sprzedaż. Wrażliwe czaty i dane osobowe w komercyjnych bazach

Najbardziej osobiste pytania zadawane chatbotom mogą trafiać do komercyjnych baz danych i być sprzedawane klientom korporacyjnym.

Nowy raport opisuje mechanizm, w którym brokerzy danych handlują dostępem do treści prywatnych rozmów prowadzonych z popularnymi asystentami AI. W tle pojawiają się rozszerzenia przeglądarek, darmowe usługi VPN i pozornie niewinne narzędzia do blokowania reklam. Autorem analizy jest Lee S. Dryburgh, specjalizujący się w widoczności sztucznej inteligencji dla marek z sektora zdrowia i długowieczności. Wyyjaśnia on, jak dane z czatów trafiają do podmiotów trzecich.

Rozszerzenia, które widzą wszystko

Mechanizm zaczyna się od instalacji rozszerzeń przeglądarki oferujących darmowy VPN, filtrowanie reklam lub dodatkowe funkcje produktywności. Użytkownicy akceptują regulaminy i polityki prywatności bez wnikliwej analizy. Część z tych dodatków może przechwytywać komunikację między przeglądarką a serwisami AI.

Według Dryburgha rozszerzenia są w stanie nadpisywać natywne funkcje przeglądarki, takie jak fetch() czy XMLHttpRequest(), i kopiować treść zapytań oraz odpowiedzi. W efekcie każda rozmowa prowadzona z narzędziami takimi jak ChatGPT, Google Gemini, Claude czy DeepSeek może zostać zarchiwizowana poza wiedzą użytkownika.

Zebrane dane trafiają do wektorowych baz danych, gdzie są indeksowane i udostępniane klientom poprzez API. Użytkownicy  otrzymują pseudonimizowane identyfikatory w postaci skrótów SHA-256, lecz treść rozmów pozostaje w formie dosłownej i możliwej do przeszukiwania.

„Dane te są pozyskiwane z prywatnych rozmów prawdziwych osób ze sztuczną inteligencją za pośrednictwem rozszerzeń przeglądarki, przechowywane w wektorowej bazie danych i udostępniane uwierzytelnionym klientom za pośrednictwem interfejsu API” – napisał Dryburgh w swoim raporcie. 

Anonimizacja pod znakiem zapytania

Firmy zajmujące się agregacją danych deklarują zgodność z prawem i anonimizację profili. Problem polega na tym, że rozmowy często zawierają imiona, daty urodzenia, numery dokumentacji medycznej, kody diagnostyczne oraz inne szczegóły pozwalające na identyfikację. Łączenie kilku punktów danych umożliwia odtworzenie tożsamości rozmówcy, a narzędzia AI przyspieszają ten proces.

Dryburgh opisuje, że uzyskał dostęp do dużej platformy optymalizacji silników generycznych wspieranej przez fundusze venture capital. Za jej pośrednictwem analizował zagregowane dane kliknięć oferowane klientom komercyjnym. W ramach testu wysłał 205 zapytań do semantycznej wyszukiwarki i otrzymał około 490 unikalnych promptów pochodzących od ponad 435 użytkowników w 20 kategoriach uznanych za wrażliwe.

Depresja, HIV, imigracja i dane kliniczne

Wśród wyników znalazły się rozmowy dotyczące depresji, myśli samobójczych, samookaleczeń, zaburzeń odżywiania i stosowanych leków. Inne zestawy obejmowały kwestie nadużywania substancji psychoaktywnych, diagnoz medycznych, problemów finansowych, seksualności i statusu imigracyjnego. Kolejne zapytania prowadziły do rozmów o HIV, chorobach przenoszonych drogą płciową, nowotworach, ciąży, przemocy seksualnej i dokumentacji medycznej objętej regulacjami HIPAA.

W raporcie przytoczono przykłady czatów zawierających imię i datę urodzenia osoby pytającej o ciążę. Opisano również rozmowy osób ubiegających się o azyl, które konsultowały z chatbotem swój status prawny. 

Najbardziej niepokojące wnioski dotyczą sektora ochrony zdrowia. Dryburgh twierdzi, że część pracowników medycznych wkleja do chatbotów prawdziwe dane pacjentów w celu redagowania i podsumowywania notatek. Takie informacje mogą następnie trafić do obrotu handlowego.

Korporacyjne sekrety i współdzielone konta

Badacz zwraca uwagę na jeszcze jeden wątek. W przechwyconych rozmowach pojawiały się fragmenty wewnętrznych dokumentów firmowych, wykorzystywanych do opracowywania streszczeń i analiz. Oznacza to ryzyko wycieku tajemnic handlowych poprzez kanały pozornie bezpiecznych narzędzi AI.

Część konwersacji mogła pochodzić z kont współdzielonych wbrew regulaminom dostawców. Pracownicy zdalni korzystający z tanich usług pośredników uzyskują dostęp do jednego konta chatbota dla wielu użytkowników. Osoby oszczędzające na subskrypcji mogą równocześnie używać darmowych sieci VPN, które przechwytują dane o ruchu i przekazują je dalej.

Cichy rynek w cieniu boomu AI

Opisany mechanizm nie jest nowy, lecz skala zjawiska rośnie wraz z popularyzacją generatywnej sztucznej inteligencji. Czat z AI stał się dla wielu osób miejscem omawiania problemów zdrowotnych, prawnych i osobistych. Przekonanie o prywatności rozmowy nie zawsze znajduje potwierdzenie w praktyce.

Raport Dryburgha pokazuje, że łańcuch przetwarzania danych wykracza poza oficjalne polityki dostawców chatbotów. Przechwycenie rozmowy może zależeć od pozornie nieistotnego dodatku zainstalowanego w przeglądarce.

Spodobało Ci się? Podziel się ze znajomymi!

Pokaż / Dodaj komentarze do:

Rozmowy z ChatGPT trafiają na sprzedaż. Wrażliwe czaty i dane osobowe w komercyjnych bazach
 0