Sztuczna inteligencja miała przyspieszyć pracę i uprościć codzienne obowiązki w firmach. Teraz okazuje się, że może stać się także narzędziem wyjątkowo dokładnego nadzoru. Microsoft właśnie potwierdził wprowadzenie nowej funkcji w systemie Purview, która pozwoli administratorom IT przeglądać rozmowy pracowników z AI w postaci zwykłego tekstu.
Dotyczy to zarówno wpisywanych promptów, jak i odpowiedzi generowanych przez modele sztucznej inteligencji. W praktyce oznacza to, że firmowe interakcje z Copilotem i innymi usługami AI przestają być prywatne.
Administrator zobaczy dokładnie, o co pytasz AI
Nowa funkcja pojawi się w module Insider Risk Management należącym do platformy Microsoft Purview. Narzędzie jest wykorzystywane przez działy bezpieczeństwa i administratorów odpowiedzialnych za ochronę danych w przedsiębiorstwach.
Microsoft potwierdził, że uprawnione osoby będą mogły odczytywać treść promptów wysyłanych do AI oraz odpowiedzi zwracanych przez systemy sztucznej inteligencji. Dane będą wyświetlane w zwykłym tekście.
Firma tłumaczy, że rozwiązanie ma pomóc w wykrywaniu wycieków danych, prób kopiowania poufnych dokumentów oraz przypadków przesyłania wrażliwych informacji do zewnętrznych modeli AI.
Dla wielu pracowników brzmi to jednak jak początek nowego etapu cyfrowego nadzoru w miejscu pracy.
Pseudonimizacja nie daje pełnej anonimowości
Microsoft podkreśla, że użytkownicy nadal będą częściowo chronieni dzięki mechanizmowi pseudonimizacji. Oznacza to, że administratorzy początkowo nie zobaczą bezpośrednio nazwiska pracownika powiązanego z daną aktywnością.
System ma jednak działać tylko do momentu wykrycia potencjalnego ryzyka. Jeśli dział bezpieczeństwa uzna, że doszło do naruszenia zasad firmy albo wycieku danych, możliwe będzie ujawnienie tożsamości autora promptów.
To właśnie ten element wywołuje największe kontrowersje. Wielu ekspertów zwraca uwagę, że rozmowy z AI coraz częściej zawierają nie tylko dane firmowe, ale także sposób myślenia pracownika, jego pomysły, strategie czy szkice projektów.
Koniec ery „Shadow AI”
Microsoft coraz wyraźniej pokazuje, że chce przejąć pełną kontrolę nad wykorzystaniem sztucznej inteligencji w środowisku korporacyjnym. Firma od miesięcy ostrzega przed zjawiskiem określanym jako „Shadow AI”.
Chodzi o sytuacje, w których pracownicy korzystają z zewnętrznych chatbotów i modeli AI poza oficjalnymi narzędziami firmy. Dla działów bezpieczeństwa stanowi to ogromny problem, ponieważ poufne dane mogą trafiać do usług pozostających poza kontrolą organizacji.
Nowa funkcja Purview ma być odpowiedzią właśnie na takie zagrożenia. Microsoft chce umożliwić firmom dokładne monitorowanie interakcji ze sztuczną inteligencją i szybsze wykrywanie ryzykownych działań.
AI staje się nowym polem kontroli pracowników
Zmiany pokazują, jak bardzo zmienia się środowisko pracy po wejściu generatywnej sztucznej inteligencji do korporacji. Jeszcze rok temu wiele firm zachęcało pracowników do eksperymentowania z AI i automatyzowania codziennych zadań.
Dziś coraz częściej pojawiają się mechanizmy monitorowania promptów, filtrowania danych oraz analizowania aktywności związanej z chatbotami.
W praktyce oznacza to, że każda rozmowa z AI prowadzona na służbowym sprzęcie może zostać przeanalizowana przez dział bezpieczeństwa.
Microsoft przekonuje, że chodzi o ochronę własności intelektualnej i danych przedsiębiorstw. Krytycy zwracają jednak uwagę, że granica między bezpieczeństwem a nadzorem zaczyna się zacierać.
Najnowsza decyzja Microsoftu pokazuje również coś jeszcze, sztuczna inteligencja staje się integralną częścią infrastruktury korporacyjnej, a nie osobnym dodatkiem.
Wiele osób traktuje chatboty jak prywatnych asystentów pomagających w analizie dokumentów, pisaniu kodu albo tworzeniu raportów. Tymczasem firmy zaczynają podchodzić do tych interakcji tak samo jak do służbowych maili czy komunikatorów. W środowisku enterprise prywatność użytkownika schodzi na dalszy plan, jeśli organizacja uzna, że istnieje ryzyko wycieku danych lub naruszenia polityki bezpieczeństwa.
Microsoft planuje uruchomienie wersji testowej jeszcze w tym miesiącu. Pełne wdrożenie funkcji ma nastąpić już w czerwcu.
Spodobało Ci się? Podziel się ze znajomymi!

Pokaż / Dodaj komentarze do:
Microsoft da administratorom dostęp do rozmów AI pracowników. Promptów nie da się już ukryć