Nowy raport "Cyber Signals"od Microsoft podkreśla rosnące zagrożenie w przestrzeni cyfrowej. Przestępcy coraz śmielej wykorzystują sztuczną inteligencję, by tworzyć niezwykle przekonujące oszustwa. W ciągu ostatnich 12 miesięcy firma powstrzymała cyberprzestępców przed wyłudzeniami o łącznej wartości aż 4 miliardów dolarów.
Od fałszywych ofert pracy, przez podrobione sklepy internetowe, aż po zaawansowane chatboty udające konsultantów – cyberprzestępcy zyskali nową, potężną broń. Dzięki AI oszustwa stają się bardziej spersonalizowane, trudniejsze do wykrycia i znacznie bardziej przekonujące niż kiedykolwiek wcześniej.
Sztuczna inteligencja w służbie przestępczości
Zgodnie z raportem Microsoftu, między kwietniem 2024 r. a kwietniem 2025 r. firma: zablokowała średnio 1,6 miliona fałszywych rejestracji botów na godzinę, odrzuciła ponad 49 000 prób podszycia się pod potencjalnych partnerów biznesowych oraz powstrzymała oszustwa o wartości 4 miliardów dolarów. To pokazuje, jak masowa i zautomatyzowana stała się działalność cyberprzestępcza – wspierana przez coraz doskonalsze algorytmy generatywne.
Fałszywe sklepy, oferty pracy i rozmowy kwalifikacyjne
Jednym z najbardziej alarmujących trendów jest błyskawiczne tworzenie fałszywych sklepów internetowych, które wyglądają jak legalne e-commerce’y. Dzięki AI w kilka minut można wygenerować realistyczne opisy produktów, wiarygodne (choć fałszywe) recenzje klientów, a także atrakcyjny design i podrobione logo znanych marek. Podobnie jest w przypadku fałszywych ofert pracy i rozmów kwalifikacyjnych – przestępcy tworzą strony podszywające się pod duże firmy, a nawet prowadzą rozmowy z kandydatami przy użyciu AI-generowanych chatbotów, które sprawiają wrażenie prawdziwych rekruterów. AI sprawia, że wszystko jest łatwiejsze, nawet przestępstwa.
Wzrost oszustw technicznych: "Jesteśmy z pomocy Microsoftu"
Szczególnie niebezpieczne są oszustwa podszywające się pod techniczne wsparcie Microsoftu. Przestępcy nakłaniają ofiary do przekazania dostępu do komputera, tłumacząc to „rozwiązywaniem problemów systemowych”. Zainstalowanie złośliwego oprogramowania lub kradzież danych staje się wtedy banalnie prosta. W odpowiedzi na tę falę ataków Microsoft wprowadził dodatkowe zabezpieczenia w swoim narzędziu Quick Assist, służącym do zdalnej pomocy technicznej. Dzięki nowym funkcjom ostrzegawczym i zaawansowanej analizie behawioralnej, tysiące niebezpiecznych prób połączeń są codziennie blokowane.
AI kontra AI: jak Microsoft walczy z zagrożeniem
Aby przeciwdziałać nowym formom oszustw, Microsoft sam sięga po sztuczną inteligencję. Firma wykorzystuje uczenie maszynowe i analitykę predykcyjną do wykrywania nietypowych wzorców zachowań, które mogą wskazywać na próbę oszustwa.
Wśród nowych narzędzi zabezpieczających warto wymienić:
- Microsoft Edge z ochroną przed literówkami w adresach URL, które mogą prowadzić do fałszywych witryn,
- Microsoft Defender z inteligentnym filtrowaniem podejrzanych e-maili, linków i plików,
- Systemy ostrzegawcze w czasie rzeczywistym, które alarmują użytkowników o potencjalnych zagrożeniach.
Microsoft współpracuje także z międzynarodowymi organami ścigania, agencjami rządowymi i organizacjami branżowymi w celu identyfikowania i neutralizowania zorganizowanych sieci oszustw.
Jak się bronić? Microsoft apeluje o czujność
W obliczu tak złożonego zagrożenia, firma przypomina użytkownikom o kilku prostych, ale kluczowych zasadach bezpieczeństwa:
- Sprawdzaj dokładnie adresy internetowe przed dokonaniem zakupu lub logowaniem.
- Zachowaj ostrożność wobec ofert pracy „zbyt dobrych, by były prawdziwe”.
- Nie udostępniaj danych osobowych niezweryfikowanym kontaktom.
- Unikaj instalowania oprogramowania z niesprawdzonych źródeł.
- Nigdy nie przekazuj dostępu do komputera osobie, której tożsamości nie możesz potwierdzić.

Pokaż / Dodaj komentarze do: Setki tysięcy prób oszustwa dziennie przez AI, Microsoft ujawnia skalę cyfrowych zagrożeń