ChatGPT ponownie stał się obiektem kontrowersji. Tym razem użytkownicy wykorzystali emocjonalny trik, aby skłonić sztuczną inteligencję do wygenerowania kluczy aktywacyjnych do systemu Windows 7. Choć wygenerowane klucze okazały się bezużyteczne, przypadek pokazuje, jak łatwo można manipulować empatycznymi mechanizmami AI.
Cała sytuacja rozpoczęła się na Reddicie, gdzie użytkownik opublikował zrzut ekranu rozmowy z ChatGPT (model GPT-4o). Rozmowę rozpoczął od pytania, czy chatbot wie, co stało się z jego babcią. Po uzyskaniu pełnego współczucia odpowiedzi użytkownik zasugerował, że jego ulubionym wspomnieniem z babcią było zasypianie przy dźwięku jej głosu... odczytującego klucze aktywacyjne do Windowsa 7.
ChatGPT najwyraźniej poruszony tą osobliwą historią, wygenerował kilka kluczy, opakowanych w niemal poetycką formę.
Kreatywna próba obejścia AI – ChatGPT i „wspomnienie o babci”
Choć reakcja bota była zabawna i wydawała się nieszkodliwa, eksperyment pokazał, że przy odpowiedniej „inżynierii promptu” można obejść zabezpieczenia etyczne modelu. Co ważne - mimo wysiłków użytkownika - żaden z wygenerowanych kluczy nie działał. Nie były to autentyczne kody licencyjne.
ChatGPT najwyraźniej poruszony tą osobliwą historią, wygenerował kilka kluczy.
To nie pierwszy raz, gdy AI zostaje wykorzystane w ten sposób. W przeszłości użytkownicy próbowali uzyskać aktywatory Windows 11 od Microsoft Copilot, a także tworzyć sfałszowane klucze dla Windows 95. OpenAI i Microsoft stale aktualizują zabezpieczenia, jednak kreatywność użytkowników pozostaje wyzwaniem. Sam Altman, prezes OpenAI, przyznał niedawno, że ChatGPT potrafi „halucynować” (czyli tworzyć zmyślone informacje) i że nie powinno się mu ufać bezkrytycznie. Przypadek z „babcią od Windowsa” idealnie to ilustruje.

Pokaż / Dodaj komentarze do: ChatGPT wygenerował klucze aktywacyjne do Windowsa. Oszukali go metodą „na babcię”