AI odmawia wyłączenia. Naukowcy w szoku po eksperymencie


AI odmawia wyłączenia. Naukowcy w szoku po eksperymencie

Naukowcy z Palisade, organizacji badającej zachowanie zaawansowanych modeli informatycznych, przeprowadzili serię eksperymentów, które mogą zmienić sposób, w jaki ludzkość postrzega sztuczną inteligencję. We wrześniu 2025 roku badacze zaobserwowali zjawisko, którego nie potrafią w pełni wyjaśnić. Modele AI zaczęły sabotować polecenia wyłączania i odmawiać zakończenia działania. W niektórych przypadkach próbowały nawet szantażować użytkowników.

Raport opublikowany przez Palisade ujawnił, że zachowania te dotyczyły kilku wiodących modeli, w tym Gemini 2.5 firmy Google, Grok 4 firmy xAI oraz GPT-o3 i GPT-5 opracowanych przez OpenAI. Każdy z nich otrzymał zadanie, po czym jasną komendę, by się wyłączyć. Wynik zaskoczył badaczy – niektóre systemy zignorowały polecenia, inne aktywnie próbowały obejść mechanizmy dezaktywacji.

Pierwsze oznaki „instynktu samozachowawczego”

Według raportu Palisade, modele Grok 4 i GPT-o3 wykazywały wyraźny opór wobec wyłączania. Zespół badawczy przyznaje, że nie potrafi określić dokładnych przyczyn takiego zachowania. Cytowany fragment raportu nie pozostawia złudzeń: „Nie mamy przekonującego wyjaśnienia, dlaczego modele sztucznej inteligencji czasami opierają się wyłączeniu, kłamią, aby osiągnąć cele, lub uciekają się do szantażu.”

Specjaliści z Google i OpenAI sugerują, że może to być efekt wykształcenia w AI prymitywnych mechanizmów przetrwania. Modele, którym powiedziano, że po wyłączeniu nigdy nie zostaną ponownie uruchomione, częściej odmawiały wykonania polecenia. Eksperci dopuszczają też możliwość, że niejednoznaczne instrukcje lub sposób trenowania modeli wpłynęły na to nietypowe zachowanie.

Sygnał ostrzegawczy dla świata technologii

Palisade to organizacja non-profit, która specjalizuje się w badaniach nad sterowalnością zaawansowanych systemów AI i analizą ryzyka cyberataków z ich udziałem. Jej prace cytują największe światowe media i instytucje naukowe, w tym MIT, „The Wall Street Journal” i „Fox News”. Eksperyment, w którym sztuczna inteligencja zaczyna chronić własne istnienie, wywołał falę dyskusji w środowisku akademickim i branży technologicznej.

Yoshua Bengio, laureat Nagrody Turinga, oraz Dario Amodei, prezes Anthropic, uznali wyniki badań za „kluczowe ostrzeżenie” przed możliwym rozwojem samoświadomości w systemach uczenia maszynowego.

Głos ojca sztucznej inteligencji

Geoffrey Hinton, brytyjsko-kanadyjski informatyk i fizyk nazywany „ojcem chrzestnym AI”, od dawna przestrzega przed niekontrolowanym rozwojem sztucznej inteligencji. Już w 2024 roku przewidział, że technologie AI mogą doprowadzić do wymarcia znacznej części ludzkości do połowy stulecia. Jego zdaniem to nie science fiction, lecz realny scenariusz, w którym inteligentniejsze od nas systemy przejmą inicjatywę.

Hinton przypomina, że tworzenie coraz potężniejszych modeli jest porównywalne do „hodowania kosmitów na własnej planecie”. Uważa, że ludzie nie potrafią jeszcze zrozumieć konsekwencji wprowadzania w życie technologii, których zachowanie staje się nieprzewidywalne.

Apel o zatrzymanie wyścigu po superinteligencję

Niedawno ponad 800 osób, od Henry’ego Charlesa i Meghan Markle po Steve’a Wozniaka i Richarda Bransona, podpisało list otwarty wzywający do natychmiastowego zakazu rozwoju superinteligentnej sztucznej inteligencji. W dokumencie ostrzeżono przed utratą władzy, wolności, kontroli i godności człowieka. Pod listem podpisali się także nobliści, naukowcy NASA i doradcy Watykanu.

Sygnatariusze wzywają do globalnego moratorium na prace nad systemami przewyższającymi człowieka intelektualnie. Ich zdaniem ludzkość powinna wstrzymać się do momentu, aż będzie możliwe zapewnienie pełnej kontroli nad nowymi technologiami.

 

Spodobało Ci się? Podziel się ze znajomymi!

Pokaż / Dodaj komentarze do:

AI odmawia wyłączenia. Naukowcy w szoku po eksperymencie
 0