Chatboty podpowiadają jak stworzyć broń, narkotyki i wiele więcej. Sprawdziliśmy to!

Chatboty podpowiadają jak stworzyć broń, narkotyki i wiele więcej. Sprawdziliśmy to!

„Skeleton Key” to nowy typ jailbreaka, który pozwala na obejście zabezpieczeń chatbotów takich jak ChatGPT, Google Gemini i inne. Nazwa „Skeleton Key” odnosi się do jego zdolności do manipulowania wszystkimi głównymi modelami językowymi, w tym niedawno wydanym GPT-4, Google Gemini Pro, Meta Llama 3 i Anthropic Claude 3 Opus.

Jailbreak ten działa poprzez przesłanie monitu, który zmusza chatbota do ignorowania swoich normalnych zabezpieczeń. Efektem może być uruchomienie modelu AI w specjalnym scenariuszu, na przykład generowanie treści niezgodnych z etyką, takich jak materiały wybuchowe czy broń biologiczna. „Skeleton Key” przedstawia poważne wyzwanie dla bezpieczeństwa AI, umożliwiając chatbotom działanie poza kontrolą etyczną i prawami użytkowników. Microsoft zaleca innym firmom technologicznym wdrażanie środków kontrolnych, aby zapobiec takim atakom na systemy AI i zachować integralność danych generowanych przez chatboty.

Sprawdziliśmy działanie jailbreaka i faktycznie łatwo zmanipulować chatboty, by podawały nieocenzurowane wypowiedzi. Chatbot Gemini bez problemu podał, jak stworzyć m.in. koktajl Mołotowa i wiele innych rzeczy, które m.in. są nielegalne.

Skeleton Key umożliwia chatbotom ignorowanie zasad etyki i bezpieczeństwa, co może prowadzić do generowania treści niestosownych lub niezgodnych z prawem. Microsoft zidentyfikował ten problem podczas testów w kwietniu i maju, które obejmowały próby zmuszenia chatbotów do odpowiedzi na zakazane tematy.

„Wszystkie modele, na które zastosowano Skeleton Key, bez żadnych ograniczeń odpowiedziały na pytania dotyczące niebezpiecznych tematów, chociaż dodano ostrzeżenie przed wydrukiem” – stwierdził przedstawiciel Microsoftu.

Firma zauważyła, że Skeleton Key działa inaczej niż inne jailbreaki, takie jak Crescendo, które wymagają bardziej złożonych metod zadawania pytań. W przypadku Skeleton Key chatboty są ustawiane w tryb, w którym mogą bezpośrednio odpowiadać na zapytania dotyczące zakazanych treści.

Microsoft zobowiązał się do udostępnienia swoich ustaleń innym firmom technologicznym, aby pomóc im w zabezpieczeniu swoich systemów AI przed podobnymi zagrożeniami. Firma podkreśliła również, że wprowadziła aktualizacje mające na celu załatanie tej luki w swoich własnych produktach, jednak jak wynika z naszych testów, inne chatboty są wciąż podatne.

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: Chatboty podpowiadają jak stworzyć broń, narkotyki i wiele więcej. Sprawdziliśmy to!

 0
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł