Schematy broni? Niebezpieczne strony? Nvidia uważa, że chatboty zdradzają zbyt wiele informacji

Schematy broni? Niebezpieczne strony? Nvidia uważa, że chatboty zdradzają zbyt wiele informacji

NVIDIA, która jest głównym dostawcą systemów obliczeniowych dla sztucznej inteligencji, wprowadziła we wtorek zestaw narzędzi programistycznych, których zadaniem jest wspieranie chatbotów w analizie języka i powściągania ich wypowiedzi.

Chatboty  to zaawansowane narzędzia, które dostarczają często kontrowersyjnych i niebezpiecznych treści.

Choć twórcy nieustannie pracują nad zwiększeniem przewidywalności zachować chatbotów, to wciąż istnieje ryzyko, że udzielą one kontrowersyjnej, niepoprawnej politycznie, lub innej odpowiedzi, za którą będzie się trzeba tłumaczyć. W lutym Microsoft wprowadził limit pięciu pytań na sesję dla użytkowników Bing, po tym jak New York Times doniósł, że system udzielał niepokojących odpowiedzi podczas długich rozmów. Narzędzia programistyczne firmy Nvidia zostały udostępnione bezpłatnie i mają na celu wsparcie firm w ochronie przed niepożądanymi odpowiedziami generowanymi przez chatboty. Zastosowania tych narzędzi mogą być bardzo różne - np. twórca chatbota obsługującego klienta może nie chcieć, aby system wspominał o konkurencyjnych produktach. Można również łatwo zablokować odpowiedzi na pewne tematy, a jak się wielokrotnie już przekonaliśmy, najpopularniejszy obecnie ChatGPT prezentował dość ciekawe wypowiedzi, które szybko korygowali deweloperzy.

Pakiet dla deweloperów chatbotów od NVIDII zawiera narzędzia, które umożliwiają nałożenie ograniczeń na wypowiedzi systemu. Ma to uniemożliwić generowanie nieprzewidzianych, kontrowersyjnych lub niebezpiecznych treści. 

Nvidia ułatwi założenie chatbotom "kagańca". 

Narzędzia programistyczne Nvidii mają również na celu wspomaganie twórców systemów sztucznej inteligencji w wprowadzaniu ważnych środków bezpieczeństwa. Przykładowo, narzędzia te pomogą zapobiegać sytuacjom, w których chatboty mogą udzielać niebezpiecznych informacji, takich jak tworzenie broni lub kierowanie użytkowników na nieznane strony, które mogą zawierać wirusy komputerowe. Ze względu na wzrost popularności aplikacji takich jak ChatGPT, amerykańscy ustawodawcy wezwali do wprowadzenia regulacji dotyczących systemów sztucznej inteligencji.

Wiceprezes ds. badań stosowanych w Nvidii, Jonathan Cohen, oświadczył, że firma dąży do dostarczenia narzędzi umożliwiających implementację standardów bezpieczeństwa w kodzie oprogramowania, w przypadku gdy zostaną one ustanowione - czy to poprzez konsensus branżowy, czy regulacje. Cohen zaznaczył, że trudno dyskutować o standardach, jeśli nie ma sposobu na ich wdrożenie. Dlatego, gdy standardy zostaną ustanowione, Nvidia zapewni narzędzia do ich łatwej implementacji.

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: Schematy broni? Niebezpieczne strony? Nvidia uważa, że chatboty zdradzają zbyt wiele informacji

 0
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł