OpenAI nie zabrania już wykorzystywania swojej technologii AI do celów „wojskowych”

OpenAI nie zabrania już wykorzystywania swojej technologii AI do celów „wojskowych”

Jeszcze kilka dni temu strona z zasadami użytkowania OpenAI wyraźnie stwierdzała, że ​​firma zabrania używania swojej technologii do celów „wojskowych i wojskowych”. Ten fragment jednak właśnie zniknął ze strony firmy. 

Jak zauważył The Intercept, firma zaktualizowała stronę 10 stycznia, „aby była bardziej przejrzysta i zawierała więcej wskazówek dotyczących konkretnych usług”, przynajmniej według dziennika zmian. OpenAI co prawda nadal zabrania wykorzystywania swoich dużych modeli językowych (LLM) do wszystkiego, co może wyrządzić krzywdę, i ostrzega ludzi przed wykorzystywaniem jej usług do „projektowania lub używania broni”, ale usunęło sformułowania odnoszące się do „wojska i działań wojennych”.

Ta zmiana polityki następuje w chwili, gdy agencje wojskowe na całym świecie wykazują duże zainteresowanie wykorzystaniem sztucznej inteligencji. „Biorąc pod uwagę wykorzystanie systemów sztucznej inteligencji do atakowania ludności cywilnej w Gazie, jest to godny uwagi moment na podjęcie decyzji o usunięciu słów „wojsko i działania wojenne” z polityki OpenAI dotyczącej dopuszczalnego użycia” – powiedziała Sarah Myers West, dyrektor zarządzająca AI Now Instytut.

Ta zmiana polityki następuje w chwili, gdy agencje wojskowe na całym świecie wykazują duże zainteresowanie wykorzystaniem sztucznej inteligencji.

Wyraźna wzmianka o „wojskach i działaniach wojennych” na liście zabronionych zastosowań wskazuje, że OpenAI nie może współpracować z agencjami rządowymi, takimi jak Departament Obrony, który zazwyczaj oferuje wykonawcom lukratywne kontrakty. W tej chwili firma nie posiada produktu, który mógłby bezpośrednio zabić lub wyrządzić komuś krzywdę fizyczną. Jednak, jak stwierdził The Intercept, jego technologię można wykorzystać do zadań takich jak pisanie kodu czy przetwarzanie zamówień na rzeczy, które można wykorzystać do zabijania ludzi.

OpenAI

Zapytany o tę zmianę rzecznik OpenAI Niko Felix powiedział, że firma „chciała stworzyć zestaw uniwersalnych zasad, które byłyby zarówno łatwe do zapamiętania, jak i zastosowania, zwłaszcza że z naszych narzędzi korzystają obecnie na całym świecie zwykli użytkownicy, którzy mogą teraz także tworzyć GPT”. Felix wyjaśnił, że „zasada taka jak «Nie krzywdź innych» jest szeroka, ale łatwa do zrozumienia i istotna w wielu kontekstach”, dodając, że OpenAI „jako wyraźne przykłady podała broń i krzywdzenie innych”. Jednak rzecznik podobno odmówił wyjaśnienia, czy zakaz używania tej technologii do „szkodzenia” innym obejmuje wszystkie rodzaje zastosowań wojskowych poza rozwojem broni.

W oświadczeniu dla Engadget rzecznik OpenAI powiedział: „Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, do nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia do celów bezpieczeństwa narodowego które są zgodne z naszą misją. Na przykład współpracujemy już z DARPA, aby pobudzić tworzenie nowych narzędzi cyberbezpieczeństwa w celu zabezpieczenia oprogramowania typu open source, od którego zależy infrastruktura krytyczna i przemysł. Nie było jasne, czy te korzystne przypadki użycia byłyby dozwolone na mocy naszej poprzedniej polityki. Celem tej aktualizacji polityki jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji.

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: OpenAI nie zabrania już wykorzystywania swojej technologii AI do celów „wojskowych”

 0