Google usunęło kluczowe zobowiązanie dotyczące sztucznej inteligencji (AI) – firma nie deklaruje już, że jej technologie nie będą wykorzystywane do tworzenia broni czy narzędzi nadzoru. Zmiana ta została zauważona przez Bloomberg, a eksperci zastanawiają się, jakie może mieć konsekwencje dla etyki i przyszłości AI.
Google zaktualizowało swoje publiczne zasady dotyczące sztucznej inteligencji, usuwając sekcję zatytułowaną „aplikacje, których nie będziemy realizować”, która jeszcze tydzień temu widniała na stronie internetowej firmy. Wcześniej Google zobowiązywało się, że jego AI nie będzie wykorzystywana do celów militarnych, w tym do tworzenia broni i systemów nadzoru.
Firma została poproszona o komentarz w tej sprawie. W odpowiedzi Google odesłało do nowego wpisu na swoim blogu dotyczącego „odpowiedzialnego AI”, w którym czytamy:
„Wierzymy, że firmy, rządy i organizacje podzielające te wartości powinny współpracować, aby tworzyć AI, która chroni ludzi, promuje globalny wzrost i wspiera bezpieczeństwo narodowe”.
Zmiana w oficjalnej polityce AI Google oznacza przesunięcie akcentu – firma nadal mówi o odpowiedzialnym rozwoju AI, ale nie wyklucza już zaangażowania w technologie wojskowe czy nadzorcze. W nowej wersji zasad Google deklaruje, że będzie minimalizować niezamierzone lub szkodliwe skutki AI, unikać niesprawiedliwych uprzedzeń, a także dostosowywać swoje działania do międzynarodowych norm prawnych i praw człowieka.
Jednak zniknięcie jednoznacznej deklaracji o nieangażowaniu się w technologie wojskowe budzi niepokój wśród ekspertów ds. etyki AI i organizacji broniących praw człowieka.
Protesty pracowników i kontrowersyjne kontrakty militarne
Nie jest to pierwszy przypadek, gdy Google budzi kontrowersje swoim podejściem do AI w kontekście wojska. W ostatnich latach firma spotkała się z protestami pracowników, którzy sprzeciwiali się współpracy z armią USA i Izraela.
W 2018 roku, po wewnętrznych protestach, Google wycofało się z projektu Maven, w ramach którego pracowało nad sztuczną inteligencją do analizy obrazów z dronów wojskowych. Pracownicy Google domagali się wówczas jasnych zasad etycznych dotyczących zastosowań AI.
Motto "Don't be evil" nie obowiązuje od dawna
Mimo wcześniejszych deklaracji, Google nie przestało angażować się w kontrakty militarne. Firma zapewniała jednak, że jej AI nie jest wykorzystywana do bezpośredniego wyrządzania krzywdy ludziom. Jednak w niedawnym wywiadzie dla TechCrunch jeden z szefów AI w Pentagonie przyznał, że modele AI Google przyspieszają „łańcuch zabójstw” armii USA.
Usunięcie kluczowego zobowiązania ze strony Google może oznaczać bardziej otwartą współpracę z sektorem obronnym. Czy oznacza to, że Google będzie dostarczać technologie AI do działań militarnych na szerszą skalę? Trzeba również pamiętać, że Microsoft, Amazon czy Palantir, podobnie coraz mocniej angażują się we współpracę z armią i rządem USA.
Pokaż / Dodaj komentarze do: AI Google może trafić do wojska. Firma cichaczem zmienia swoje zasady