Wraca temat współpracy Google z rządami oraz wojskiem. Jak się okazuje gigant technologiczny nie tylko nie zamierza zrezygnować z tego partnerstwa, ale jeszcze mocniej się w niego zaangażować.
Podczas wewnętrznego spotkania w Google DeepMind padły jasne deklaracje. Firma zamierza zwiększać swoje zaangażowanie w projekty dotyczące cyberbezpieczeństwa i szeroko rozumianej ochrony państw.
Szef DeepMind, Demis Hassabis, miał podkreślić, że wspieranie demokratycznych rządów w takich obszarach jest uzasadnione. Podobne stanowisko zaprezentował także dział odpowiedzialny za relacje globalne, wskazując, iż to naturalny kierunek rozwoju dla firmy zajmującej się sztuczną inteligencją.
Wspomnienie głośnej sprawy sprzed lat
Obecna postawa Google wyraźnie różni się od tego, co działo się kilka lat temu. W 2018 roku współpraca giganta z amerykańskim wojskiem przy Project Maven wywołała duży sprzeciw wśród pracowników.
Wraca temat współpracy Google z rządami oraz wojskiem. Jak się okazuje gigant technologiczny nie tylko nie zamierza zrezygnować z tego partnerstwa, ale jeszcze mocniej się w niego zaangażować.

Tysiące osób podpisało wtedy petycję przeciwko wykorzystaniu sztucznej inteligencji do analizy nagrań z dronów. Część pracowników zdecydowała się nawet odejść z firmy. Ostatecznie Google nie przedłużyło umowy, a sprawa stała się jednym z najgłośniejszych sporów o etykę AI w branży technologicznej.
Zmiany w zasadach dotyczących AI
Od tamtego czasu podejście firmy stopniowo się zmieniało. Google nadal mówi o odpowiedzialnym rozwoju AI, aczkolwiek w praktyce usunęło zapisy, które wcześniej jasno ograniczały wykorzystanie tej technologii w celach wojskowych czy nadzorczych.
Zmiany w zasadach wprowadzono po cichu w 2025 roku. To otworzyło drogę do nowych kontraktów z sektorem publicznym oraz obronnym. W efekcie korporacja posiada dziś znacznie większą swobodę w podejmowaniu takich projektów niż kilka lat temu.
Spór w branży technologicznej
Temat wykorzystania AI przez wojsko nie dotyczy tylko Google. Głośna jest również sprawa Anthropic, które odmówiło współpracy przy projektach związanych z masową inwigilacją i autonomicznymi systemami broni.
Decyzja ta doprowadziła do napięć z amerykańskim resortem obrony. Firma zapowiedziała nawet kroki prawne w tej sprawie. Jednocześnie jej podejście spotkało się z pozytywną reakcją części użytkowników.
Z kolei OpenAI znalazło się pod presją po podpisaniu umowy z rządem USA. Po krytyce firma doprecyzowała, że jej technologie nie będą wykorzystywane do śledzenia obywateli.
Coraz trudniejsze decyzje
Cała sytuacja pokazuje, że branża AI znajduje się w momencie, w którym musi podejmować trudne decyzje. Z jednej strony firmy chcą rozwijać swoje technologie i zdobywać nowe kontrakty. Z drugiej rośnie presja związana z etyką i potencjalnymi skutkami ich wykorzystania.
Spodobało Ci się? Podziel się ze znajomymi!
Pokaż / Dodaj komentarze do:
Google stawia na wojsko i bezpieczeństwo. Firma zmienia podejście do AI