Tysiące wolnych strzelców tworzących zjawisko znane jako gig economy, nieświadomie pomagało Google w tworzeniu dla Pentagonu kontrowersyjnego projektu sztucznej inteligencji, służącej do namierzania celów przez drony. Projekt ten znany szerzej jako Project Maven, był częścią ubiegłorocznej inicjatywy Departamentu Obrony USA i w ramach programu zwrócono się do Google z prośbą o pomoc w rozwinięciu funkcjonalności AI i umożliwienie rozróżniania obiektów naziemnych. Zleceniobiorcy, pracownicy Gig, którzy oferują swe usługi za często bardzo niewygórowane stawki na platformach crowdsourcingowych, zarabiają często zaledwie 1 dolara na godzinę, wykonując mikro zlecenia. Jednym z takich zleceń realizacja zadań w modelu znanym jako "human-in-the-loop", która wymaga obecności ludzkiego operatora w czynnościach, w których komputer mógłby sobie nie poradzić.
Biorąc jednak pod uwagę kontrowersje otaczające wykorzystywanie drów wojskowych do namierzania celów oraz kierunek ich rozwoju zakładający wykorzystanie sztucznej inteligencji w celu wyeliminowania czynnika ludzkiego z działania, wykorzystywanie najniżej opłacanych pracowników, by ominąć kwestie moralne jest skandaliczne.
Google nie zatrudniało bezpośrednio, a posługiwało się pośrednikami występującymi jako firmy specjalizujące się w uczeniu maszynowym, które transformują nieustrukturyzowany tekst, zdjęcia, filmy, dźwięk w dostosowane do potrzeb wysokiej jakości dane treningowe dla sztucznej inteligencji. "Human-in-the-loop (HITL) to gałąź sztucznej inteligencji, która wymaga zarówno zaangażowania ludzi jak i maszyn do stworzenia modeli uczenia maszynowego" - czytamy w broszurach marketingowych pośrednika - "W tradycyjnym modelu human-in-the-loop, ludzie są elementem kręgu, gdzie trenują, dostosowują i testują dany algorytm". Google wynajęło ludzi do przeprowadzenia oznaczania obiektów na zdjęciach satelitarnych, celem nauczenia AI rozróżniania obiektów jak drzewa, budynku, pojazdy i inne. Pozyskane dzięki taniej sile roboczej dane, zostały następnie przesłane do Pentagonu i dołączone do Projektu Maven, pomagając wojskowym dronom nauczyć się analizy obrazów w czasie rzeczywistym.
W kwietniu ubiegłego roku Sundar Pichai, CEO Google otrzymał podpisaną przez ponad 3100 pracowników Google petycję, w której żądano, by firma zaprzestała współpracy z Pentagonem przy projekcie inteligentnych dronów. W czerwcu Google oświadczyło, że nie przedłużają kontraktu z rządem, w związku z wewnętrznymi naciskami. Moralne rozterki pracowników spowodowały, że Google wykorzystało freelancerów do pozyskania danych i zapewne uzyskało to niższym kosztem. Pracownicy na zlecenie nie mieli pojęcia nad czym pracują, kto ich opłaca, ani co pomagają tworzyć. Tego typu pracownicy nie wiedzieli, że za wszystkim stoi Pentagon i Google, są tylko tanią siłą roboczą, bez prawa do minimalnego wynagrodzenia i świadczeń. Pośrednik podkreśla jednak, że o ile większość firm podaje przykład sposobu wykorzystania zamawianego zlecenia, to nie jest to wymagane. Biorąc jednak pod uwagę kontrowersje otaczające wykorzystywanie dronów wojskowych do namierzania celów oraz kierunek ich rozwoju, wykorzystywanie najniżej opłacanych pracowników, by ominąć kwestie moralne jest skandaliczne. "Pracownicy powinni mieć absolutne prawo do wiedzy na temat wykonywanych zadań, zwłaszcza jeśli otaczają je moralne albo polityczne kontrowersje" - powiedziała Juliet Schor, profesor socjologii w Boston College.
Pokaż / Dodaj komentarze do: Jesteś freelancerem? Nieświadomie mogłeś współtworzyć Google AI dla wojska