Amazon ostrzegł swoich pracowników, aby nie rozmawiali z chatbotem ChatGPT OpenAI. Powody ostrzeżenia są dość zaskakujące i mają więcej wspólnego z procesami sądowymi wytoczonymi przez artystów przeciwko systemom AI, niż z jakąkolwiek apodyktyczną polityką korporacyjną.
ChatGPT OpenAI szturmem podbił świat. Po zaledwie 40 dniach od upublicznienia systemu AI korzysta z niego codziennie 10 milionów użytkowników. Sieć społecznościowa Instagram potrzebowała 355 dni na osiągnięcie tego samego. Większość użytkowników oczywiście kieruje się zwykłą ciekawością i chęcią sprawdzenia możliwości technologii, jednak wiele osób używa bota nawet do generowania opowiadań, czy odrabiania prac domowych. Niektórzy pracownicy Amazon również używają chatbota AI, aby zadawać pytania dotyczące codziennych zadań w pracy i szukając informacji, które mogą pomóc im lepiej wykonywać swoje zadania. Pozornie nie wydaje się to zbyt dużym problemem dla pracodawcy, ale sprawy się nieco komplikują, ze względu na sposób działania tego typu narzędzi. Zasadniczo Amazon martwi się, że jego pracownicy udostępniają chatbotowi wrażliwe dane podczas zadawania pytań. Tego typu modele nieustannie iterują same w sobie w oparciu o nowe dane szkoleniowe, które są im dostarczane przez użytkowników. Najnowsze dane treningowe wprowadzane do ChatGPT pochodzą z samych podpowiedzi tekstowych, które użytkownicy wprowadzają podczas rozmowy z botem.
Amazon widzi zagrożenie w informacjach przekazywanych chatbotowi. To dopiero początek problemów ChatGPT, bo niemal każdego dnia pojawiają się kolejne kontrowersje.
W rzeczywistości ostrzeżenie od Amazona pochodzi od jednego z pracowników korporacyjnych, który faktycznie widział, jak ChatGPT naśladuje niektóre wewnętrzne dane Amazona. Nie oznacza to, że narzędzie odtworzyło dane, ale było w stanie naśladować je w sposób, który wydawał się wystarczająco przekonujący, aby prawnik zaalarmował o możliwych naruszeniach danych, które miały miejsce w postaci monitów tekstowych. Amazon ostrzegł użytkowników przed używaniem ChatGPT do pomocy w wykonywaniu codziennych zadań związanych z ich pracą. Nie wynika to z nadmiernej kontroli ze strony firmy, ale jest uzasadnione obawami, że wewnętrzne i wrażliwe dane wpadną w ręce osób trzecich.
Nie tylko Amazon ma problem z chatbotem. Niedawno odkryto, że mógłby zdać pisemne egzaminy MBA (i nie tylko), ale dużym problemem staje się oryginalność tekstów. ChatGPT napisał już kilka artykułów naukowych, które często mogą wydawać się dość wiarygodne, co może stanowić w przyszłości spory problem. Niektórzy naukowcy już używają systemu oficjalnie, a ChatGPT jest wymieniany nawet jako współautor. Platformy wydawnicze takie jak Springer Nature czy Elsevier wystąpiły przeciwko takim praktykom, najzwyczajniej całkowicie ich zakazując. Jak mówi Magdalena Skipper z Nature, autorzy artykułu nie tylko piszą sam tekst, ale pełnią też inne role w ramach badań, takie jak projektowanie eksperymentów, przeprowadzanie ich i wyjaśnianie zmierzonych wyników. AI nie jest jednak zaliczana do tych ról (lub nie powinna być), a co za tym idzie, jej zdaniem, systemu nie należy zaliczać do grona współtwórców. Przyznaje jednak, że system może być bardzo przydatny dla pisarzy, dla których angielski nie jest językiem podstawowym. W końcu nawet wydawca Elsevier dał do zrozumienia, że pozwala na wykorzystanie sztucznej inteligencji do poprawy czytelności artykułu, ale nie do interpretacji danych czy wyciągania naukowych wniosków.
ChatGPT może pisać różne eseje i nie zawsze łatwo jest udowodnić, czy prawdziwym autorem był uczeń, czy sztuczna inteligencja. Jednak Jeffrey Duerk z University of Miami przyznaje, że ChatGPT może być dobrym narzędziem do wyjaśnienia problemu „własnymi słowami”, co może być bardziej zrozumiałe niż zwykły link do strony internetowej. Jednocześnie istnieje ryzyko, że sztuczna inteligencja wyjaśni to niepoprawnie. Błędy merytoryczne nie należą do rzadkości. Zostało to wyraźnie zakazane na przykład na francuskim uniwersytecie Sciences Po.
Pokaż / Dodaj komentarze do: Amazon nie chce, aby jego pracownicy rozmawiali z ChatGPT. Czego się obawiają?