OpenAI nie upubliczni nowej sztucznej inteligencji. Jest zbyt niebezpieczna

OpenAI nie upubliczni nowej sztucznej inteligencji. Jest zbyt niebezpieczna

Twórcy rewolucyjnego systemy AI, który potrafi pisać informacje prasowe oraz materiały fikcyjne, które można określić jako „pisany deepfake", podjęli dość nietypową dla tego kręgu decyzję i nie udostępnią swoich badań publicznie, w obawie przed nadużyciami. OpenAI, organizacja non-profit, za którą stoją m.in. Elon Musk, Reid Hoffman i Sam Altman stwierdziła, że nowy model AI nazwany GPT2 jest tak dobry, a ryzyko nieuczciwego wykorzystywania jest tak wysokie, że zrywają z dotychczasową praktyką udostępniania całości swoich badań publicznie. Tym razem naukowcy chcą sobie zapewnić więcej czasu na omówienie konsekwencji przełomu technologicznego. Najprościej mówiąc, GPT2 to generator tekstu. Sztuczna Inteligencja nakarmiona jakimś tekstem, którym może być kilka słów, albo cała strona, potrafi napisać kolejne zdania, bazując na przewidywaniach, co powinno dalej nastąpić. System przesuwa granice tego, co dotąd uważano za możliwe, zarówno pod względem jakości efektu, jak również niesamowicie szerokiego wachlarza potencjalnych zastosowań.

Sztuczna Inteligencja weszła na całkowicie nowy poziom, potrafiąc tworzyć wiarygodne materiały prasowe oraz utwory literackie.

GPT2 potrafi bez problemu generować nowy tekst, którego kolejne fragmenty są zgodne w stylu i tematyce z materiałem źródłowym. Bardzo rzadko pojawiają się specyficzne, dziwne elementy, które były typowe dla poprzednich systemów AI, jak zapominanie, o czym miał być tekst w połowie paragrafu, albo gubienie składni w długich zdaniach. Po nakarmieniu systemu początkiem Roku 1984 autorstwa Orwella - "Był jasny zimny dzień kwietniowy i zegary biły trzynastą", system rozpoznał niejasny futurystyczny ton i styl pisarski, kontynuując - "Siedziałem w samochodzie, jadąc do nowej pracy w Seattle. Zatankowałem, przekręciłem kluczyk i pozwoliłem się ponieść. Wyobrażałem sobie, jaki będzie ten dzień. Za sto lat od teraz. W 2045 byłem nauczycielem w jakieś biednej wiejskiej szkole w Chinach. Zaczynałem od historii Chin i historii nauki".

System nakarmiony kilkoma paragrafami informacji o Brexicie zwrócił wiarygodny tekst prasowy wypełniony "cytatami" od Jeremy'ego Corbyna, wzmiankami o granicy irlandzkiej oraz wypowiedziami rzecznika premiera. Jeden z takich wygenerowanych paragrafów mówi, że: "Rzeczniczka premier May, poproszona o wyjaśnienie raportów powiedziała, że premier zamierza opuścić UE tak szybko, jak to możliwe i stanie się to pod jej mandatem negocjacyjnym, co w ubiegłym tygodniu potwierdziła Królowa w swoim przemówieniu". GPT2 jest przełomowe choćby ze względu na swoją wielkość, powiedział Dario Amodei dyrektor badawczy OpenAI. Modele były 12 razy większe, a zestawy danych 15 razy obszerniejsze i o wiele szerszej tematyce" niż poprzednie najnowocześniejsze modele AI. System był trenowany zestawem danych zawierającym miliony artykułów, wybranych poprzez przeczesywanie zasobów Reddita w poszukiwaniu odnośników z przynajmniej trzema głosami. Zebrany tekst ważył ponad 40 GB, co stanowi ponad 35000 kopii książki Moby Dick. GPT2 może być również szerzej stosowane, niż jakikolwiek wcześniejszy system. Naukowcy muszą dokładnie zbadać możliwości swojej Sztucznej Inteligencji, sprawdzić co potrafi, jakie są jej ograniczenia i sprawdzić, jak potencjalnie może ona być szkodliwa i podatna na nadużycia ze strony nie do końca uczciwych osób. Najprostszym przykładem takiego nadużycia, może być masowe pisanie negatywnych recenzji produktów konkurencji.

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: OpenAI nie upubliczni nowej sztucznej inteligencji. Jest zbyt niebezpieczna

 0