Filmy znane jako "deepfake" powstają przy użyciu nagrania źródłowego, w które "wkleja" się twarz ofiary oraz dziesiątek zdjęć wstawianej osoby. Im więcej zdjęć zostanie udostępnionych algorytmowi, tym bardziej realistyczny efekt końcowy. A gdyby tak wystarczyło tylko jedno zdjęcie? Samsung wziął na warsztat opisywaną technologię i uczynił ją jeszcze bardziej niebezpieczną. Teraz filmy deepfake mogą być tworzone na podstawie zaledwie jednej fotki. Laboratorium Samsung AI w Rosji opracowało technologię, która na podstawie zdjęcia Mona Lisy (testowano również inne zdjęcia) stworzyła realistyczne wideo, na którym postać mówi, porusza głową, a nawet mruga oczami. Samsung dostarczył informacje na temat nowej technologii, nazywając powstałe twory "realistycznymi neuronowymi mówiącymi głowami". W przeszłości, niemal wyłącznie celebryci i osoby publiczne były wykorzystywane przy tworzeniu zmanipulowanych filmów, ponieważ tylko w ich przypadku można było odnaleźć odpowiednio dużą bazę nieruchomych zdjęć. Samsung odkrył jednakże sposób na stworzenie takiego materiału na podstawie zaledwie jednego zdjęcia, które można pobrać z portalu społecznościowego. W taki sposób każdy może stać się ofiarą, ukazaną jako osoba popełniająca przestępstwo, albo występująca w filmie porno.
Już wkrótce będzie możliwe tworzenie realistycznych materiałów, bazując na zaledwie jednym zdjęciu "ofiary" wyciągniętym z Facebooka czy Instagrama.
Cel osiągnięto dzięki wytrenowaniu systemu w sposobie poruszania ludzkiej twarzy, poprzez oglądanie ogromnej ilości filmów. Następnie system wykorzystał pozyskaną wiedzę, do przekształcenia pojedynczego zdjęcia, albo małej ilości fotografii w materiał filmowy. Podczas gdy zdjęcia twarzy są wykorzystywane do tworzenia realistycznego odwzorowania mimiki, to w przypadku wykorzystania małej ilości fotografii, nie można dostarczyć takiego samego poziomu jakościowego, co przy pokaźnej bazie zdjęć. Przykładowo stworzony przez Samsunga film z Marilyn Monroe, pozbawiony jest słynnego pieprzyka na twarzy aktorki. Filmy stworzone przy użyciu pojedynczego zdjęcia, jeszcze nie zapewniają tej samej jakości, co materiały powstałe z wykorzystaniem 8 i 32 fotek.
"Podążając za ubiegłorocznym trendem, ta oraz powiązane techniki wymagają coraz mniej danych i generują coraz bardziej wyrafinowane i atrakcyjne treści. Wyniki te są kolejnym krokiem w ewolucji technik... prowadzącym do tworzenia treści multimedialnych, które w końcu będą nie do odróżnienia od prawdziwych nagrań" - powiedział Hany Farid, badacz z Dartmouth. Póki co w materiałach stworzonych przy pomocy jednego zdjęcia widoczne są błędy, co pozwala zorientować się w fałszerstwie, jednakże z czasem technologia zostanie dopracowana, a wtedy kwestią czasu jest, kiedy narzędzie to zostanie wykorzystane w celach przestępczych, czy do uzyskania przewagi choćby w polityce. Patrząc na tempo postępu w dziedzinie AI, nastąpi to szybciej niż nam się wydaje.
Pokaż / Dodaj komentarze do: Samsung poprawia technologię deepfake i tworzy filmy z jednego zdjęcia