Sztuczna inteligencja to nie tylko same pozytywy i coraz częściej podnosi się tematy związane z zagrożeniami, jakie przynosi. Mowa np. o możliwościach, jakie daje oszustom - jak wynika z ostatnich doniesień, ci już wykorzystują je do scamów z wykorzystaniem podrobionych głosów.
The Washington Post donosi, że kanadyjska para po siedemdziesiątce otrzymała niedawno telefon od, jak im się wówczas zdawało, ich wnuka, który twierdził, że jest w więzieniu i potrzebuje pieniędzy na kaucję. Wybrali 3000 dolarów kanadyjskich z jednego banku i mieli wypłacić tę samą kwotę z innego banku, gdy kierownik placówki powiedział im, że zostali oszukani; okazało się, że inny klient otrzymał podobny telefon i dowiedział się, że jest to próba wyłudzenia.
The Washington Post donosi, że kanadyjska para po siedemdziesiątce otrzymała niedawno telefon od, jak im się wówczas zdawało, ich wnuka, który twierdził, że jest w więzieniu i potrzebuje pieniędzy na kaucję.
Inną parą, która nie miała tyle szczęścia, byli rodzice Benjamina Perkina. Otrzymali telefon od prawnika, który powiedział, że ich syn zabił amerykańskiego dyplomatę w wypadku samochodowym, jest w więzieniu i potrzebuje pieniędzy na opłaty prawne. Prawnik przekazał syna do telefonu, który powiedział, że ich kocha i potrzebuje pieniędzy.
Głos brzmiał „wystarczająco podobnie, aby moi rodzice naprawdę uwierzyli, że ze mną rozmawiali” – powiedział prawdziwy Perkin. Jego rodzice wysłali oszustowi 15 449 dolarów za pośrednictwem terminala bitcoin i nie byli w stanie ich odzyskać.
Oszustwa głosowe nie są niczym nowym. Dane Federalnej Komisji Handlu ujawniają, że z 36 000 zgłoszeń osób oszukanych przez przestępców udających przyjaciół lub rodzinę w zeszłym roku, ponad 5100 z tych incydentów miało miejsce przez telefon.
Fałszowanie głosu osoby było kiedyś skomplikowaną i długą procedurą polegającą na odkrywaniu i gromadzeniu godzin nagrań, a efekt końcowy nie zawsze był przekonujący. Teraz jednak narzędzia sztucznej inteligencji uczyniły ten proces tak łatwym, że oszuści potrzebują tylko krótkiego zapisu osoby mówiącej, często pobranego z konta w mediach społecznościowych, aby dokładnie odtworzyć jej głos.
Przykładem tej technologii jest narzędzie Vall-E firmy Microsoft, które firma ogłosiła w styczniu. Opierając się na technologii o nazwie EnCodec, którą Meta ogłosiła w październiku 2022 r., działa poprzez analizę głosu osoby, rozbicie informacji na komponenty i wykorzystanie ich do syntezy w taki sposób by głos brzmiał podobnie, wypowiadając inne frazy. Nawet po wysłuchaniu zaledwie trzysekundowej próbki, Vall-E może odtworzyć barwę i emocjonalny ton mówiącego.
First, we’ve always had the ability to trace any generated audio clip back to a specific user. We’ll now go a step further and release a tool which lets anyone verify whether a particular sample was generated using our technology and report misuse. This will be released next week
— ElevenLabs (@elevenlabsio) January 31, 2023
Firma ElevenLabs, która oferuje generatywne narzędzie głosowe AI, napisała ostatnio na Twitterze, że obserwuje „rosnącą liczbę przypadków niewłaściwego użycia klonowania głosu”. Doprowadziło to do usunięcia możliwości klonowania głosu z darmowej wersji programu VoiceLab.
Pokaż / Dodaj komentarze do: Nowy wymiar metody na wnuczka. Oszuści podrabiają głos osoby za pomocą AI