Изкуствен интелект симулира гласа на шефа с цел измама

Милиони долари са откраднати чрез фалшификации на гласа на шефовете (снимка: CCO Public Domain)

Технологиите за изкуствен интелект могат да се използват в системи за машинно обучение, които симулират напълно речта на всеки човек, вкл. топ мениджъри и дори на главните изпълнителни директори на корпорациите, алармира Symantec.

Компанията е изследвала редица киберпрестъпления, използващи фалшиви гласове на топ мениджъри. Според експертите, такива системи могат да се прилагат от киберпрестъпниците за кражба на активи, вкл. финансова, корпоративна и лична информация.

Според Symantec, технологията вече е използвана за кражба на „милиони долари”. Анализаторите на компанията съобщават за най-малко три случая, в които фалшивите гласове на главни изпълнителни директори са били използвани за измама на ръководителите на финансовите отдели на същите компании с цел изтегляне на средства. Имената на засегнатите компании не бяха разкрити.

Новата кибер-измамна технология е наречена „Deepfaked Audio” от анализаторите на Symantec, т.е. „фалшиво аудио, базирано на машинно обучение”. За първи път английският термин „Deepfake”, синтезиран от изразите „Deep Learning” и „Fake”, се появи преди няколко години във връзка с технология, при която изкуственият интелект обучава системи, използващи истински образи и човешки видеоклипове за синтезиране на фалшиво видео.

Много публични личности и ръководители на компании станаха жертви на „дълбоко фалшифицирано видео”. Един от най-известните скандали е появата в социалните мрежи на фалшиво видео с Марк Зукърбърг, шефа на Facebook. Известен е и случаят с реалистичен фалшив клип с реч на бившия президент на САЩ Барак Обама.

Всичко, което е необходимо за „обучението” на технологията за „дълбоко фалшифицирано аудио”, са достатъчен брой аудиозаписи на жертвата, отбелязва Symantec. След това изкуственият интелект използва аудиото за обучение на две „генеративни състезателни мрежи” (GAN).

В процеса на учене двете невронни мрежи „се конкурират” помежду си: едната генерира фалшификати, а другата се опитва да разграничи фалшивата от реалната извадка от данни, като в процеса и двете се учат от грешките си.

В случаите на престъпления срещу ръководители на компании, аудио източниците за обучение с ИИ могат да бъдат множество публично достъпни гласови записи – корпоративни видеоклипове, аудио записи на тримесечни конференции за инвеститори, публични изказвания, доклади на конференции, презентации и др.

Според д-р Хю Томпсън, главен технически директор на Symantec, симулацията на глас и технологията за фалшифизиране вече са много близо до съвършенството. В процеса на имитация на гласа киберпрестъпниците използват различни трикове.

Например – специфичният фонов шум им позволява да маскират произношението на срички и думи в най-малко убедителните места. За такива цели се използва имитация на прекъсната мобилна комуникация или фонов шум от претъпкано с хора място.

Коментари по темата: „Изкуствен интелект симулира гласа на шефа с цел измама”

добавете коментар...

  1. ха

    Подсиленият фонов шум е място за съмнение. И слушателя може спокойно да каже – я шефе повтори, че не чух. Вече втори път въпросния фонов шум не е уместно да се появи.

Коментар