Опасно: AI сполучливо клонира човешки гласове

Телефонните измами с пострадали роднини преживяват ренесанс благодарение на AI системите за гласова имитация (снимка: CC0 Public Domain)

Ако отговорите на телефонно обаждане от непознат номер, оставете обаждащия се да говори първи. Който и да стои от другата страна на линията, той може да записва гласа ви – а по-късно да го използва, за да ви имитира много убедително.

Това предупреждение дойде наскоро от Американската Федерална търговска комисия. Тя предупреди гражданите да се пазят от измамници, които тайно записват гласовете на хората по телефон, а по-късно звънят на роднини и се представят за сродник, пострадал в инцидент, искайки пари спешно.

В основата на новия вид измама стои възходът на софтуерни инструменти, базирани на изкуствен интелект, подобни на ChatGPT и Vall-E на Microsoft. Те превръщат текст в реч, имитирайки различни гласове на база предварително подадена гласова „мостра“. Софтуерната компания от Редмънд демонстрира подобен инструмент през януари.

Vall-E все още не е достъпен за всички, но други играчи като Resemble AI и ElevenLabs правят подобни гласови инструменти – и те са достъпни за широката общественост. Използвайки кратка извадка от нечий глас, технологията може точно да преобразува написани изречения в убедително звучащ „глас“.

Схемата е до голяма степен позната. Получавате обаждане. Чува се паникьосан глас отсреща. Обажда се внукът ви. Казва, че е в голяма беда – блъснал е човек с колата и е попаднал в затвора. Но можете да му помогнете, като изпратите пари. Притеснявате се и пресмятате с какви пари разполагате. Разликата спрямо „традиционната“ телефонна измама от този вид е, че отсреща няма хлипане и хълцане, а гласът е точно този – на внука.

Необходими са само 3 секунди

Престъпниците използват достъпните инструменти за „клониране на глас“, за да измамят жертвите и да ги накарат да да повярват, че техните близки са в беда и се нуждаят от пари бързо, казват експертите. Всичко, което е нужно за подобна схема, е кратък запис от нечий глас, който може дори да е достъпен в интернет. Ако не е, мострата може да бъде събрана чрез запис посредством спам-обаждане. След това се прилага AI приложение за клониране на глас като софтуера за говор на ElevenLabs или VoiceLab.

„Ако сте направили видео в TikTok с гласа си върху него, това е напълно достатъчно“, каза Хани Фарид, професор по дигитална криминалистика в Калифорнийския университет в Бъркли. Дори запис на гласова пощенска кутия би бил достатъчен.

Професорът не е изненадан от разпространението на подобни измами. „Това е част от един континуум. Започнахме със спам-обажданията, след това с фишинг измами по имейл, след това с фишинг-измами с текстови съобщения. Така че гласът е естествената еволюция на въпросните измами“, казва Фарид.

„Не вярвай на гласа“

Тенденцията на практика означава, че вече не можем да се доверяваме на гласове, които звучат идентично с тези на нашите приятели, роднини, членове на семейството.

„Не се доверявайте на гласа“, предупреждава щатската комисия по търговията. „Обадете се на човека, който предполагаемо се е свързал с вас, и проверете историята. Използвайте телефонен номер, за който знаете, че е негов. Ако не можете да се свържете с любимия човек по телефона, опитайте се по друг начин, чрез други членове на семейството или негови приятели“.

Производителят на Vall-E Microsoft спомена за този проблем неотдавна. Фирмата каза за технологията, че „може да носи риск от злоупотреба с модела, като подправяне на гласова идентификация или представяне за конкретен говорител“. В предупреждението се казва още, че ако инструментът бъде пуснат за широката публика, той „трябва да включва протокол, който да гарантира, че говорещият одобрява използването на гласа си“.

Пак през януари ElevenLabs написа в социалните мрежи: „Виждаме нарастващ брой случаи на злоупотреба с клониране на глас“. Поради тази причина компанията посочи, че проверката на самоличността е от съществено значение за премахване на злонамерено съдържание и че технологията ще бъде достъпна само срещу заплащане.

Предпазване

Технологични средства за предпазване от подобен род измами тепърва ще се обсъждат. Дотогава единственото решение за масовия потребител е бдителността. При приемане на обаждане от непознат номер човекът трябва да остави обаждащия се да говори пръв. Дори само да отговорим с „Ало, кой се обажда“, това може да е достатъчно за гласова мостра, която после да бъде използвана за измама със собствения ни глас.

Самият Фарид казва, че вече не отговаря на телефона си, освен ако не очаква обаждане. И когато получава обаждания от предполагаеми членове на семейството, като съпругата например, той я пита за кодова дума, за която предварително са се разбрали.

„Сега дори го произнасяме погрешно, ако подозираме, че някой друг го знае“, казва Фарид. „Това е като парола, която не споделяте с никого. То е доста лесен начин да заобиколите измамите, стига… да не изпадате в паника“.

Вярно – методът е нискотехнологичен начин за борба с високотехнологичен проблем. Разбира се, повод за съмнение е и самото искане на пари. Ако обаждащият се иска да му се плати в криптовалута, това задължително трябва да накара „червената лампичка да светне“. „Измамниците ви молят да платите или изпратите пари по начини, които затрудняват връщането на парите ви“, казват специалистите.

Коментари по темата: „Опасно: AI сполучливо клонира човешки гласове”

добавете коментар...

  1. Анонимен

    Незабавно да се предупредят всички възрастни хора, които хвърлят пари през терасата като се обади някой “пострадал познат”

Коментар