TechNews.bg
Водещи новиниЛ@йфНовини

Карикатурите с ChatGPT улесняват киберизмамниците

Лична информация за дадено лице, щателно събрана от AI, може да е ценен актив за мошениците

Каркатурните портрети, генерирани от AI алгоритми, могат да се окажат нож с две остриета – покрай хумора се промъкват киберизмами (графика: генерирана с AI)

Има нова мода в социалните медии: потребителите искат от ChatGPT да им генерира карикатура въз основа на това, което „знае“ за тях. Но забавлението може да увеличи шансовете за киберизмами по метода на социалното инженерство.

Новото забавление в интернет – да си поискаш карикатура от ChatGPT – е тенденция, която подтиква хората да поискат генерирано от изкуствен интелект изображение на себе си и да го споделят публично. Предполага се, че моделът използва лични данни за лицето, които са така или иначе достъпни онлайн.

Специалистите по сигурността обаче предупреждават, че такива публикации допринасят за натрупването на информация, която престъпниците използват за извършване на кибератаки: поглъщане на акаунти, представяне за друг човек и целенасочени измами.

„Предотвратяването на измами с лична карта в интернет може да бъде сериозно предизвикателство. Всеки знае, че е жизненоважно да не се споделя ценна лична информация, като вашия социалноосигурителен номер или информация за кредитна карта, но това е само началото към истинската защита на вашата самоличност“, казва Боб Лонг, президент за Северна и Южна Америка в Daon.

Социално инженерство

Престъпниците често използват добре отработени тактики, за да убедят жертвите да разкрият идентификационни данни или друга информация за достъп. Тези методи могат да бъдат по-ефективни от чисто техническите атаки, защото жертвата несъзнателно участва в компрометирането, каза Лонг.

Ссоциалното инженерство обхваща набор от подходи, включително фишинга, които стават все по-ефективни с натрупването на повече знание за мишената.

„Социалното инженерство е широк термин за редица методи за подмамване на хората доброволно да издадат свои лични и логин данни. Фишингът е най-известната от тези техники, но има и много други. Едно нещо, което ги обединява, е, че колкото повече знае измамникът за жертвата си, толкова по-лесно е да успее“, каза Лонг.

Екипите по сигурност често третират публично достъпната лична информация като рисков фактор сама по себе си. Нападателите могат да комбинират биографични данни, данни за местоположение, трудова история, връзки с приятели и семейство, както и лични интереси, за да създадат убедителни послания, които изглеждат сякаш идват от действителни познати – колеги или членове на семейството или пък доставчици на услуги. Същата информация може да им помогне и да отговорят на въпроси за удостоверяване.

Карикатурите

Модата на карикатурите може както да разшири информацията, достъпна за престъпниците, така и да сигнализира кои хора имат голям публичен отпечатък.

„Тук привидно безожидни неща като неща като новата тенденция да караме AI да ни нарисува карикатура въз основа на всичко, което знае за нас, се превръщат от забавление в заплаха за сигурността“, каза Лонг.

Публикуването на резултата превръща обикновеното любопитство в опасно оръжие. Като създава комично изображение и го публикува в социалните медии, човек на практика върши работата на измамниците – дава им визуално представяне на себе си.

Модата до голяма степен наподобява вече добре познатия похват на забавните тестове и викторини в социалните мрежи, които насърчават хората да споделят лични факти. Веселите тестове от типа на „Как ще изглеждате след 20 години“ или „40 неподозирани неща за мен“ отдавна са популярни в социалните мрежи, но те карат хората доброволно да споделят купища лични данни за себе си.

Какво знаят ботовете

Към всичко това следва да се добави и въпросът какво ще научат генеративните модели за човека, който им подава заявка да му направят карикатура. На практика това е подкана моделът да събере накуп всичко, което се знае за даденото лице.

Ако измамниците биха могли да се доберат до подобна синтезирана информация, това е доста удобно за тях. И можем да сме сигурни, че те вече са се досетили за това.

Истината е, че с искането на карикатура потребителите нямат никаква информация за това как ще бъдат обработвани данните им, как ще бъдат използвани „надолу по веригата“ и къде ще бъдат отразени.

„Ако не знаете със сигурност какво ще се направи с това изображение, освен да предоставите крайния резултат, рискувате изображението ви да бъде използвано за какво ли не – от обучение на генератори на изображения с изкуствен интелект до попълване на нелегален софтуер за проследяване”, каза Лонг.

„Споделянето на лична информация, включително вашето изображение, с изкуствен интелект трябва да се извършва само когато познавате и имате доверие на организацията, която отправя заявката“, заключи той.

още от категорията

Регулатори се притесниха от плана на ЕК да промени защитата на личните данни

TechNews.bg

Няма безплатен обяд: ChatGPT внедрява реклами

TechNews.bg

Важна промяна в системата за безопасност на ChatGPT

TechNews.bg

ChatGPT е смъртоносно опасен, предупреди Илон Мъск

TechNews.bg

Съкращения и рискове пред европейските екипи по защита на личните данни

TechNews.bg

Най-много рискове, свързани с генеративния AI, идват от ChatGPT

TechNews.bg

Коментари