Критично за генеративните AI: можем ли да застанем зад думите (си)?

Генеративните алгоритми поставят ребром въпроса можем ли да застанем “зад думите си”, когато сме творили чрез AI (графика: CC0 Public Domain)

Генеративните езикови модели, по-специално ChatGPT, са в устата на мнозина от година насам. Те станаха тема на много заглавия, откакто OpenAI пусна първата версия преди малко повече от година. Една от основните чуденки е как образователните институции подхождат към домашните и изпитите, когато изглежда, че генеративният AI може да отговори на всичко вместо ученика. Основната тема и там, и в останалите сфери на приложение, е „измамата“.

Допустимо ли е да използваме езиков модел в ежедневната си работа? Има ли „тъмна страна“, за която не си даваме сметка?

Измама или не

Някои изследователи в областта на образованието са категорични, че правилното решение е да не се допуска използването на какъвто и да е генеративен AI. Кой друг, ако не образователната система, трябва да научи децата и младите хора да разбират инструментите, с които разполагат в бъдещия си личен и професионален живот?

Младежите трябва да се научат да разбират как се изграждат генеративни езикови модели и какво могат (и не могат) да правят с тях. Изпитите трябва да отразяват реални знания, действителни проблеми и решения, с които учащите могат да се сблъскат в бъдещия си личен или професионален живот.

Проблеми с авторските права

Друг сериозен проблем е, че генеративните езикови модели в сегашната си форма могат да бъдат обучени върху съдържание, което технологичните компании не са получили разрешение да използват. В немалко ситуации авторството на дадени твърдения трябва да бъде указано, а в някои положения изобщо не е позволено да се използва чуждо съдържание. Но как да знаем?

Изглежда лесно да се събере разнообразното и разнородно налично съдържание, да се пъхне в „черната кутия“ на генеративния модел и след това „магически“ да се трансформира в друга форма. Но нали след това потребителите трябва да се позоват на източника? Кого ще цитират – ChatGPT може би? А кой е действителният автор? Това е голям етичен проблем. Той поставя остро въпроса на кого се позоваваме, изграждайки собствените си тези и произведения, било то в професионалния или личния живот.

Стимулация или закърняване

Много е привлекателно за младите хора да използват машина за създаването на нещо, което да прилича на направено от човек. Но не трябва ли всъщност да проектираме дигитални технологии, които да стимулират хората да бъдат по-изобретателни, да бъдат по-осъзнати? Бълването на съдържание, генерирано от алгоритми, със звученето на човешки тон, в повечето случаи постига точно обратното: закърняване на творческото начало у човека.

Още от същото

Подобно на много други цифрови технологии, които се опитват да симулират човешкото съзнание, съществува риск (или по-скоро гаранция) за т. нар. изкривявания. Датският речник описва изкривяването като „погрешно представяне на резултатите от проучване, измерими количества или др. подобни, най-вече поради методологични грешки или несъзнателни предпочитания“. Несъзнателни предпочитания – това е присъщо на човека. Впрочем, самото определение за изкривяване нерядко се замества със синонимната дума „пристрастие“.

Съдържанието, събрано за целите на обучението на генеративния модел, може да се основава на едностранчиво съдържание. Това е проблем, защото – особено в дългосрочен план – едностранчивото съдържание ще бъде безкрайно възпроизвеждано в „нови“, „креативни“ произведения. Хипотетично, ако всички започнем да използваме генеративен модел като „източник на вдъхновение“, когато подготвяме дадено произведение, едностранчивото твърдение ще се мултиплицира безкрайно.

Докъде ще стигнем така?

Невидимите основи

Ако допуснем, че все пак генеративните модели са обучени върху съдържание, използвано само с необходимото авторско разрешение, и че все пак успяват да представят обективен възглед за даден проблем, това дали би решило проблемите? Най-голямото предизвикателство остава това, че потребителят продължава да не знае откъде и как се генерира съдържанието. Може, например, определено твърдение да произхожда от източник, който залага нездрави интереси в своите твърдения.

Когато реалният човек говори от свое име, той използва собствения си опит, нагласи и ценности, както и всичко, което е чел и научил, пречупено през призмата на осмислянето, оценяването и разбирането за добро и лошо. При генеративните AI обаче изглежда, че е лесно да се подведем от очарованието на това колко красиво и авторитетно звучи получената теза, без да е проверена и оценена през призмата на ценностите ни и действително осмислените критерии за редно и нередно.

Дори да сме максимално критични, пак рискуваме да се изкушим, като се оставим да бъдем повлияни от сложността на речта, високия стил и т.н. Това е клопка, в която мнозина могат да попаднат съвсем реално и несъзнателно.

Затова в крайна сметка изглежда, че е по-разумно да си спестим улеснението и да отделим повече време за творческа работа, но в замяна на усилието да знаем, че всеки източник ни е известен, че всяко твърдение е добре осмислено и че можем да застанем зад думите си.

Коментар