
Когато хората, които правят и обучават изкуствения интелект, са тези, които му вярват най-малко, това показва, че има нещо дълбоко сбъркано в начина, по който боравим с технологията. А тези, които най-много са „навътре“ в обучението и оценяването на AI, съветват семействата си и близките си да стоят далеч от „умните“ алгоритми.
Криста Павлоски си спомня решаващия момент, който е оформил категоричното ѝ виждане относно използването на изкуствен интелект. Като работеща в AI компанията Amazon Mechanical Turk – платформа, която позволява на компаниите да наемат работници, които да изпълняват задачи като въвеждане на данни или съпоставяне на подкана към изкуствен интелект с нейния резултат – Павлоски прекарва времето си в модериране и оценяване на качеството на текстове, генерирани от изкуствен интелект, както и изображения и видеоклипове, наред с проверка на фактите.
Преди около две години, работейки от дома си на масата в трапезарията си, тя има за задача да определя дали дадени туитовете съдържат расистки елементи. Тогава пред нея се появява туит, който гласиЛ „Слушайте как пее лунният щурец“. Павлоски посяга към бутона „не“, но тогава решава да провери какво е „лунен щурец“. Оказва се, за нейна изненада, че това е апокрифна обидна дума, използвана за афроамериканци.
„Седях там, размишлявайки колко пъти може би съм направила същата грешка и не съм разбрала [за наличието на расистки елементи]“, казва Павлоски.
Примирение с обидите?
Потенциалният мащаб на нейните собствени грешки и тези на хиляди други работници като нея предизвиква объркване. Колцина други несъзнателно са пропуснали подобни обиди? Ами ако са ги разрешили?
След години, в които е била свидетел на вътрешните механизми на моделите с изкуствен интелект, Павлоски решава вече да не използва генеративни AI лично – и казва на семейството си да ги избягва.
„Това е абсолютно неприемливо в моя дом“, казва Павлоски. Тя не позволява на дъщеря си – тийнейджърка – да използва инструменти като ChatGPT. А на хората, с които се среща в личния си живот, препоръчва да питат изкуствения интелект за нещо, с което са много добре запознати, за да могат да видят грешките му и сами да разберат колко сбъркана е технологията.
Павлоски споделя, че всеки път, когато види меню с нови задачи, от които да избира, на сайта на Mechanical Turk, се пита дали има някакъв начин това, което прави, да бъде използвано, за да навреди на хора – много пъти, казва тя, отговорът е „да“.
В изявление на Amazon се казва, че работниците могат да избират кои задачи да вземат по своя преценка и могат да преглеждат подробностите за всяка задача, преди да решат дали да я приемат. Според компанията, заявителите определят спецификите на всяко възложение, като например време, заплащане и нива на обучение.
„Amazon Mechanical Turk е борса, която свързва бизнеси и изследователи, наречени „заявители“, с работници, за да изпълняват онлайн задачи, като например етикетиране на изображения, отговаряне на анкети, преписване на текст или преглед на резултатите от работата на изкуствения интелект“, казва Монтана Маклаклан, говорител на Amazon.
Криста Павлоски не е сама
Дузина оценители на изкуствен интелект – все хора, които проверяват отговорите на изкуствения интелект за точност и обоснованост – споделят, че след като са осъзнали начина, по който функционират чатботовете и генераторите на изображения – и колко грешни могат да бъдат резултатите им – са започнали да призовават приятелите и семейството си изобщо да не използват генеративен изкуствен интелект – или поне да се опитват да образоват близките си как да го използват внимателно.
Друга дама, която работи като оценител на изкуствен интелект, казва, че се опитва да използва AI възможно най-пестеливо, ако изобщо го прави. Решението ѝ тръгнало от забелязаните от нея отговори на здравни въпроси, дадени от AI. Това я накарало да се замисли много сериозно.
Останала под прикритието на анонимността, жената споделя, че е наблюдавала колегите си да оценяват генерираните от изкуствен интелект отговори на медицински въпроси абсолютно безкритично и е била натоварена самата тя да оценява такива въпроси, въпреки липсата на медицинско образование.
Разочарована, тя забранила на 10-годишната си дъщеря да използва чатботове. „Първо тя трябва да има умения за критично мислене, иначе няма да може да прецени дали резултатът е добър“, казва оценителката.
Наблюдателите на ботове бият тревога
Въпросните хора са част от глобална работна сила от десетки хиляди служители, които помагат на чатботовете да звучат по-човешки. Когато проверяват отговорите на AI, те също така се стараят да гарантират, че чатботът не подава неточна или вредна информация.
Когато обаче хората, които усъвършенстват AI, са тези, които му вярват най-малко, експертите смятат, че това е сигнал за много по-голям проблем.
„Това показва, че вероятно има стимули за разпространение и разгръщане в мащаб, а не за бавно и внимателно валидиране, и че обратната връзка, която дават оценителите, се игнорира“, казва Алекс Махадеван, директор на MediaWise в Poynter, програма за медийна грамотност.
Според него, всяка действаща версия на всеки чатбот бълва хиляди ггрешки и ние няма как да сме сигурни в твърденията му. „Това не вещае нищо добро за публиката, която все по-често се обръща към LLM за новини и информация“.
Служителите в областта на изкуствения интелект не се доверяват на моделите, върху които работят, поради постоянния акцент върху бързото време за изпълнение за сметка на качеството. Брук Хансен, служител в областта на изкуствения интелект в Amazon Mechanical Turk, казва, че не се доверява на генеративния изкуствен интелект като концепция, нито на компаниите, които разработват и внедряват тези инструменти. За нея най-големият повратен момент е осъзнаването колко малко подкрепа получават хората, обучаващи AI системите.
„От нас се очаква да помогнем за подобряването на модела. Но често ни се дават неясни или непълни инструкции. Получаваме минимално обучение и нереалистични срокове за изпълнение на задачите“, казва Хансен, която работи с данни от 2010 г. и е участвала в обучението на някои от най-популярните модели на изкуствен интелект в Силициевата долина.
„Ако работниците не са въоръжени с информацията, ресурсите и времето, от които се нуждаят, как е възможно резултатите да бъдат безопасни, точни или етични? За мен тази разлика между работата, която се очаква от нас, и ресурсите, които ни се дават, за да я свършим, е ясен знак, че компаниите дават приоритет на скоростта и печалбата пред отговорността и качеството”, споделя тя.
Разпространяването на невярна информация с уверен тон, вместо да се предлага никакъв отговор, когато такъв не е лесно достъпен, е основен недостатък на генеративния изкуствен интелект, казват експерти.
Одит на топ 10 генеративни модела на изкуствен интелект, включително ChatGPT, Gemini и AI на Meta, извършен от неправителствената организация за медийна грамотност NewsGuard, разкри, че процентът на неотговорилите чатботове е намалял от 31% през август 2024 г. до 0% през август 2025 г.
В същото време вероятността чатботовете да повтарят невярна информация почти се е удвоила от 18% на 35%, според NewsGuard. Нито една от компаниите не е отговорила на искането на NewsGuard за коментар по това време.
„Не бих се доверила на каквито и да е факти, които [ботът] предлага, без да ги проверя лично – просто не е надежден“, казва друг оценител на изкуствен интелект, пожелавайки анонимност поради споразумение за неразкриване на информация. И предупреждава хората да не вярват на чатботовете.
Друг оценител потвърждава, че в проверовъчните екипи на хора с повърхностни познания се възлагат медицински въпроси, както и чувствителни етични теми.
„Шегуваме се, че [чатботовете] биха били чудесни, ако можехме да ги накараме да спрат да лъжат“, каза един преподавател по AI, работил с Gemini, ChatGPT и Grok, пожелал анонимност, след като е подписал споразумения за неразкриване на информация.
„Боклук навътре, боклук навън“
Друг AI оценител, започнал своята работа по оценяване на отговорите на AI чатботове в началото на 2024 г., е почувствал, че не може да се довери на AI около шест месеца след началото на работата си. Бил натоварен със задачата да затрудни модела – което означавало да задава на бота различни въпроси, които биха разкрили неговите ограничения или слабости. Имайки диплома по история, този човек задавал на модела исторически въпроси.
„Попитах го за историята на палестинския народ и той не ми даде отговор, независимо как преформулирах въпроса си“, спомня си служителят, който също е анонимен заради споразумение за неразкриване на информация. „Когато го попитах за историята на Израел, нямаше проблем да ми даде много подробен преглед. Съобщихме за това, но никой в компанията сякаш не се интересуваше“.
За този служител най-голямото притеснение относно обучението на изкуствения интелект е обратната връзка, която оценители като него дават на моделите с изкуствен интелект. „След като видях колко лоши са данните, които се използват за предполагаемото обучение на модела, знаех, че няма абсолютно никакъв начин той да бъде обучен правилно“, каза той.
Служителят използва фразата „боклук влязъл, боклук излязъл“ – принцип в компютърното програмиране, който означава, че ако подадете лоши или непълни данни в техническа система, тогава резултатът също ще е лош или непълен.
Историкът казва, че вече избягва използването на генеративен изкуствен интелект и също така е „посъветвал всеки член на семейството и приятел да не купува по-нови телефони с вграден изкуствен интелект, да се въздържа от автоматични актуализации, ако е възможно, които добавят интеграция с изкуствен интелект, и да не казва нищо лично на изкуствения интелект“.
Крехко, не футуристично
Винаги, когато темата за изкуствения интелект се повдигне в разговор, Хансен напомня на хората, че изкуственият интелект не е магия. Разказва им за армията от невидими работници зад него и за ненадеждността на информацията за обучаване.
„След като видите как са изградени тези системи – изкривяванията, прибързаните срокове, постоянните компромиси – спирате да виждате изкуствения интелект като нещо футуристично и започвате да го виждате като много крехка система“, казва Адио Диника, който изучава труда зад изкуствения интелект в Института за разпределени изследвания на изкуствения интелект. „Според моя опит, най-вече хората, които не разбират изкуствения интелект, са очаровани от него“.
Работещите в областта на изкуствения интелект като цяло споделят, че поемат отговорността да вземат по-добри решения и да създават осведоменост около себе си. Те подчертава разбирането, че изкуственият интелект, както казва Хансен, „е толкова добър, колкото е вложено в него – а това, което е вложено в него, не винаги е най-добрата информация“.
Тя и Павлоски изнесоха презентация през май на пролетната конференция на Асоциацията на училищните настоятелства в щата Мичиган в САЩ. В стая, пълна с членове на училищното настоятелство и администратори от целия щат, двете говориха за етичните аспекти изкуствения интелект, надявайки се да предизвикат разговор.
„Много от присъстващите бяха шокирани от наученото. Повечето никога не бяха чували за човешкия труд зад изкуствения интелект“, споделя Хансен. „Някои бяха благодарни за споделеното. Други бяха разочаровани, обвинявайки ни, че сме „мрачни“ по отношение на технологиите, които те виждат като вълнуващи и пълни с потенциал“.
Павлоски сравнява етиката на изкуствения интелект с тази в текстилната индустрия: когато хората не знаят как се правят евтините дрехи, те се радват да купят най-евтината блуза и да спестят пари. Но когато разберат, че ниската цена се дължи на тежки компромиси, използване на детски труд в задушни цехове с отровна химия, разбират, че тази цена не е приемлива. AI проверителите вярват, че същото важи и за изкуствения интелект.
„Откъде идват данните? Този модел изграден ли е върху практики, нарушаващи авторски права? Работниците справедливо ли бяха компенсирани за работата си? Компетентни ли са да обучават AI модели?“, пита риторично Павловски.
Тези и други подобни въпроси едва сега започват да се задават. И то от малцина.
