Когато машинното обучение полудее

Мнозина усетиха проблема – бяха им забранени важни и сериозни публикации
(снимка: CC0 Public Domain)

На 17 март вечерта екипът от модератори, отговорен за наблюдението на съдържанието на YouTube в централата на Accenture в Дъблин, получава съобщение, че офисът затваря. Разпространението на Covid-19 е опасно и фирмата взема трудното решение, че те не може да продължат да работят от офиса на фирмата – едно от онези големи пространства с отворен план, където има стотици бюра в една зала…

Служителите са изпратени вкъщи. Условията на техните договори гласят, че работниците не могат да продължат да вършат работата си дистанционно, макар че става дума за 500 часа видео, качвани всяка минута в платформата. Налице е всеобщата нагласа за приемане на неизбежното, обяснява пред Wired един от работещите в центъра с уговорката да остане анонимен. Той и неговите колеги биват уверени, че ще бъдат подкрепени финансово, докато офисът е затворен.

Тайната армия

Модераторите на YouTube и други подобни големи сайтове са „тайната армия”, която поддържа социалните мрежи сравнително чисти. Зле платени и често преуморени, задължени да изпълняват нечовешки високи норми, те вършат грубата работа по филтрирането на „съмнително” съдържание. Те трябва да преценяват кое съдържание е приемливо според правилата на съответните уебсайтове, доминиращи нашия дигитален свят.

Около 10 000 такива човека работят по продуктите на Google. Около 30 000 са наети за наблюдението на Facebook. През последните две години броят им драстично се е увеличил, защото технологичните компании са подложени на остри критики заради проблемите в своите процеси.

Този внимателен човешки труд често бива омаловажаван от технологичните фирми, промотиращи своите „автоматизирани системи за мониторинг” – ботове, които имат задачата да сигнализират и премахват неподходящо съдържание. Но ето, че сега сме на път да осъзнаем колко са важни хората-модератори.

„Превъртяло” антиспам правило

Много хора в последните дни са забелязали проблема. Опитват се да споделят в социалните медии интересни и важни статии относно коронавируса – при това от авторитетни и уважавани източници – ала публикациите им биват маркирани като спам. Това ядосва и дори вбесява някои потребители.

„Анонимник е докладвал, че мои постове нарушават правилата на общността и те са блокирани. Става дума за споделени статии от BBC по актуалната тема”, изненадан е Огнян Дренски. Той не е единственият. Много хора, които са се опитали да споделят важни, фактически новинарски истории и информация за коронавируса, са видели как публикациите им задействат филтрите на Facebook срещу спам, за да „поддържат стандартите на общността”.

Алекс Стамос, бивш изпълнителен директор на Facebook, пише в Twitter, че това е „антиспам правило”, което „е превъртяло”. „Може би виждаме началото на процеса, в който [машинното самообучение] полудява без човешки надзор”.

Това е проблем, за който Марк Зукърбърг загатва в конферентен разговор на 18 март. „Дори и в най-добрите традиции на свободата на изразяване, отдавна има прецедент, който не позволява хората да стрелят огън в препълнена стая. Мисля, че това е подобно на хората, разпространяващи опасна дезинформация по време на епидемия”.

Добра и лоша информация

Изводът – до който стига и YouTube – е прост: по-добре е случайно/погрешно да се потисне разпространението на „добра” информация, за да се гарантира, че „лошата” информация няма никакъв шанс да тръгне. Екипът на YouTube признава, че „потребителите и създателите на съдържание може да забележат повишен брой премахвания на видеоклипове, включително такива, които… не нарушават правилата”.

Липсва качествен човешки надзор

Хората са вбесени. Нормално е технологичните фирми да разработват системи на база изкуствен интелект за решаване на важните проблеми, казва Джулия Реда, бивш зелен евродепутат, която отдавна се застъпва за по-добър контрол над технологичните фирми. Но, според нея, „технологичните фирми са зле оборудвани – липсва им качествен човешки надзор”.

„Тези съобщения показват, че компаниите за социални мрежи са пределно наясно, че филтрите за ново съдържание са неспособни да разграничат законното от незаконното съдържание. Грешките систематично водят до дискриминация, например защото съдържанието на арабски език е непропорционално маркирано като „терористично”. В ситуации на криза, каквато имаме сега, правителствата и компаниите установяват норми, които в противен случай биха били немислими. Трябва да сме бдителни, за да гарантираме, че те не стават новата норма”, казва Реда.

Вицепрезидентът на Facebook по интегритета Гай Росен скоро обяви, че първоначалният проблем е отстранен. „Възстановихме всички публикации, които бяха премахнати неправилно, включително публикации по всички теми – не само тези, свързани с Covid-19”, оповести той в Twitter на 18 март. „Това беше проблем с автоматизирана система, която премахва връзките към зловредни уебсайтове, но неправилно премахна и много други публикации”.

Много хора обаче му отговарят с примери как алгоритъмът на Facebook ги е известил за „нарушаване на стандартите на общността” дори след като той заявява, че всичко е поправено. Изглежда ще мине още известно време, преди наистина проблемът да бъде поправен. „Фейкбук току що си посипа главата с пепел, че са ми блокирали постове погрешка. Част от тях са възстановили. Приемам извиненията”, сподели Огнян Дренски в своя профил във Facebook на 20 март.

„Това е като всяка друга история за Facebook през последните десет години”, казва Дженифър Коб, научен сътрудник и преподавател в Университета в Кеймбридж, която следи и изучава модерирането на съдържанието. „Казват, че са го поправили, но то все още не работи. Не мисля, че някой може да вярва на способността на Facebook да се справи с това”.

Ограниченият изкуствен интелект

Колкото и да се кълнат, че усъвършенстват алгоритмите, големите технологични фирми все не смогват да направят изкуствения интелект достатъчно интелигентен. „Изкуственият интелект не може – и никога няма да може – да модерира перфектно”, казва Изабел Джерард от Университета в Шефилд, която изучава модерацията на съдържанието в социалните медии.

„Не можете да автоматизирате нещо толкова сложно като човешкото взаимодействие. Виждали сме безброй примери за грешки в модерирането въз основа на изкуствен интелект като премахването на новинарски статии и публикации за Covid-19 през последните няколко дни”, допълва тя.

Коб намира стремежа към по-автоматизирано модериране на съдържанието за „потенциално много обезпокоително”. Тя се тревожи по две причини: първо, предаването на властта от хората към технологиите дава повече власт на платформите за социални медии да решават какво е и кое не е подходящо съдържание – вместо държавния надзор”.

Другото е по-простичък технологичен проблем. „Системите не са готови за такава работа и всъщност не могат да заменят хората”, казва Коб. „Добре установено е, че алгоритмите отразяват пристрастията на своите създатели, в резултат на което са нужни хора-модератори за премахване на някои от най-възмутителните пристрастия”.

Неутолима жажда за печалба

Според Коб, индустрията е достигнала този момент заради неутолимата си жажда за печалба. „Едно от нещата е, че технологичните компании се опитват да преследват мащаба. Те се опитват да станат възможно най-големи. Търсят да лапнат толкова много съдържание, колкото е възможно [да се създаде]. След като достигнат определен мащаб, е много трудно да правят [модерация] с хората, защото трябва да наемат толкова много хора, че им става много скъпо. Затова се обръщат към изкуствения разум, за да се опитат да заменят тези хора и да продължат да преследват мащаба”.

По нейните думи, в ситуации като сегашната светът осъзнава колко е важна човешката роля за развитието на изкуствения интелект. Прогнозата й обаче не е особено оптимистична. „Вероятно ще видим още по-големи проблеми с модерирането на съдържанието, отколкото сме видели досега. И казвам това с ясното съзнание, че има доста проблеми и със самото човешко модериране”.

Коментар