
Автоматизацията на работните места и алгоритмичните пристрастия при наемане плашат хората повече отколкото хипотезите за бунт на машините (снимка: CC0 Public Domain)
Страховете на хората от изкуствения интелект се оказаха по-близо до реалността, отколкото холивудските сценарии. Експеримент с участието на 10 000 доброволци установи, че отклоненията на алгоритмите с изкуствен интелект и загубата на работа тревожат хората повече, отколкото фантастичните сценарии за въстание на машините.
Проучване на Университета в Цюрих, проведено сред над 10 000 души в САЩ и Великобритания, установи, че хората не се притесняват от хипотетични „машинни въстания”, а от съществуващи проблеми, като например автоматизация на работните места или алгоритмични пристрастия при наемането на работа.
Изследването разграничава общественото възприятие от популярния медиен образ на изкуствения интелект като неконтролируема сила, заплашваща човечеството, отбелязват експертите.
Учените са провели три мащабни експеримента, като помолили респондентите да оценят различни видове рискове – от катастрофални сценарии до ежедневни предизвикателства, например разпространение на фалшификати чрез невронни мрежи или грешки в медицинските диагностични системи.
Оказва се, че дори след като били изложени на апокалиптични прогнози, участниците запазили повишено внимание към настоящите заплахи. „Хората не свалят гарда си”, коментира политологът Фабрицио Джиларди, един от авторите на изследването. „Те разбират разликата между това, което може да се случи след 50 години, и това, което влияе на живота им сега”.
Парадоксът е, че общественият дебат често се фокусира върху далечни рискове, сякаш игнорирайки проблемите, с които обществото се сблъсква всеки ден. Например, алгоритмите, които контролират кредитните рейтинги или избора на съдържание в социалните медии, могат да засилят социалното неравенство – но за това се говори по-малко, отколкото за хипотетичния „бунт на изкуствения интелект”.
Въпреки това, както показа проучването, този дисбаланс в медиите не пречи на хората сами да си определят приоритетите. „Загрижеността относно настоящите рискове остава стабилна, дори ако на преден план излязат футуристични прогнози”, подчертава съавторът на изследването Ема Хоус.
Изследователите вярват, че данните от проучването ще помогнат за промяна на диалога около изкуствения интелект. Вместо да противопоставят „близки” и „далечни” заплахи, учените ги разглеждат цялостно – като части от една система. Например, разработването на етични стандарти за интелигентни очила, разпознаващи емоции, изисква не само защита на личния живот днес, но и предвиждане на дългосрочните последици за обществото.
С поглед към бъдещето, авторите на изследването отбелязват, че повишената осведоменост за настоящите рискове би могла да ускори прилагането на регулаторни мерки, като например задължително тестване на системите с изкуствен интелект за пристрастия преди пускането им в експлоатация.
В същото време дискусията за бъдещето на изкуствения интелект вероятно ще стане по-съществена, преминавайки от спекулации към анализ на конкретни сценарии – от автоматизация до киберсигурност. Както заключава Джиларди, „технологиите се развиват по-бързо от страховете – и това е възможност да насочим развитието им в интерес на човека”.