Изкуственият интелект може да увеличи пет пъти вероятността от глобална пандемия, предупреждават авторите на нов доклад от Rand Corporation. Техните открития се основават на моделиране на сценарии за биотероризъм и течове от лаборатории, подобрени от технологии за генеративен изкуствен интелект.
Проучването, за което съобщава Time, е поръчано от Агенцията за напреднали изследователски проекти в областта на отбраната на САЩ (DARPA) и пряко засяга етиката и регулирането на разработването на големи езикови модели (LLM).
Модели като ChatGPT могат значително да опростят процеса на проектиране и разпространение на биологични оръжия. Авторите на доклада посочват, че изкуственият интелект може да помогне при избора на патоген, синтезиране на ДНК, избор на условия за съхранение и доставка и заобикаляне на съществуващите контроли.
Проучването се основава на оценка на действията на хипотетични нападатели, получили достъп до системи с изкуствен интелект с отворен API, обучени върху материали от научни публикации. Дори с ограничено ниво на техническо обучение, те разполагат с инструкции стъпка по стъпка как да създават опасни агенти – например вируса на едрата шарка.
Ключовият риск е, че изкуственият интелект може да намали „бариерата за навлизане” на престъпниците в биологичните атаки. По-рано подобни действия изискваха висока квалификация и значителни ресурси, но сега подканите от изкуствения интелект могат да компенсират липсата на знания.
Особено опасна е способността на AI, използван от нападателите, автоматично да генерира и тества варианти на биологични агенти с оптимизирани характеристики на инфекциозност и устойчивост. Някои LLM вече могат да избират материали и методи, които имитират научни експерименти.
Rand подчертава, че не става въпрос само за терористични групи, но и за случайни грешки. Лабораториите, използващи изкуствен интелект за ускоряване на изследванията, могат неволно да създадат и освободят опасен патоген в околната среда. Въздействието на подобни течове може да бъде по-голямо от Covid-19, особено при липса на подходящ контрол и етични ограничения.
Докладът обръща специално внимание на необходимостта от регулиране: учените призовават за въвеждане на забрани за достъп до биотехническа информация в LLM, филтри за „биоопасно” съдържание и одит на модели, използвани в научни разработки. Важно е също така да се преосмислят принципите за разпространение на биологични данни в публичното пространство.
Докладът не предоставя окончателен сценарий, но общото му заключение е, че ако развитието на изкуствения интелект продължи, без да се вземат предвид биологичните рискове, вероятността от нова пандемия през следващите десетилетия ще се увеличи експоненциално.
В същото време технологиите, които би трябвало да помагат в лечението и превенцията, могат неволно да се превърнат в катализатор за биологични заплахи, алармират авторите на доклада.
1 коментар
някои кръгове силно са притеснени за алчните си интереси и не искат да се разшири знанията към човечеството. затова дигат толкова врява. всички хора ще станат равни само когато са с еднакви възможности, и то може да се осъществи само с научни и технологични постижения и ИИ които стигат до всеки човек без никакви ограничения и изкореняване на всички алчни същества. иначе демокрацията, правата на човека, хуманността, върховенството на закона, религиити, традициите и други човешки филосовски размишльотини и идиотщини са нищо освен средства за силните на деня.