US компании се обединяват в консорциум за AI безопасност

Докато американският Конгрес се бави с регулациите за AI, водещите щатски компании и институти се обединиха в консорциум за безопасно разработване на изкуствен интелект (снимка: CC0 Public Domain)

Редица големи американски компании за разработване на системи с изкуствен интелект и голям брой академични институции се обединиха в консорциум, чиято цел е подкрепа за безопасното разработване и внедряване на генеративни системи с изкуствен интелект. Събитието бе оповестено от администрацията на американския президент Байдън.

Новосформираният консорциум за AI безопасност включва повече от 200 организации, сред които голям брой частни компании, университети и институти. По замисъл в обединението трябва да се включат създатели на AI съдържание и потребители на такова, учени и академични институции, правителствени и индустриални изследователи, както организации на гражданското общество, насочени към подкрепа за разработването и внедряването на безопасен и надежден изкуствен интелект.

Министърът на търговията на САЩ Джина Раймондо обяви сформирането на консорциума при Института за безопасност на ИИ на САЩ, наречен AISIC. Той включва OpenAI, Google на Alphabet, Anthropic и Microsoft, Facebook, Apple, Amazon, Nvidia, Palantir, Intel, JPMorgan Chase, Bank of America. Други ключови участници в новото обединение са BP, Cisco Systems, IBM, Hewlett Packard, Northop Grumman, Mastercard, Qualcomm, Visa и редица американски академични институции и правителствени агенции.

„Правителството на САЩ има важна роля в определянето на стандартите и разработването на инструментите, от които се нуждаем, за да смекчим рисковете и да използваме огромния потенциал на изкуствения интелект“, каза Раймондо в изявление. AISIC ще работи за създаване на инструменти, методологии и стандарти за насърчаване на безопасното и надеждно разработване и внедряване на AI.

Групата е натоварена със задачата да работи по приоритетни действия, описани в декрета за изкуствен интелект на президента Байдън от октомври, „включително разработване на насоки за групиране на червени екипи, оценки на способности, управление на риска, безопасност и сигурност и поставяне на водни знаци на съдържание, генерирано от AI“.

Миналата година големите AI компании миналата да поставят водни знаци на съдържанието, генерирано от изкуствен разум, за да направят технологията по-безопасна. Червените екипи пък са звена, каквито се използват от години в сферата на киберсигурността за идентифициране на нови заплахи и рискове.

През декември Министерството на търговията на САЩ заяви, че прави първата стъпка към създаването на ключови стандарти и насоки за безопасно внедряване и тестване на AI. Като част от тази линия на действие консорциумът представлява най-голямото обединение от екипи за тестване и оценка на безопасността на AI. Консорциумът ще се фокусира върху създаването на основи за „нова наука за измерване на безопасността на изкуствения интелект“, според анонса.

Генеративният AI – набор от алгоритми, които могат да създава текст, снимки и видеоклипове в отговор на текстови подкани – предизвика всеобщо вълнение през последната година. Тенденцията породи и опасения, че може да доведе до загубата на работни места, да повлияе на изборни резултати и потенциално да измести хората, което ще доведе до катастрофални ефекти.

Докато администрацията на Байдън се гордее с новосъздаденото обединение, усилията на американския Конгрес за приемане на законодателство, насочено към регулирането на изкуствения разум, продължават да са в застой въпреки множеството форуми на високо ниво и законодателни предложения.

Европа, междувременно, напредва с бавни, но последователни стъпки в тази посока. В началото на декември Европейският парламент, Съветът на ЕС и Европейската комисия обявиха временно споразумение относно Закона за изкуствения интелект на ЕС. Това е първият закон в блока, регулиращ разработването и използването на изкуствен интелект. Нормата се сочи като „един от първите всеобхватни опити в света да се регулира използването на AI“.

Коментар