
Вече няма разработчик на AI приложения, който да се хвали с чатбот – днес всички говорят за AI агенти. Това е новата тенденция – алгоритмите трябва не само да ни отговарят, но и да ни вършат работа. Прекрасно е, ала еуфорията около новото ниво на ефективност може да ни разсее и да ни попречи да видим капаните, които не бива да бъдат пренебрегвани.
Визията е вълнуваща: интелигентни софтуерни агенти действат като дигитални колеги, резервират полети, насрочват и пренасрочват срещи, документират разходи и говорят помежду си, за да свършат работата, която ни е в тежест.
Но ако не внимаваме, ще провалим цялата идея, преди да има шанс да донесе реални ползи. Както при много технологични тенденции, съществува риск свръхрекламирането да изпревари реалността.
Готови ли сме да се доверим на AI агентите?
Нека започнем със самия термин „AI агент“. В момента той се използва за какво ли не – от прости скриптове до сложни AI работни процеси. Няма общо определение, а това дава на компаниите широко поле за изява: те могат да предлагат базова автоматизация като нещо много усъвършенствано.
Този вид хвалене не само обърква потребителите; той води до разочарование. Това не значи непременно, че се нуждаем от твърд стандарт, но все пак ни трябват по-ясни очаквания за това какво следва да правят AI агентите, колко автономно работят и колко надеждно се представят.
А надеждността е следващото голямо предизвикателство. Повечето от днешните агенти се базират на големи езикови модели (LLM), които генерират вероятностни отговори. Тези системи са мощни, но са и непредсказуеми.
LLM могат да измислят неща, които да ни отведат встрани от правия път или с фини малки изменения да ни докарат до провал – особено когато са помолени да изпълняват многоетапни задачи, като използват външни инструменти и свързват LLM отговори.
Неотдавнашен пример: потребителите на популярен AI асистент за програмиране били уведомени от автоматизиран агент за поддръжка, че вече не могат да използват софтуера на повече от едно устройство. Това е голямо разочарование за софтуеристите, нали? Стотици потребители анулирали абонаментите си. Но в крайна сметка се оказа, че подобна политиката не съществува. Някой AI агент я е „измислил“.
В корпоративни условия подобна грешка може да причини огромни щети. Трябва да спрем да третираме AI агентите като самостоятелни продукти и да започнем да изграждаме цялостни системи около тях – системи, които отчитат несигурността, наблюдават резултатите, управляват разходите и вграждат предпазни мерки за безопасност и точност.
Тези мерки могат да помогнат да се гарантира, че резултатът отговаря на изискванията, изразени от потребителя, спазва политиките на компанията относно достъпа до информация, зачита въпросите, свързани с поверителността, и т.н. Някои компании вече работят в тази посока, обгръщайки езикови модели в по-обмислени, структурирани архитектури.
Интеграцията на AI агентите
Въпреки всичко дори най-умният агент няма да бъде полезен във вакуум. За да работи агентският модел, различните агенти трябва да си сътрудничат (да резервират пътуването ни, да проверяват времето, да подават отчета за разходите) без постоянен човешки надзор.
Тук се намесва A2A протоколът на Google. Той е предназначен да бъде универсален език, който позволява на агентите да споделят какво могат да правят и да разпределят задачите. По принцип това е чудесна идея.
На практика, A2A все още не е достатъчен. Той определя как агентите общуват помежду си, но не и какво всъщност имат предвид. Ако един агент каже, че може да предостави „ветрови условия“, друг трябва агент да разгадае дали това е полезно за оценка на времето по маршрута на полета.
Без споделен речник или контекст, координацията става почти невъзможна. Виждали сме този проблем и преди в разпределените изчисления. Решаването му в голям мащаб далеч не е лесно.
Кооперативността
Съществува и предположението, че агентите са естествено кооперативни. Това може да е валидно в екосистемата на един разработчик, но в реалния свят агентите ще представляват различни доставчици, клиенти или дори конкуренти.
Например, ако един агент – такъв за планиране на пътувания – изисква ценови оферти от друг агент – такъв за резервации на самолетни билети – те може да не се разберат добре, защото единият ще предпочита най-ниската цена, а другият – по-луксозната оферта.
Без някакъв начин за съгласуване на стимулите чрез договори, плащания или механизми за синхронност очакването на безпроблемно сътрудничество може да се окаже само напразна надежда.
Перспективи
Нито един от тези проблеми не е непреодолим. Може да се разработи споделена семантика. Протоколите могат да се развиват. Агентите могат да бъдат научени да преговарят и да си сътрудничат по по-сложни начини.
Но тези проблеми няма да се решат от самосебе си и ако ги игнорираме, терминът „агент“ ще поеме по пътя на други свръхекспонирани технологични термини. Това е предупредителен знак.
Не бихме искали еуфорията да прикрие капаните, само за да позволи на разработчиците и потребителите да ги открият по „трудния начин“ и да натрупат негативен опит. Това би било жалко.
Потенциалът е реален. Но трябва да съчетаем амбицията с добре обмислен дизайн, ясни дефиниции и реалистични очаквания. Ако можем да направим това, агентите няма да бъдат просто поредната мимолетна тенденция; те биха могли да се превърнат в гръбнака на начина, по който вършим нещата в дигиталния свят.
