Учени и обикновени интернет потребители ентусиазирано обсъждат възможностите на изкуствения интелект. Темата стана особено актуална от началото на 2023 година, която определено може да се нарече „година на AI еуфория”.
Несъмнено, невронни мрежи като ChatGPT и Midjourney са интересен и мощен инструмент за работа, но на този ранен етап от развитието им се наблюдават редица недостатъци. Ето 10 от най-очевидните проблеми, с които се сблъскаха потребителите:
1. Изкуственият интелект е твърде слугински
Алгоритмите с изкуствен интелект са като куче, което иска да угоди на стопанина си и да го направи щастлив. Генеративният AI трябва да отговори на подканата, дори ако не е в състояние да направи разумен коментар по темата. Потребителите на ChatGPT вече знаят за какво става дума: ако няма достатъчно фактическа информация в базата от знания, алгоритъмът запълва празнините с това, което смята, че би било правилно.
2. Обучение с остарели данни
Друг съществен проблем е свързан с наборите от данни, върху които се обучава изкуственият интелект. Генеративните AI модели получават огромно количество данни и формират своите отговори въз основа на тях. Но светът непрекъснато се променя и след известно време данните за обучението остаряват. Актуализирането на AI е масивен процес и колкото по-дълго данните не са били актуализирани, толкова по-малко точни са отговорите на невронните мрежи.
3. Изкуственият интелект нарушава авторски права
Плагиатството е реален проблем и резултатът от работата на един генеративен AI модел не може да се нарече по друг начин. Невронните мрежи не са способни на това, което смятаме за оригинална мисъл: те просто комбинират съществуващи данни по различни начини. Резултатът може да е нов и интересен, но не и уникален.
4. Пристрастия и дискриминация
Преди години някои фотоапарати имаха трудности при разпознаване на лицата на афро-американци, докато такъв проблем при потребители със светла кожа не съществуваше. Тогава обучението и тестването на софтуера не отговаряха на изискванията за разнообразие. В резултат на това се появиха проблеми с пристрастията. По същия начин сега непълните данни за обучение на AI могат да изкривят отговорите на невронните мрежи.
5. Неяснота и сложност
В книгата „Машината на хаоса” от Марк Фишър се коментира алгоритъмът за търсене в мрежата. Резултатите от търсенето преминават през толкова много слоеве от алгоритми за машинно обучение, че човек вече не може да надникне в кода и да проследи защо програмата е направила определен избор. Подобна сложност и неяснота се отнасят и за генеративния изкуствен интелект.
6. Повърхностни отговори
Машините са страхотни в пресяването на огромни количества данни и търсенето на общи неща. Но опитите да ги накарате да навлязат по-дълбоко в съдържанието и контекста почти винаги се провалят.
7. Изкуственият интелект се представя за истински човек
Някои генеративни AI модели имат ограничение, вид мярка за сигурност, която им пречи да се представят за други хора. Но не всички разработчици се придържат към това правило, а самата технология е лесна за хакване. Интернет е пълен с гласови разговори между Доналд Тръмп и Джо Байдън с цел измама в Minecraft. И на първо слушане всичко изглежда правдоподобно.
8. Изкуственият интелект лъже
Един генеративен AI модел не може да потвърди дали нещо е факт. Той може да получи данни само от това, с което е бил „нахранен”. Ако тези данни показват, че небето е зелено, тогава невронната мрежа ще генерира истории, в които ще споменава небето с цвят на липа. Все пак по време на сесията това може да се коригира.
9. Изкуственият интелект не носи отговорност
Не е ясно кой е отговорен за произведенията, създадени от генеративния изкуствен интелект. Това може да е човекът, който е написал алгоритмите, или хората, които са създали източниците на данни, за да го обучат. Или може би всичко пада върху раменете на потребителя, който е направил подканите. Въпросът не е решен и в бъдеще това може да създаде проблеми. Ако генеративен AI модел произвежда резултат, който води до правно значими последици, тогава кой е виновен? Трябва да създадем етичен кодекс в тази област.
10. Изкуственият интелект е скъп
Изграждането и обучението на генеративни AI модели не е тривиална задача, а разходите за бизнеса са астрономически. Анализатори изчисляват, че обучението на модел като GPT-3 струва до 4 милиона долара. Помислете за огромните хардуерни разходи: хиляди паралелни графични процесори за обработка на данни. Следването на Закона на Мур ще намали този проблем, но финансовите разходи може да са по-високи, отколкото повечето компании могат да си позволят.