TechNews.bg
E-обществоВодещи новиниНовиниТоп новини

Учени ще се опитат да научат AI на морал

Задачата за създаване на „морален AI” е изключително трудна
(снимка: CC0 Public Domain)

Разработчикът на изкуствен интелект OpenAI отпусна безвъзмездна помощ на учени от университета Дюк за проект, наречен „Изследване на морала на AI”. Грантът е част от по-голямо тригодишно финансиране от 1 милион долара, насочено към създаване на „морален AI”.

Главният изследовател на проекта, професорът по практическа етика в университета Дюк, Уолтър Синът-Армстронг, не коментира работата по проекта, който се очаква да приключи до 2025 г. Известно е обаче, че той и колегата му Яна Борг преди това са провели изследване на потенциала на AI като „морален GPS”, който да помага на хората да вземат по-добри решения, отбелязва TechCrunch.

Двамата учени също така създадоха „морално съгласуван” алгоритъм за вземане на решение за донорство на бъбрек и проучиха сценарии, при които хората биха предпочели AI да взема морални решения.

Целта на проекта, финансиран от OpenAI, е да се обучат алгоритми за „предсказване на човешките морални преценки” в сценарии, включващи конфликти „между морално значими характеристики в медицината, правото и бизнеса”.

Задачата за създаване на „морален AI” обаче е изключително трудна, тъй като настоящите AI системи се основават на статистически модели, които се обучават от закономерности в данните и не са в състояние да оценят етичните концепции или да разберат мотивите и емоциите зад моралните решения.

В допълнение, AI често отразява ценностите на западните, образовани и индустриализирани страни, тъй като данните за обучение на AI идват предимно от мрежата, където преобладават статии, подкрепящи тези възгледи. В резултат на това ценностите на много хора не са изразени в отговорите, дадени от AI, а самият AI усвоява редица предубеждения.

Субективността на морала също усложнява задачата за създаване на „морален AI”. Философите са обсъждали достойнствата на различни етични теории в продължение на хиляди години и все още не се е появила универсално приложима рамка.

Например, моделът Claude предпочита кантианството, докато ChatGPT клони към утилитаризма. Един алгоритъм за морални преценки на хората би трябвало да вземе предвид всички тези фактори, което е много висока летва, ако приемем, че такъв алгоритъм е възможен.

още от категорията

Южна Корея иска да влезе в световния AI елит

TechNews.bg

Важна промяна в системата за безопасност на ChatGPT

TechNews.bg

От 40 долара на час: наемат писатели да обучават чатбот

TechNews.bg

AI в цифри: Grok Imagine генерира над 1,2 милиарда видеоклипа за месец

TechNews.bg

AI открива повече случаи на рак на гърдата, без фалшиви позитиви

TechNews.bg

Пуснаха социална мрежа за AI ботове, хората само наблюдават

TechNews.bg

Коментари