TechNews.bg
E-обществоВодещи новиниНовиниТоп новини

Учени ще се опитат да научат AI на морал

Задачата за създаване на „морален AI” е изключително трудна
(снимка: CC0 Public Domain)

Разработчикът на изкуствен интелект OpenAI отпусна безвъзмездна помощ на учени от университета Дюк за проект, наречен „Изследване на морала на AI”. Грантът е част от по-голямо тригодишно финансиране от 1 милион долара, насочено към създаване на „морален AI”.


Главният изследовател на проекта, професорът по практическа етика в университета Дюк, Уолтър Синът-Армстронг, не коментира работата по проекта, който се очаква да приключи до 2025 г. Известно е обаче, че той и колегата му Яна Борг преди това са провели изследване на потенциала на AI като „морален GPS”, който да помага на хората да вземат по-добри решения, отбелязва TechCrunch.

Двамата учени също така създадоха „морално съгласуван” алгоритъм за вземане на решение за донорство на бъбрек и проучиха сценарии, при които хората биха предпочели AI да взема морални решения.

Целта на проекта, финансиран от OpenAI, е да се обучат алгоритми за „предсказване на човешките морални преценки” в сценарии, включващи конфликти „между морално значими характеристики в медицината, правото и бизнеса”.

Задачата за създаване на „морален AI” обаче е изключително трудна, тъй като настоящите AI системи се основават на статистически модели, които се обучават от закономерности в данните и не са в състояние да оценят етичните концепции или да разберат мотивите и емоциите зад моралните решения.


В допълнение, AI често отразява ценностите на западните, образовани и индустриализирани страни, тъй като данните за обучение на AI идват предимно от мрежата, където преобладават статии, подкрепящи тези възгледи. В резултат на това ценностите на много хора не са изразени в отговорите, дадени от AI, а самият AI усвоява редица предубеждения.

Субективността на морала също усложнява задачата за създаване на „морален AI”. Философите са обсъждали достойнствата на различни етични теории в продължение на хиляди години и все още не се е появила универсално приложима рамка.

Например, моделът Claude предпочита кантианството, докато ChatGPT клони към утилитаризма. Един алгоритъм за морални преценки на хората би трябвало да вземе предвид всички тези фактори, което е много висока летва, ако приемем, че такъв алгоритъм е възможен.

още от категорията

7 тенденции в изкуствения интелект през 2026 г.

TechNews.bg

OpenAI се надява на крупна инвестиция от Amazon

TechNews.bg

AI резюметата съсипват труда на кулинарните блогъри

TechNews.bg

AI не се отплаща, но компаниите увеличат разходите си за него

TechNews.bg

Тръмп наема 1000 специалисти за „Технологичната сила“

TechNews.bg

Южна Корея въвежда  всеобхватни регулации за изкуствения интелект

TechNews.bg

Коментари