AI общността се ангажира да не създава роботи-убийци

Автономните смъртоносни оръжия могат да идентифицират човека, да се прицелят в него и да го убият без участието на друг човек в този процес

Фирми и изследователи, работещи в сферата на изкуствения интелект (AI), предприеха конкретна стъпка срещу появата на смъртоносни автономни оръжия, съзнавайки опасността от използването на технологията за военни цели.

Водещи разработчици се подписаха под задължаващ документ „да не участват и да не подкрепят разработването, производството, продажбата и използването на летални автономни оръжия”, съобщи Future of Life.

Към днешна дата подобен ангажимент са поели повече от 160 компании и организации от 36 държави и 2400 лица от 90 държави. Разбира се, всички те са свързани с изкуствения интелект.

В списъка личат имената на Google DeepMind, ClearPath Robotics, Европейската асоциация за изкуствен интелект (EurAI), предприeмачът Илон Мъск, видни специалисти в AI сферата като Стюърт Ръсел, Йошуа Бенджио, Тоби Уолш и др.

В документа фигурира понятието „автономни смъртоносни оръжия” (LAWS) – т.е. оръжия, които биха могли да идентифицират човека, да се прицелят в него и да го убият без участието на друг човек в този процес. С други думи, при LAWS няма човек, който да вземе окончателното решение за убийството – това се прави от самата система.

През август е насрочено заседание на ООН по темата за автономните смъртоносни оръжия. Поддръжниците на ангажимента срещу използване на AI за създаване на роботи-убийци се надяват, че тяхната инициатива ще подтикне ООН да разработи подобно международно споразумение.

Коментари по темата: „AI общността се ангажира да не създава роботи-убийци”

добавете коментар...

  1. Огнян Пеев

    Това решение е недалновидно. Това означава, че други държави начело с Русия, ще придобият превес във военните технологии.

Коментар