Кого убить, кого помиловать: ученые разработали нормы морали для беспилотных автомобилей при ДТП

Дата: 05 июля 2017, 09:35

автомобиль, беспилотный автомобиль, мораль, ДТП

Беспилотные автомобили вскоре смогут принимать моральные и этические решения в безвыходных ситуациях точно так же, как это делают люди. Это снимает проблему морального выбора, которая может иметь место в дорожной ситуации.

Может ли беспилотный автомобиль быть нравственным, действовать как человек или хотя бы иметь модель поведения, которую люди ожидают от людей? Новое исследование выявило, что человеческая мораль может быть смоделирована и это значит, что компьютерные решения на базе человеческой морали в принципе возможны.

Исследования, проведенные учеными Института когнитивной науки Оснабрюкского университета, использовало виртуальную реальность для моделирования поведения человека в ДТП. Участники вели машину в пригородном районе в туманный день. Им моделировали ситуацию неизбежного ДТП и водителям надо было выбирать, кому сохранить жизнь, какой объект должен пострадать. Ислледование показало, что моральные решения в неизбежном ДТП могут быть хорошо смоделированы с учетом ценности человеческой жизни, жизни животного или ценности неодушевленного объекта.

По мнению автора исследования Леона Сютфельда до вих пор считалось, что моральные решения зависят от контекста и не могут быть смоделированы и описаны алгоритмически. Но ученые доказали, что моральное поведение может быть описаны алгоритмами, которые понимает компьютер.

Это исследование важно, поскольку ставит точку в дебатах о том, может ли беспилотник принимать в неизбежной ситуации правильное решение, как и человек. Однако вопрос в том, долна ли машина имитировать поведение человека в случае неизбежной аварии. Например, сейчас в Германии по этическим принципам бегущий по дороге ребенок классифицируется как объект, создающий риск и имеющий поэтому меньший приоритете на спасение, чем стоящий на тротуаре непричастный взрослый. Но поддерживает ли такую моральную ценность большинство и насколько велика вероятность интерпретации ситуации?

Поэтому по-прежнему остается дилема — стоит ли включать моральные ценности в принципы поведения машин и должны ли машины действовать, как люди. Авторы исследования говорят, что мы находимся сейчас в начале новой эпохи и необходимы четкие правила. Иначе машины начнут принимать решения без нас.

The post Кого убить, кого помиловать: ученые разработали нормы морали для беспилотных автомобилей при ДТП appeared first on РИА АМИ.

Powered by WPeMatico

Яндекс.Метрика