Сенсационный доклад представила общественности организация Human Rights Watch совместно с Гарвардской школой права

В их 50-страничной работе «Теряя человечность: акция против роботов-убийц» выражен протест против растущей тенденции к технологизации вооруженных сил передовых государств мира, в частности, против создания роботов, способных принимать решение об убийстве без санкции на то человека, или, как их назвали в Human Rights Watch, «роботов-убийц». Доклад вызвал оживленные споры между защитниками и противниками технологий будущего. Давайте посмотрим, есть ли основания опасаться пока не существующих, но потенциально возможных «роботов-убийц».

Авторы идеи утверждают, что решение о разработке таких роботов, которые, кстати, должны в будущем полностью заменить современных солдат, будет принято и реализовано в ближайшие 20-30 лет. В Human Rights Watch таких роботов называют «полностью автономным оружием, способным выбирать и поражать цели без вмешательства в этот процесс человека» и настаивают на необходимости введения предупреждающего запрета на подобные разработки. Подчеркивая опасность, авторы приводят в пример современные эксперименты в Корее, где идея создания солдат-роботов находит поддержку у ученых и правительства.

Доклад «Теряя человечность» является первой крупной публикацией, посвященной полностью автономной робототехнике, представленной негосударственной организацией и опирающейся на обширные исследования в области законодательства, технологии и человеческой этики. В обсуждении доводов доклада приняли участие военные, ученые, философы и юристы. Они попытались оценить автономное оружие с точки зрения военной необходимости, стоимости, политических и этических убеждений.

«Наделение машин правом решать, кому жить, а кому умирать на поле боя, заведет современные технологии слишком далеко. Управление робототехникой человеком необходимо для сведения к минимуму жертв и раненых среди мирного населения», – подчеркивает представитель Human Rights Watch Стив Гуз.

Роботы с искусственным интеллектом не способны принять и осознать человеческую этику и понять ценность человеческой жизни. Для них такие понятия, как «инструкция к действию» и «военная необходимость», заменяют человеческую мораль. Даже если искусственный интеллект будет пытаться подражать человеческой мысли, несоответствие инструкций и реальности повлечет за собой субъективное принятие решений, которые будут далеки от решений и суждений настоящего человека. Кроме того, с точки зрения правомерности полностью автономное оружие противоречит закону Мартенса, запрещающему разработку оружия, не соответствующего нормам общественной этики и морали.

Читать полностью: http://www.km.ru/science-tech/2012/12/1 … elovechest