До 2010 году США планируют потратить 4 млрд долларов на разработку боевых роботов, которые не будут способны испытывать страх и мстить, что позволит снизить угрозу военных преступлений. В исследовательскую группу специально приглашен британский эксперт по робототехнике, который будет следить, чтобы создание автоматических бойцов не противоречило Женевской конвенции: она требует, чтобы решение о применении оружия принимал человек, напоминает "Газета".
Руководство Пентагона обеспокоено результатами недавнего исследования, которое показало, что солдаты, испытавшие стресс в результате военных операций в Ираке, склонны к мести и применению пыток. В своем отчете исследователь из Технологического института штата Джорджия Рональд Аркин, разрабатывающий программное обеспечение для армии, указал, что роботы на поле боя могут вести себя пусть и не идеально, но все же более этично, нежели люди.
- Шесть правил, которые не дадут роботам поработить человечество
Уже сейчас в Афганистане и Ираке американские военные активно используют беспилотные аппараты для нанесения воздушных ударов, а также роботизированные машины для разминирования. Однако существующее поколение роботов дистанционно управляется человеком. Эффективный боевой робот остается мечтой Пентагона уже 30 лет, а скептики говорят, что для создания полноценных искусственных солдат понадобится еще столько же.
Напомним, что в феврале Исследовательский центр ВМФ США предложили гуманный принцип использования боевых машин: они должны уничтожать только себе подобные механизмы. Теперь же исследователи пытаются разработать робота-солдата, который сможет самостоятельно идентифицировать и уничтожать вражеские цели, не нанося вреда мирным объектам и гражданским лицам.
"Эти новые солдаты не бывают голодными, они никогда никого не боятся, - рассказывал еще в 2005 году Гордон Джонсон, сотрудник Объединенного командования Пентагона. ? Эти солдаты не забывают о приказах, и их не волнует, что солдата, соседнего с ними в строю, только что застрелили. Будут ли они делать свою работу лучше, чем люди? Безусловно".
По мнению американского философа Колина Аллена, автора книги "Моральные машины: учим роботов отличать добро от зла", ученым необходимо ответить на вопрос: возможна ли разработка подобного оружия, которое способно подчиняться военным законам и будет при этом соблюдать нормы морали?
Аллен считает, что необходимо программировать роботов с учетом этических норм. "Это нужно продумать заранее, - говорит он. - Хотя и сейчас у нас есть компьютеры, которые могут принимать решения. Например, они подтверждают или отклоняют операции по кредитным картам, а также используются в медицине".
А вот профессор Шеффилдского университета Ноэл Шарки резко отрицательно относится к роботам-солдатам. "От одной мысли о подобном у меня мурашки бегут по коже. Сама идея робота, который принимает решение об уничтожении человека, просто ужасна", - говорит он.
В то же время Шарки не имеет ничего против роботов-полицейских, вооруженных нелетальным оружием. Ранее ученый заявлял, что к 2040 году на улицах британских городов полицейских заменят "робокопы".
Российская армия в ближайшее время использовать самостоятельных роботов-убийц не планирует. В 2006 году Верховный главнокомандующий Владимир Путин, отвечая на вопрос интернет-сообщества о том, "собирается ли Российская Федерация использовать для обороны своих рубежей огромных боевых человекоподобных роботов", заявил: "Может быть дойдет дело и до роботов, но без участия человека это невозможно, главное - это пограничник".