Американский ученый работает над созданием высокоморальных боевых роботов, которые в будущем могут составить ум, честь и совесть американской армии.
Ни для кого не секрет, что даже самый натренированный и хладнокровный солдат, во время боевых действий может потерять голову и начать валить гражданских направо и налево. Нет, ну правда ведь, кто ему что скажет? Какая к черту Женевская Конвенция, когда у тебя двадцать патронов в обойме, а ты посреди пустыни, не знаешь языка, а под балахоном морщинистая бабушка – божий одуванчик наверняка прячет мачете или еще что похуже, пакет с пластидом, например. И казалось бы, выход один – действительно, поддерживать бравых парней в камуфляже, и давать им, так сказать, неофициальный бриф, о котором никто не узнает. Но вот доктор Рональд Аркин из Технологического института Джорджии считает иначе, он говорит, зачем нам аморальные солдаты, если можно создать высокоморальных роботов.
Аркин всячески продвигает идею внедрения автономных (то есть тех, которые действуют самостоятельно, а не управляются человеком) боевых роботов на поле брани, но надо отдать ему должное, – он предлагает сначала их хорошенько подготовить, т.е. подумать над возможностью наделить эти машины «этическими» алгоритмами. Ученый не считает, что «терминаторы» смогут вести себя безукоризненно с точки зрения морали, однако они уж точно будут почеловечней живых солдат. Обосновывая свое мнение, Аркин ссылается на опрос солдат и матросов, участвовавших в боевых действиях в Ираке: лишь немногим более половины из них считают, что с гражданскими лицами следует обходиться уважительно, в то время как 17% склонны видеть в них повстанцев, а более трети опрошенных в некоторых случаях допускают применение пыток.
Например, Южная Корея и Израиль для охраны пограничной зоны уже используют вооруженные роботизированные машины, но они пока что управляются человеком. Аркин же считает, что «внедрение в армию механических боевых единиц, которые могут принимать решения самостоятельно может быть делом очень дешевым и в то же время прибыльным».
На данный момент ученый вместе с командой работает над алгоритмами восприятия, которыми возможно будут наделены «терминаторы», по его словам, достаточно сложно заставить робота отличать гражданских от военных или, например, оголтелых вооруженных повстанцев от раненных горожан.
Ну, а на последок вспомним сакраментальную сцену из фильма нашего детства:
Джон Коннор: Слушай, ты не можешь убивать людей просто так Терминатор: Почему?
Джон Коннор: Что значит «почему»? Не можешь и все!
Терминатор: Почему?
Джон Коннор: Просто не можешь, ок? Поверь мне,
Комментарии
Подписаться