Цитата дня: почему нельзя создавать оружие с ИИ
Волонтёрская организация Future of Life Institute опубликовала открытое письмо о том, почему нельзя создавать оружие на основе ИИ и почему это станет опасным шагом для всего человечества.
Future of Life Institute занимается просветительской деятельностью об искусственном интеллекте. Письмо, которое представят 28 июля на международной конференции по искусственному интеллекту, уже подписали глава Tesla Motors Илон Маск, сооснователь Apple Стив Возняк, учёный Стивен Хокинг, руководитель DeepMind Демис Хассабис и около тысячи других специалистов.
Future of Life Institute
«Автономные вооружения выбирают и поражают цели без участия человека. К ним относятся, например, вооружённые дроны, ищущие и устраняющие людей по заданным критериям. Но не относятся крылатые ракеты или удалённо управляемые дроны, для которых решения по всем целям принимают люди.
Технологии искусственного интеллекта (ИИ) достигли той точки, на которой развёртывание таких систем — практически, если не юридически — стало возможным в течение нескольких лет, а не десятилетий.
«Ставки высоки: автономные вооружения посчитали третьей революцией в ведении боевых действий после пороха и ядерного оружия»
Множество аргументов приводили и за, и против автономных вооружений. Например, замена людей на машины сократит потери, но снизит порог начала боевых действий. Сейчас ключевой вопрос для человечества — начать или предотвратить мировую гонку вооружений с ИИ. Если любая крупная военная держава начнёт развивать разработку ИИ-оружия, то гонка станет почти неизбежной. Конечная точка этой технологической траектории очевидна: автономное оружие станет [автоматом] Калашникова завтрашнего дня.
«В отличие от ядерного оружия, оно не требует больших затрат и редкого сырья»
Поэтому [ИИ] станет повсеместным и дешёвым для всех значимых военных держав. Только вопрос времени, когда оно попадёт на чёрный рынок, в руки террористов, диктаторов, желающих контролировать свой народ, военачальников, которые хотят провести этнические чистки, и др.
Автономные вооружения идеальны для убийств, дестабилизации [ситуации] внутри страны, подчинения и уничтожения этнических групп. Мы считаем, что военная гонка ИИ-вооружений не станет полезной для всего человечества.
«У ИИ есть много возможностей сделать поле боя безопаснее для людей, особенно для гражданских, и без создания новых инструментов убийства»
Как химики и биологи не заинтересованы в создании химического и биологического оружия, так и исследователи ИИ не имеют интереса в оружии с ним. И не хотят, чтобы другие очерняли их область, формируя общественное мнение против ИИ, ограничивая его пользу для общества. Несомненно, химики и биологи поддержали международные соглашения, запрещающие химическое и биологическое вооружение. Как и большинство физиков поддержали запреты о ядерном вооружении космического базирования и ослепляющих лазерах».
Комментарии
Подписаться