ИнтервьюПочему нельзя пытать «Фёрби»
Отец киберпанка Брюс Стерлинг о робоэтике и эмпатии к искусственному интеллекту
Текст
Ретт Джонс
Каждую неделю Look At Me публикует перевод одной статьи англоязычного издания Hopes&Fears, входящего в издательский дом Look At Media. Сегодняшний текст — интервью с американским фантастом Брюсом Стерлингом, который рассказал, можно ли чувствовать эмпатию к искусственному интеллекту и должны ли быть у него права.
Читайте также:
Многих беспокоит, что искусственный интеллект может восстать против людей. Но чем могут навредить искусственному интеллекту люди? Если человечество создаст искусственный интеллект, способный самостоятельно думать и чувствовать, какие у нас будут перед ним моральные обязательства? Мы поговорили с известным фантастом, отцом киберпанка, авторитетным футуристом и научным журналистом Брюсом Стерлингом о том, должны ли у роботов быть права и должны ли мы очеловечивать технологии. Неудивительно, что человек, который ввёл термин «major consensus narrative», объясняющий синоним слова «правда», смотрит на проблему здраво.
Представьте, вы бы взяли свой iPhone
в руки, а Siri бы сказала «Я ненавижу вас, чтоб вы сдохли»
Как вы думаете, стоит ли нам сопереживать искусственному интеллекту?
Мы ведь можем сопереживать Скарлетт О’Харе из «Унесённых ветром», а она не существует — как и «искусственный интеллект». Существовать могут довольно запутанные программные и аппаратные системы. Вы когда-нибудь морщились от боли, увидев, что кто-то уронил MacBook на жёсткий пол?
Вы бы сопереживали продвинутому искусственному интеллекту, если бы встретились с ним лицом к лицу?
Даже если бы он существовал, лица бы у него не было. Но вообще сопереживать не так сложно. Вот когда в Риме происходит землетрясение, я думаю «Господи, бедный Рим!». Рим — это не человек, но если честно, мне не нравится, когда Рим «страдает».
Насколько мы далеко от того, чтобы создавать реалистичные симуляции человеческих эмоций — таких как страх, грусть, надежда?
На самом деле вы говорите об интерактивных симуляциях в реальном времени. А так и в шекспировском «Гамлете» полно реалистичных симуляций. Вы же говорите о системе, с которой можно взаимодействовать. Она должна уметь разговаривать и, допустим, быть способна напугать вас или угрожать вам. Но зачем ей для этого вести себя как человек? Не было бы гораздо страшнее, если бы вас решила запугать говорящая машина?
Приведу пример. Если я захочу, чтобы вы чувствовали себя лучше, почему бы мне просто не настроить выдачу Facebook таким образом, чтобы в ленту попадали только хорошие новости? Чтобы добиться от вас эмоциональной реакции, Facebook не нужно изображать из себя Скрепыша из Office. Представьте, вы бы взяли свой iPhone в руки, а Siri бы сказала «Я ненавижу вас, чтоб вы сдохли». Даже думать об этом страшно, не правда ли? Но при этом все знают, что Siri — это всего лишь речевой интерфейс корпорации Apple.
Есть немало видео, где люди поджигают «Фёрби», и это довольно неприятно
Есть ли уже устоявшийся свод прав искусственного интеллекта?
Да, специалисты по этике уже много над этим поработали и создали, например, робоэтику.
Вы бы какие права предложили?
Я не специалист по этике, но знаю, что как только вы начнёте систематизировать правила поведения, появятся люди, которые начнут искать изъяны в этой системе.
Такие известные личности, как Илон Маск и Стивен Хокинг, озабочены тем, что люди могут потерять контроль над искусственным интеллектом. А вы слышали о ком-нибудь, кто беспокоится, что к искусственному интеллекту относятся несправедливо?
Конечно, меня это пугает. Я не верю в «искусственные интеллекты», но могу себе представить катастрофу в духе чернобыльской, когда сложные компьютерные системы просто сотрут нас с лица Земли. Поэтому я бы скорее волновался, что люди потеряют контроль над Microsoft, Facebook, Apple, Amazon, Google и над Агентством национальной безопасности США. Их вообще кто-нибудь «контролирует»? Что-то незаметно.
Машине возможно устроить пытку?
Строго говоря, нет, но есть немало видео, где люди, допустим, поджигают «Фёрби», и это довольно неприятно. Видео с ненастоящей пыткой вызывает такое же отторжение, как и видео с настоящей пыткой. С точки зрения этики пытка отвратительна не только потому, что из-за неё страдает объект пытки. Создать систему, которая бы вела себя так, будто её пытают, было бы сущим безумием.
Если мы сможем переложить наш мозг на компьютерную симуляцию, должны ли мы относиться к этой симуляции как к человеку? Должно ли у неё быть право умереть (быть отключённой или удалённой)?
По некоторым основополагающим техническим причинам этого не произойдёт. Но если бы мы это и сделали, то это был бы уже не наш мозг, а компьютер. Это был бы не человек, у которого есть права человека, а компьютер с обыкновенными свойствами компьютера — удалёнными бэкапами, обновлениями программного обеспечения, свопами. Эти люди «умирали» бы в том же смысле, в котором «умер» компьютер Apple IIe. Это были бы существа совсем другого порядка, и для них проблем, с которыми сталкиваются люди, просто бы не существовало.
Комментарии
Подписаться