Views Comments Previous Next Search

Цитата дня: Хокинг об искусственном интеллекте будущего

Компьютеры обгонят человека по возможностям интеллекта в течение ближайшего столетия. Такую точку зрения в ходе своего выступления на Zeitgeist 2015 высказал астрофизик Стивен Хокинг, пишет TechWorld.

Стивен Хокинг

учёный

«До сих пор развитие компьютеров подчинялось закону Мура, согласно которому их мощность каждые два года увеличивается вдвое. Человеческий интеллект тоже потенциально может улучшиться, например, за счёт генной инженерии, однако это произойдёт не так быстро».

Цитата дня: Хокинг об искусственном интеллекте будущего. Изображение № 1.

В ближайшие 100 лет компьютеры обгонят нас по интеллекту. Мы должны быть уверены в том, что, когда это произойдёт, цели компьютеров будут совпадать с нашими.

 

«Очень заманчиво считать, что высокоинтеллектуальные машины — это что-то из области научной фантастики. Но думать так — это ошибка, и, возможно, самая опасная из ошибок за всю историю человечества».

 

«Недавние успехи в создании машин на автопилоте, компьютерных ассистентов, а также компьютера, который может выиграть в Jeopardy! (Популярная телевикторина; в России выпускается по лицензии с названием «Своя игра». — Прим. ред.) — всё это симптомы начала „гонки вооружений“ в сфере IT. Эту гонку подпитывают огромные инвестиции и продолжающая расти база теоретических знаний. Но все эти достижения меркнут по сравнению с тем, что ждёт нас в грядущие десятилетия».

 

Успешное создание искусственного интеллекта может стать величайшим успехом в истории человечества. Но если мы не сможем избежать рисков, оно может стать последним из наших достижений.

 

«В среднесрочной перспективе искусственный интеллект может значительно улучшить нашу жизнь, а в долгосрочной перспективе его потенциал безграничен. Как ещё в 1965 году отметил Ирвинг Гуд, сверхумные машины смогут сами совершенствовать себя, достигая так называемой сингулярности. Через какое-то время подобные машины смогут превзойти самых выдающихся финансистов, изобретателей, политиков и потенциально — создать такое оружие, устройство которого мы даже не сможем понять».  

 

В краткосрочной перспективе главный вопрос звучит так: кто будет контролировать искусственный интеллект? Но в долгосрочной перспективе он звучит по-другому: а сможем ли мы его вообще контролировать?

 

«Если во много раз превосходящая нас инопланетная цивилизация вдруг сообщит: „Будем у вас через пару десятилетий“, мы же не ответим им: „Хорошо, позвоните, как доберётесь. Свет выключать не будем“. А именно это сейчас и происходит с искусственным интеллектом». 

Рассказать друзьям
0 комментариевпожаловаться

Комментарии

Подписаться
Комментарии загружаются