Лучшие умы планеты: искусственный интеллект может истребить человечество

В списке сценариев конца света умные роботы-убийцы, способные стереть человечество с лица Земли, находятся довольно высоко. А в научных кругах все больше экспертов по искусственному интеллекту (ИИ) соглашаются с тем, что люди в конце концов создадут искусственный интеллект, который станет умнее их. Момент, называемый сингулярностью, может создать утопию, в которой роботы занимаются работой, а люди отдыхают в райских уголках. Или же это приведет к уничтожению всех форм жизни, которые ИИ посчитает конкурентами за контроль над планетой, – то есть, нас. Стивен Хокинг всегда говорил о последнем варианте и недавно напомнил об этом в интервью BBC. Предлагаем ознакомиться с некоторыми комментариями Хокинга и других гениев, которые считают, что ИИ может стать закатом человечества.

Стивен Хокинг

geektimes-ai-danger-hoking.jpg

Развитие полноценного искусственного интеллекта может предвещать начало конца для людей. Это начнется само по себе и будет самоизменяться с бешеным темпом. Люди, ограниченные медленной биологической эволюцией, не смогут противостоять и будут вытеснены, – говорит известный на весь мир физик. Хокинг уже давно представил свое апокалиптическое видение.

В ответ на фильм о сингулярности с участием Джонни Деппа «Превосходство» ученый раскритиковал исследователей за то, что они ничего не делают для защиты человечества от ИИ: «Если бы превосходящая инопланетная цивилизация отправила нам послание “Мы прибудем через несколько столетий”, разве мы бы ответили, мол, хорошо, позвоните нам, когда Вы сюда доберетесь, двери будут открыты? Вероятно, нет, но это примерно то, что происходит с ИИ».

Илон Маск

geektimes-ai-danger-mask.jpg

Известный своими передовыми технологическими компаниями вроде Tesla и SpaceX, Маск – не фанат искусственного интеллекта. На конференции в MIT в октябре он сравнил использование ИИ с «вызовом демона» и назвал это самой большой и реальной угрозой для человечества. Он также разместил твит о том, что ИИ может быть опаснее ядерного оружия. Маск призвал создать национальное и международное регулирование развития ИИ.

Ник Бостром

geektimes-ai-danger-bostrom.jpg

Шведский философ – директор Института будущего человечества при Оксфордском университете, в котором он провел много времени в размышлениях о потенциальных исходах сингулярности. В своей новой книге «Суперинтеллект» Бостром пишет, что как только машины превзойдут человеческий интеллект, они смогут мобилизоваться и решить молниеносно уничтожить людей, используя множество стратегий (незаметная разработка патогена, переманивание людей на свою сторону или просто за счет грубой силы). Мир будущего будет становиться все более технологическим и сложным, но мы этого не увидим. «Общество экономического чуда и технологической крутизны, в котором никого не будет. Disneyland без детей».

Джеймс Баррат

geektimes-ai-danger-barrat.jpg

Баррат – писатель и документалист, который в своей новой книге «Наше последнее изобретение: искусственный интеллект и конец человеческой эпохи» представляет интервью с философами и исследователями ИИ. Он считает, что умные существа по своей природе собирают ресурсы и выполняют задачи, что, вне сомнений, сделает конкурентами суперумный ИИ и людей – главных потребителей ресурсов на планете. Это означает, что даже машина, которая должна была просто играть в шахматы или выполнять простые функции, может задуматься о другом, если она будет достаточно умной. «Без тщательно продуманных сдерживающих инструкций самосознательная, самосовершенствующаяся целеустремленная система для достижения своих целей будет прогрессировать так, как мы и подумать себе не можем», – пишет автор книги.

Варнор Виндж

geektimes-ai-danger-vindj.jpg

Будучи математиком и научным фантастом, Виндж придумал термин «сингулярность», чтобы описать переломный момент, в который машины станут умнее людей. Он рассматривает сингулярность как необратимое, даже если международные правила будут контролировать развитие искусственного интеллекта. «Преимущества перед конкурентами от автоматизации – экономические, военные, даже культурные – настолько привлекательны, что законы, запрещающие такие вещи, только стимулируют их использование другими», – пишет автор в своем эссе 1999 года. А что же случится, когда мы достигнем сингулярности? «Физическое уничтожение человеческой расы станет единственным вариантом».


Материалы по теме:

http://www.nanonewsnet.ru/…omy/term/713

Пожалуйста, оцените статью:
Ваша оценка: None Средняя: 3.5 (11 votes)
Источник(и):

geektimes.ru