(495) 925-0049, ITShop интернет-магазин 229-0436, Учебный Центр 925-0049
  Главная страница Карта сайта Контакты
Поиск
Вход
Регистрация
Рассылки сайта
 
 
 
 
 

Лучшие умы планеты: искусственный интеллект может истребить человечество

В списке сценариев конца света умные роботы-убийцы, способные стереть человечество с лица Земли, находятся довольно высоко. А в научных кругах все больше экспертов по искусственному интеллекту (ИИ) соглашаются с тем, что люди в конце концов создадут искусственный интеллект, который станет умнее их. Момент, называемый сингулярностью, может создать утопию, в которой роботы занимаются работой, а люди отдыхают в райских уголках. Или же это приведет к уничтожению всех форм жизни, которые ИИ посчитает конкурентами за контроль над планетой, - то есть, нас. Стивен Хокинг всегда говорил о последнем варианте и недавно напомнил об этом в интервью BBC. Предлагаем ознакомиться с некоторыми комментариями Хокинга и других гениев, которые считают, что ИИ может стать закатом человечества.

Стивен Хокинг

geektimes-ai-danger-hoking.jpg

Развитие полноценного искусственного интеллекта может предвещать начало конца для людей. Это начнется само по себе и будет самоизменяться с бешеным темпом. Люди, ограниченные медленной биологической эволюцией, не смогут противостоять и будут вытеснены, - говорит известный на весь мир физик. Хокинг уже давно представил свое апокалиптическое видение.

В ответ на фильм о сингулярности с участием Джонни Деппа "Превосходство" ученый раскритиковал исследователей за то, что они ничего не делают для защиты человечества от ИИ: "Если бы превосходящая инопланетная цивилизация отправила нам послание "Мы прибудем через несколько столетий", разве мы бы ответили, мол, хорошо, позвоните нам, когда Вы сюда доберетесь, двери будут открыты? Вероятно, нет, но это примерно то, что происходит с ИИ".

Илон Маск

geektimes-ai-danger-mask.jpg

Известный своими передовыми технологическими компаниями вроде Tesla и SpaceX, Маск - не фанат искусственного интеллекта. На конференции в MIT в октябре он сравнил использование ИИ с "вызовом демона" и назвал это самой большой и реальной угрозой для человечества. Он также разместил твит о том, что ИИ может быть опаснее ядерного оружия. Маск призвал создать национальное и международное регулирование развития ИИ.

Ник Бостром

geektimes-ai-danger-bostrom.jpg

Шведский философ - директор Института будущего человечества при Оксфордском университете, в котором он провел много времени в размышлениях о потенциальных исходах сингулярности. В своей новой книге "Суперинтеллект" Бостром пишет, что как только машины превзойдут человеческий интеллект, они смогут мобилизоваться и решить молниеносно уничтожить людей, используя множество стратегий (незаметная разработка патогена, переманивание людей на свою сторону или просто за счет грубой силы). Мир будущего будет становиться все более технологическим и сложным, но мы этого не увидим. "Общество экономического чуда и технологической крутизны, в котором никого не будет. Disneyland без детей".

Джеймс Баррат

geektimes-ai-danger-barrat.jpg

Баррат - писатель и документалист, который в своей новой книге "Наше последнее изобретение: искусственный интеллект и конец человеческой эпохи" представляет интервью с философами и исследователями ИИ. Он считает, что умные существа по своей природе собирают ресурсы и выполняют задачи, что, вне сомнений, сделает конкурентами суперумный ИИ и людей - главных потребителей ресурсов на планете. Это означает, что даже машина, которая должна была просто играть в шахматы или выполнять простые функции, может задуматься о другом, если она будет достаточно умной. "Без тщательно продуманных сдерживающих инструкций самосознательная, самосовершенствующаяся целеустремленная система для достижения своих целей будет прогрессировать так, как мы и подумать себе не можем", - пишет автор книги.

Варнор Виндж

geektimes-ai-danger-vindj.jpg

Будучи математиком и научным фантастом, Виндж придумал термин "сингулярность", чтобы описать переломный момент, в который машины станут умнее людей. Он рассматривает сингулярность как необратимое, даже если международные правила будут контролировать развитие искусственного интеллекта. "Преимущества перед конкурентами от автоматизации - экономические, военные, даже культурные - настолько привлекательны, что законы, запрещающие такие вещи, только стимулируют их использование другими", - пишет автор в своем эссе 1999 года. А что же случится, когда мы достигнем сингулярности? "Физическое уничтожение человеческой расы станет единственным вариантом".



 Распечатать »
 Правила публикации »
  Написать редактору 
 Рекомендовать » Дата публикации: 09.07.2015 
 

Магазин программного обеспечения   WWW.ITSHOP.RU
GFI FaxMaker и 1 год поддержки (10-49 лицензий)
Panda Global Protection - ESD версия - на 1 устройство - (лицензия на 1 год)
IBM DOMINO COLLABORATION EXPRESS AUTHORIZED USER ANNUAL SW SUBSCRIPTION & SUPPORT RENEWAL
Quest Software. Toad for DBA Suite for Oracle
SmartBear AQtime Pro - Node-Locked License (Includes 1 Year Maintenance)
 
Другие предложения...
 
Курсы обучения   WWW.ITSHOP.RU
 
Другие предложения...
 
Магазин сертификационных экзаменов   WWW.ITSHOP.RU
 
Другие предложения...
 
3D Принтеры | 3D Печать   WWW.ITSHOP.RU
 
Другие предложения...
 
Новости по теме
 
Рассылки Subscribe.ru
Информационные технологии: CASE, RAD, ERP, OLAP
Безопасность компьютерных сетей и защита информации
Программирование на Microsoft Access
CASE-технологии
Программирование в AutoCAD
СУБД Oracle "с нуля"
eManual - электронные книги и техническая документация
 
Статьи по теме
 
Новинки каталога Download
 
Исходники
 
Документация
 
 



    
rambler's top100 Rambler's Top100