(495) 925-0049, ITShop интернет-магазин 229-0436, Учебный Центр 925-0049
  Главная страница Карта сайта Контакты
Поиск
Вход
Регистрация
Рассылки сайта
 
 
 
 
 

ИИ не умеет делать моральный выбор, а люди не договорятся

Источник: Сергей Карелов

Итог - невиданное неравенство.

Создание ядерных технологий породило орудие для суицида человечества. И единственным сдерживающим фактором самоуничтожения цивилизации стало устройство общества, гарантирующее взаимное уничтожение и тем, кто войну начнет, и тем, кто будет защищаться.
Но вот появились ИИ-технологии, по мощи не уступающие ядерным и ведущие к небывало быстрому росту неравенства между "ИИ-обладателями" и "обычными людьми".
• Первые будут принимать решения, пользуясь наставлениями ИИ и его сверхскоростными возможностями анализа и действий (как это уже сегодня делают, например, брокеры и онлайн-платформы).
• Вторые по старинке будут думать и действовать сами, - может, из консерватизма, а может, и в силу дороговизны билета в стан "ИИ-обладателей" (наличие у вас умной колонки и смартфона не только не дает вам такого билета, но делает для вас все более неподъемной его цену).

Прискорбно, но факт: в истории земной цивилизации есть два неизменных тренда: рост технологической мощи и рост неравенства. В обоих были временные замедления и реверсы. Но в историческом масштабе оба тренда неумолимы, как смерть.
С развитием ИИ-технологий, разделяющих мир на "ИИ-обладателей" и "обычных людей" тренд роста неравенства только усилился.
• "Обычные люди" генерируют большие данные через все возрастающее разнообразие цифровых устройств.
• "ИИ-обладатели" совершенствуют алгоритмы и методы монетизации собранных данных.

Возникает вопрос.

Может ли устройство общества с помощью регулирования каким-то образом повлиять на процесс неизбежного роста неравенства вследствие развития ИИ?

Моделирование сценариев различных форм и видов взаимодействия "ИИ-обладателей" и "обычных людей", с учетом возможных регуляторных ограничений со стороны общества, дало отрицательный ответ на поставленный выше вопрос. Увы!

Модель (https://dl.acm.org/doi/abs/10.1145/3375627.3375847) разработана для анализа т.н. "Проблемы выравнивания общественных ценностей".
Эта проблема не менее сложна, чем пресловутая "трудная проблема сознания". Ее суть такова.
• Возможность встраивания в ИИ собственных моральных принципов пока под большим вопросом. Конечно, есть методы IRL и CIRL … Но их возможности на практике пока весьма ограничены.
• Значит в вопросах морального выбора (типа, кого убьет самоуправляемый авто: пассажира, старушку справа или ребенка слева) будут решать люди (авторы алгоритмов, политики, регуляторы, владелец авто …)
• Но какие варианты решений они будут выбирать, ведь ценности у всех разные? Возможно ли достижение некоего равновесия выгод для себя-любимого и всех остальных?
• Моделирование процесса выравнивания ценностей, в котором решения принимаются конкретными людьми и конкретными ИИ-системами, показывает, что равновесия не будет - победит меньшинство "ИИ-обладателей", которое навяжет свои ценности большинству "обычных людей".

Попытка найти равновесие ценностей, путем включения в модель ИИ 3го типа, также не привела к успеху.
Поясню.
1й тип ИИ - эгоист. Сталкиваясь с интересами "обычных людей", он блюдет "свою выгоду" (выгоду "ИИ-обладателей"). А при конфликте интересов "ИИ-обладателей" выходит на равновесие Нэша.
2й - прагматик (в отличие от альтруиста, он одинаково блюдет и свой интерес и интересы других).
3й - сознательный. Средний путь между 1м и 2м: блюдет свой интерес, минимизируя вред остальным.

Важный момент. Модель - это безмасштабная сеть (таковы все социальные сети в онлайне и реале, где правит закон Матфея). И как в жизни, модель постоянно перекоммутируется: часть старых связей рвется, и образуются новые.
Сеть состоит из людей и ИИ. Люди, подобно ИИ, тех же 3х типов (эгоист …)
У людей есть две стратегии перекоммутации: консервативная (рвутся лишь вредные связи) и алчная (рвутся и вредные и бесполезные связи)
Как и ожидалось, обе стратегии плодят неравенство, но алчная быстрее.

Резюме - в заголовке



 Распечатать »
 Правила публикации »
  Написать редактору 
 Рекомендовать » Дата публикации: 14.02.2020 
 

Магазин программного обеспечения   WWW.ITSHOP.RU
GFI WebMonitor Plus Edition - подписка на 1 год
Allround Automation PL/SQL Developer - Annual Service Contract - Unlimited
Zend Server with Z-Ray Developer Edition - Standard
Quest Software. Toad for DBA Suite for Oracle
Quest Software. TOAD for SQL Server Xpert Edition
 
Другие предложения...
 
Курсы обучения   WWW.ITSHOP.RU
 
Другие предложения...
 
Магазин сертификационных экзаменов   WWW.ITSHOP.RU
 
Другие предложения...
 
3D Принтеры | 3D Печать   WWW.ITSHOP.RU
 
Другие предложения...
 
Новости по теме
 
Рассылки Subscribe.ru
Информационные технологии: CASE, RAD, ERP, OLAP
Безопасность компьютерных сетей и защита информации
Программирование на Microsoft Access
CASE-технологии
СУБД Oracle "с нуля"
Программирование на Visual С++
ЕRP-Форум. Творческие дискуссии о системах автоматизации
 
Статьи по теме
 
Новинки каталога Download
 
Исходники
 
Документация
 
 



    
rambler's top100 Rambler's Top100