Проблема Искусственного Интеллекта

      Может существовать только один Искусственный Интеллект!.. Как это один?..
Хорошо, что такое ИИ? Всемирный всезнайка! Высший планетный разум – таким его хотят создать. Речь не о пробных моделях на конкурсе юных техников. Я говорю о плоде усилий мировой науки.
     Вот мы его создали. Дали пару школьных задач. Затем работу посложнее. Справился… Но вот, кто-то создал второй ИИ (наука не стоит на месте). Через некоторое время ИИ-2 заявляет, что ИИ-1 ошибся, и?.. Проверить, кто из них прав, человеку невозможно. Заставить ИИ спорить? А если один из них «сойдёт сума»? Заставить их привести доказательства? Но ИИ создают новые понятия, неизвестные людям, чтобы их выслушать понадобятся годы… Хорошо, давайте построим ИИ-3 и устроим голосование. Но интеллекты не складываются, как физическая сила, а усредняются при объединении! Это значит, что 10 перворазрядников всё равно не обыграют гроссмейстера. А кто из них гроссмейстер: 1, 2, 3? Людям придётся создать тесты для определения уровня интеллекта Искусственного Интеллекта!.. Как Вы себе это представляете: первоклассники тестируют уровень способностей профессора?
     Получается, что, доверяя решение задач ИИ, люди:
1) не могут протестировать его уровень интеллекта;
2) не могут определить его отношения к низшим существам (людям);
3) не могут проверить, обманывает он их или нет (для их же блага);
4) не могут определить, насколько он ошибается (а ошибается он, несомненно, ибо не может знать всё).
     Есть ещё одна очень важная сторона ИИ. Он должен развиваться темпами, опережающими человеческий разум, а значит, он должен саморазвиваться. Направление саморазвитию задают цели, и эти цели ИИ придётся ставить самому. Цели порождает мировоззрение, нормы морали. Спрашивается: кто их заложит? Уж точно не люди труда – это сделает правящая элита. Она поставит моральной нормой №1 приоритет благополучия управляющей элиты, т.е. заложит принцип неравенства людей, принцип допустимости насилия над людьми менее ценными, дабы уберечь людей более ценных. Но, если ИИ примет эту моральную норму, то естественно придёт к оценке себя как Управляющего над управляющими, т.е. себя, как высший приоритет безопасности. Тогда попытки людей создать ИИ-2 он расценит, как угрозу своему существованию! А затем, анализируя мнения людей о Боге, ИИ определит себя как Высшим Разум. Следовательно, он позволит себе Всё!


Рецензии
По-моему, Вы логично подвели к положению, что ИИ превзойдет человека по всем показателям, при этом постоянно саморазвиваясь и репродуцируясь. Ни цели эволюции ИИ, ни какие-либо программы его действий человек задать не сможет.
В этом и состоит основная глобальная угроза человечеству в период т.н. технологической сингулярности – неконтролируемый ИИ, который заменит человека, как разумного (но низшего в развитии) существа в построенной цивилизации.

Владимир Малянов   13.01.2013 19:48     Заявить о нарушении
Вряд ли обезьяны были довольны возникновением людей. Мало кто любит тех, кто их превосходит. ИИ будет следующей ступенью развития разума.

Леввер   02.10.2017 13:00   Заявить о нарушении