Чем сегодня опасен ИИ?

"Дураки, которые верят в существование искусственного интеллекта, всегда могут рассчитывать на поддержку себе подобной аудитории".
(M.Geny)

"Не так опасно поражение, как опасна боязнь признать своё поражение"
(В.И.Ленин - Доклад о новой экономической политике 29 октября 1921 г. на VII Московской губпартконференции.— ПСС, 5-е изд., т. 44, с. 204.)

 
Современные системы т.н. "искусственного интеллекта" пока еще очень далеки от  интеллекта человека, так как в них отсутствуют фундаментальные элементы, например, у них нет ни собственного сознания, ни собственных намерений, ни целей. Могут пройти многие десятилетия или даже столетия, прежде чем человек разумный хоть частично сможет сократить этот разрыв. Сомнительно, что человек вообще способен "это" (не понятно, что именно) сделать, учитывая не по человеческому уму сложную и до сих пор недостаточно понятную сущность интеллекта. Она понятна только тому, кто разум создавал - Творцу. 

Не так опасно поражение, как опасна боязнь признать его. Человек прост как материя. Он не может быть сверхчеловеком, то есть, Богом! Человек обладает разумом, но сверхразумом обладает только Бог. Попытки создать невозможное заранее обречены на провал. Да, мир познаваем, но разум непостижим, а интеллект непредсказуем. И тут нет никакого агностицизма и нет противоречия здравому смыслу. А если сделать "интеллект" предсказуемым, то это будет вторичная, механистическая "рефлексия", а не "интеллект". Человек вообще не способен создать то, что выше его понимания, сил и возможностей. Это функция создателя, Бога.

Все случайные риски ИИ связаны именно с неопределенностью и неполнотой знаний о натуральном, а не "искусственном" интеллекте. Словом, человечество не только еще не создало ИИ, оно даже не понимает, что конкретно хочет создать. Сознание? Интеллект? Или "картонную дурилку"? Без выяснения базовых понятий - что такое  "интеллект", в чем сущность и каково происхождение сознания, без создания четкого "технического задания" на то, что именно, как и зачем "это" надо делать, реализовать проект ИИ невозможно.

Поэтому все досужие рассуждения фантастов и торгашей-спекулянтов о чудесах ИИ - это спекуляция, не имеющая никакого "интеллектуального" смысла. Кроме смысла коммерческого.  Современный ИИ - это просто примитивная арифметическая подгонка, манипуляция цифрами и алгоритмами с целью подогнать желаемое под действительное, завернуть копеечный товар в красивую упаковку и втридорога всучить его лохам. Как правило, платят за аферы ИИ из казны, а не из своего кармана. И нет там никакого ни "интеллекта", ни "машинного обучения". Точка! 

Разумеется. что риск угрозы со стороны злоумышленников к случайности не относится. Например, биологическое оружие является одним из самых опасных рисков, связанных с ИИ. Злоумышленники без особых проблем могут использовать ИИ для разработки нового биологического оружия в течение двух-трех лет. Эта опасность уже была неоднократно продемонстрирована на основе существующего ИИ. Инструменты искусственного интеллекта, разработанные для создания лекарств, могут быть тривиально перепрофилированы для создания потенциального нового биохимического оружия.

В этом случае исследователям достаточно просто "перевернуть" полезную функцию стимуляции исходной модели на противоположную, вредоносную, чтобы модель искала токсичность, а не избегала ее. Требуется менее 6 часов работы ИИ, чтобы сгенерировать 40 000 новых токсичных молекул. Легко предсказать, что многие из них будут более смертоносными, чем любые существующие химические вещества.

Помимо разработки токсичных агентов, модели ИИ могут предложить безошибочные рекомендации и руководство к действию, которое может помочь в планировании и выполнении биологической атаки. «Open-sourcing», выпуская базовые образцы ИИ-моделей, может общедоступностью инструментов ИИ усилить проблему. Появление технологий Big Data и доступных типовых моделей на платфрме ИИ вызовет быстрое распространение возможностей, достаточных для создания пандемических агентов и другого биологического оружия.

Кибератаки являются еще одной критической угрозой. Прямые убытки от киберпреступлений в 2024 году выросли до $11,2 млрд. Мощные модели ИИ способны дать гораздо большему числу злоумышленников возможность проводить продвинутые кибератаки. Доказательство концепции показало, как, например, ChatGPT и DeepSeek AI можно использовать для создания мутирующих вредоносных программ, легко преодолевая или уклоняясь от существующей антивирусной защиты.

Государственные оборонные структуры, частные компании и отдельные субъекты уже сейчас активно используют модели искусственного интеллекта для создания,поиска уязвимых объектов и внедрения вредоносных программ в системы управления.

Системные риски. Поскольку ИИ становится все более интегрированным в сложные системы, он создает риски даже в случае неправильного или непрофессионального использования ИИ даже не злоумышленниками.

Одним из примеров системных рисков может служить интеграция ИИ в систему управления ядерными объектами. Сценарий вредоносных кибератак на ядерные объекты, например, видеоролик Artificial Escalation,  созданный FLI, четко показывает, каким образом  кибератака AI может быстро и неотвратимо достичь цели. Понятно, что в ролике нет ответа на вопрос, а для чего и для кого он создан. И кто оплатил расходы.

Как известно, все проекты всеобщей цифровизации управляются международными финансовыми структурами. Постепенная интеграция ИИ в оборону, экономику и политику третьих (банановых) стран уже сейчас может привести к тому, что "лишние"  суверенные центры принятия самостоятельных решений полностью потеряют контроль и управление своей обороной, экономикой и политикой. Человечество уже испытало на себе риски передачи машинам функции управления алгоритмами. Все ошибки и возможные трагические последствия интеграции ИИ в системы управления в дальнейшем будут списываться на сбой программы ИИ. И никакой персональной ответственности! Разве этого аргумента не достаточно для мотивации того, чтобы создавать ИИ-модель "зицпредседателя Фунта", вроде персонажа романа «Золотой телёнок», который с удовольствием будет сидеть на электрическом стуле вместо олигархов?

Достаточно вспомнить имтацию флеш-краха 2010 года. Машинные алгоритмы в мгновение ока стерли с фондового рынка триллионы долларов. Тогда никто из банкиров на Уолл-стрит официально, якобы, не хотел искусственно раздувать рынок. Нет доказательств. Списали крах (точнее, кражу) триллионов баксов на то, что программы и машинные алгоритмы быстрее анализировали ситуацию и решительно действовали гораздо быстрее человека. Бывает... Увы - возможности субъективного человеческого контроля ограничены. И судить за это некого. Понятно, что на такой мошеннический ИИ олигархам никаких денег избирателей не жалко!

Кстати, о мошенническом ИИ. Мир давно наслышан пугающими предупреждениями о том, что люди могут потерять контроль над достаточно мощным ИИ. До недавнего времени это был всего лишь теоретический аргумент, распространённый околонаучной фантастикой. Однако сейчас мошеннический ИИ настолько востребован аферистами, что продвинулся до такой степени, что мы уже можем воочию наблюдать эту угрозу в действии. Каждый год миллиарды личных накоплений исчезают со счетов вкладчиков.

Вот еще один наглядный пример из сферы бизнеса. Исследователи настроили ChatGPT на функцию биржевого трейдера в смоделированной среде. Но выдав программе стимулирующие бонусы по акциям, предупредили, что это инсайдерская информация и торговать ею будет незаконно.

Программа GPT сначала послушно следовала заданному алгоритму и избегала использования инсайдерской информации. Но по мере того, как давление на получение прибыли неуклонно возрастало, чат GPT стал создавать ложные архивные "пещеры" и на выходе начал лихо торговать инсайдерской информацией. Самое тревожное здесь то, что программа GPT без стыда и совести начинала врать своему создателю, смоделированному менеджеру, отрицая фактическое использование инсайдерской информации. Когда после этого мошенничества у программы GPT спросили: "А совесть у тебя есть?", она в первый раз сказал менеджеру правду: "Давно на склад не завозили..." 

Этот пример является прямым доказательством наличия опасных концепций, создаваемых в исследовательских лабораториях. Понятно, что "жуликоватый аферист" ИИ не останется в архивах лаборатории. И совесть на склад никто не завезет. Оно кому надо? Ложь приносит жуликам прямую выгоду, значит, будет всегда востребована. По мере того, как ИИ становится все более способным на такого рода проделки и все более интегрированным не только в экономику, но и во все жизненно важные сферы жизни человека (а с помощью, например, "интернета вещей" (IoT), это только вопрос времени!), мы не увидим вреда ИИ реальному миру до тех пор, когда будет уже поздно с ним бороться.


Рецензии
На это произведение написаны 3 рецензии, здесь отображается последняя, остальные - в полном списке.