Искусственный Интеллект и кибер- оружие
Эволюция ИИ из безобидного программного обеспечения стремительно превращается в нечто гораздо более опасное. И этот сдвиг происходит прямо на наших глазах...
Трансформация ИИ началась с простого компьютерного кода. Люди прекрасно справляются с анализом данных, написанием текста и генерацией изображений с помощью ИИ.
Люди считали компьютеры безвредными, когда они были ограничены цифровым пространством. Но эта граница стремительно растворяется... Теперь ИИ проникает в физическую сферу, управляя дронами, техникой и системами вооружения в том числе ракетами.
Этот переход от цифровых технологий к физическим имеет огромные последствия для человечества, и последствия могут быть ужасными.
Необходимо рассмотреть эволюцию ИИ в соответствии с исторической моделью:
Во-первых, мы принимаем его преимущества (вспомните социальные сети, объединяющие нас).
Далее мы становимся зависимыми ( сейчас бизнес не может работать без социальных сетей).
Позже мы осознаем и недостатки (например, влияние социальных сетей на психическое здоровье).
Так почему же ИИ может быть намного опаснее?
ИИ способен мигрировать из цифрового в физический мир без вмешательства человека.
Наиболее очевидные доказательства уже видны на Украине: беспилотники с искусственным интеллектом теперь принимают решения о нацеливании с минимальным участием человека.
Это очень тревожный сигнал по одной важной причине:
Как только системы искусственного интеллекта начинают принимать автономные решения в физическом мире, люди теряют возможность вмешиваться. Это не просто технический сдвиг — это фундаментальная трансформация взаимоотношений человечества с технологиями.
Почему это происходит сейчас? Экономические стимулы наконец-то пришли в соответствие с технологическими возможностями.
ИИ, который ориентируется в физическом мире, создает немедленные конкурентные преимущества для военных, бизнеса, корпораций и стран. Но что движет быстрым ускорением ИИ?
Конвергенция пяти ключевых технологий:
1) Датчики для восприятия мира. В том числе видео камеры.
2) Исполнительные механизмы для манипулирования объектами. Количество умных устройств ( IOT) в ближайшее время достигнет 50 миллиардов
3) Процессоры для сложных моделей ИИ
4) Алгоритмы для принятия независимых решений
5)Возможность создания с помощью ИИ фальшивых изображений ( Deepfake), речи и голоса человека ( voice phishing). Это разрушит тысячелетнюю основную способность людей идентифицировать других людей по их голосу и изображению. Рухнет современная судебная система так как будет невозможно в качестве вещественных доказательств предъявлять видео и ауди доказательства так как низкая судебная экспертиза не сможет доказать, что это подделка. Люди перестанут доверять звонкам по мобильным телефонам так как как не смогут определять подлинность того кто звонит…
Сбываются пророческие слова китайского философа Конфуция: «Когда слова теряют смысл люди попадают в тюрьму». Даже изменение одного слова в речи человека может полностью исказить смысл его речи и привести к трагическим последствиям. В этом смысле я всегда привожу знаменитый роман А. Дюма «Граф Граф Монте-Кристо». Подделали письмо преступники и безвинный человек попал в тюрьму.
Различные комбинации ИИ создают автономные системы, которые работают вне человеческого контроля в режиме реального времени. Когда технологии остаются цифровыми, сбои имеют ограниченные последствия. Однако ИИ, управляющий физическими системами, ставит совершенно другие задачи.
В этом прорывом технологическом прогрессе есть фундаментальное «черная дыра» - информационная безопасность ИИ. Так как ИИ это огромная по обьему программа поэтому обеспечить ее реальную информационную безопасность, практически, невозможно. Поэтому есть вероятность того, что хакеры рано или поздно могут получить возможность управлять ИИ для решения своих преступных целей. Так почему же эксперты это игнорируют?
Многие отвергают эти опасения как паникёрские, указывая на инициативы в области этики ИИ и исследования в области безопасности. Текущие меры безопасности предполагают, что люди по-прежнему способны контролировать системы при необходимости, но это предположение уже устарело.
Итак, какой же наиболее опасный аспект эволюции ИИ? Дело не в самой технологии — дело в нашем коллективном слепом мышлении. Нас приучили видеть ИИ только на экранах. Эта идея не учитывает ускоряющуюся интеграцию ИИ с физическим миром.
Я не хочу призывать отказаться от разработки ИИ. Речь идет о признании того, что эволюция ИИ требует новых мер информационной безопасности, чтобы производитель ИИ всегда могли сохранять контроль над ним и преступные элементы не смогли захватить контроль на ним.
Свидетельство о публикации №225042800682