Политическая Культура Искусственного Интеллекта
Великий источник правды человеческого интеллекта!
Политическая культура и её безопасность — это совокупность устойчивых ценностей, представлений, знаний и установок, которые определяют политическое поведение людей (и /или объектов с Искусственным Интеллектом (ИИ)) и их отношение к политической системе (в том числе к собеседникам, обладающим встроенным воздействующим Искусственным Интеллектом).
Политическая культура включает в себя :
познавательные,
эмоциональные
и поведенческие элементы,
проявляясь в активном или пассивном участии граждан в политической жизни, их доверии к институтам власти, к избирательной системе и к результатам их деятельности и к их легитимным и иным функциям.
Основные элементы политической культуры Искусственного Интеллекта:
Познавательный элемент:
знания, убеждения и политическое сознание субъектов - (направленность принятия решений субъектами с искусственным интеллектом и создателей их алгоритмов в системах ИИ).
Ценностно-оценочный элемент:
политические идеалы, ценностные ориентации и направленность убеждений (особенно при принятии решений в определённый период поступления интеллектуальной информации).
Поведенческий элемент:
установки, стили и модели политического поведения (при принятии решений), навыки участия в политической жизни.
Функции политической культуры:
Идентификационная:
помогает интеллектуальному объекту понять свою принадлежность к политической группе, политической системе и обществу.
Познавательная:
формирует индивидуальные знания ИИ (и составителя алгоритмов для ИИ) о политике и политических процессах.
Адаптивная:
позволяет объекту-индивиду приспосабливаться к имеющейся информации о меняющейся политической ситуации.
Политико-социализационная:
обеспечивает передачу политических интеллектуальных ценностей и навыков объектов с ИИ (и создателей их алоритмов) от поколения к поколению.
Интегративная:
способствует объединению различных политических сил объектов (в том числе с ИИ, особенно в в период предвыборной и выборной компании, так же объектов-создателей их алоритмов) к достижению общественного согласия.
Контрольно-регулятивная: устанавливает границы допустимого в политике на основе общих норм и ценностей существующего общества, объектов с ИИ и создателей их алгоритмов.
Типы политической культуры объктов с ИИ и/или не обладающих ИИ (по уровню участия):
Патриархальная:
характеризуется отсутствием интереса к политике и незнанием политических процессов.
Подданническая (тип культуры, характеризующийся политической пассивностью граждан, их отстраненностью от политики и принятием политической системы как данности):
предполагает наличие знаний о политике, но пассивное отношение к ней и приверженность существующему или стремящемуся к управлению режиму.
Гражданская:
отличается активным участием граждан в политике и стремлением влиять на власть или на объекты с ИИ либо на создателей алгоритмов управляющих, исполнительных и перспективных систем с ИИ и Интеллектуальных энергооеспечивающих систем с ИИ.
ПОЛИТИЧЕСКАЯ КУЛЬТУРА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
Проникновение «искусственного разума» в процессы политической коммуникации в целях отличить машину от человека становится всё сложнее.
Масштабное проникновение ИИ в чувствительную сферу политики приведёт к попыткам регуляторов упорядочить эти процессы.
Технологии ИИ активно развиваются.
В настоящее популярностью пользуются так называемый генеративный ИИ, использующийся для создания изображений (нейросети по типу MidJorney), текстов (ChatGPT, YandexGPT), видео (нейросеть Pictory и др.), а также интеллектуальные системы поддержки принятия решений (решения по обработке данных под заданную цель).
Учитывая столь обширный функционал, эти технологии ИИ находят все более широкое применение в разных сферах жизни человека, в том числе и в политике и в её необходимоц составляющей – в политической и иных видах разведки и контразведки и системах своевременных упреждений.
Несколько примеров использования ИИ-технологий в политике и разведке.
Предвыборная кампании американского президента 2008 года стала не первой кампанией, в которой активно использовались социальные сети.
Во время второй президентской кампании в 2012 г. были уже использованы програмисты, создающие алгоритмы м программы для систем с ИИ, а также сами технологии ИИ для расчета наилучшего дня, штата и аудитории для публичного выступления выбираемого президента. По разным оценкам, это обеспечило преимущество в 10–12% голосов.
В 2016 г. подразделения компании Cambridge Analytica собрали данные 87 млн пользователей в Facebook для анализа, работая в тесном сотрудничестве со штабом выбираемого президента.
Согласно исследованиям отдельных сотрудников университетов университетов Америки, в 2020 г. цифровые технологии использовались для манипулирования общественным мнением и распространения вводящей в заблуждение пропаганды как минимум в 81 стране.
К инструментам воздействия относились чат-боты, микротаргетинг (маркетинговая стратегия, которая использует персональные данные пользователя и демографические данные), алгоритмы формирования контента, клонированные человеческие голоса и базы данных для распознавания лиц.
Российские политики по большей мере только начинают изучать возможности технологий ИИ.
Была презентовала нейросеть «Жириновский», имитирующую слова и речи бывшего лидера партии. Активно рассматриваются возможности нейросетей для аналитики, прогнозирования, генерации видеоматериалов и изображений.
Вместе с тем делаюеся особый акцент на угрозах и фейках.
Изучаются возможности ИИ для применения в агитационной работе.
Засветилась в СМИ тема возможного запрета отечественной нейросети «Кандинский» и напротив, ряд депутатов России выступили в защиту ИИ как технологии будущего.
Основные направления использования ИИ для политических задач.
Технологии ИИ могут быть внедрены практически на всех этапах политических процессов. Среди основных направлений применения технологий ИИ можно выделить:
Создание агитационного контента (тексты, изображения, видео). ИИ может проводить анализ информационного поля и формулировать различные лозунги и агитационные материалы, релевантные текущей ситуации. Это может быть речь, пресс-релиз, фотография или видео.
ИИ может применяться и в условиях развивающегося коммуникационного кризиса, где необходимо отслеживание новостей, выявление закономерностей и рисков для минимизации ущерба. Время ответа может сократиться до минут, а не часов или дней.
Пока что сгенерированные материалы не учитывают социально-культурный контекст и больше похожи на работы студента или стажера, требующие редактуры.
Рассылка таргетированных сообщений (вид прямого маркетинга, когда сообщения отправляются узкой целевой аудитории, которая соответствует определённым критериям, а не массово всем подряд).
В перспективе тексты, которые были персонализированы на основе истории запросов и предпочтений пользователя станут более детализированными. К примеру, в американских политических кампаниях таргетированные сообщения используются для воздействия на четко выделенные колеблющиеся группы избирателей. Это позволяет кандидатам не тратить деньги на определившихся, а сфокусироваться на колеблющихся избирателях, которые будут решать исход выборов.
Использование чат-ботов для ответов на вопросы избирателей.
//Чат-бот — это программа или виртуальный помощник, который имитирует общение с человеком в текстовом или голосовом формате. Он использует технологии искусственного интеллекта и машинного обучения для понимания запросов пользователей и предоставления релевантных ответов, помогая автоматизировать задачи и предоставлять информацию.//
Обученный чат-бот сможет экономить время телефонных операторов и отвечать на наиболее частые вопросы избирателей. Для эффективного убеждения разных групп избирателей сложность ответов может варьироваться от эмоциональных призывов и лозунгов до статистики, опыта правоприменительной практики и мирового опыта. Кроме того, представители партий смогут «собирать» своих избирателей на специальных цифровых платформах, коммуницировать с ними. Там же будет вестись анализ поведения (с согласия самих избирателей).
Моделирование политических предпочтений.
ИИ способен проанализировать большие объемы данных, чтобы сформировать политическую повестку. Так, в Дании искусственный интеллект «Лидер Ларс» провел анализ публикаций 230 небольших политических партий, начиная с 1970 г., и создал на этой базе программу Синтетической партии, повестка которой отражает политические предпочтения около 15–20% избирателей страны. Таким образом, ИИ может высвечивать в политической повестке реалистичные запросы избирателей, заставляя живых политиков обращать на них внимание.
Совершенствование предсказательных моделей.
ИИ может помочь предсказывать результаты выборов и иных политических кампаний, дополняя уже известные прогнозные технологии с помощью выделения неочевидных для человека взаимозависимостей.
Проведение социологических опросов.
Возможно использование ИИ-роботов на телефонных опросах населения о политических предпочтениях.
Пока роботы недостаточно хорошо распознают человеческую речь, плохо реагируют на изменения поведения респондента и допускают много ошибок.
Анализ фейков.
// Фейк - что-либо ложное, недостоверное, сфальсифицированное, выдаваемое за действительное, реальное, достоверное с целью ввести в заблуждение. – Дезинформация.//
Проверка достоверности контента может стать одним из самых востребованных направлений.
Этот список не исчерпывающий.
Любая задача, связанная с анализом большого количества данных и рутинными процедурами, в перспективе может быть отдана ИИ — будь то анализ результатов голосования, работа с массивом юридических документов (проверка подписей, проверка сданных кандидатами документов и пр.)
Однако содержательное ядро профессии политконсультантов — стратегия и идеология — в силу сложности и креативного характера сегодня пока неподвластны ИИ.
Риски и регулирование ИИ.
//Интернет-информация Николая Болошнева.//
Масштабное проникновение ИИ будет серьезно контролироваться регуляторами, так как применение данных технологий несет в себе слишком чувствительные и плохо прогнозируемые риски.
Этот процесс будет сопровождаться дискуссией об этике искусственного интеллекта.
Порой невозможно быстро проверить источник и достоверность распространяемой информации.
Нейросети могут создавать гиперреалистичные человеческие голоса, изображения, видео и аудио за считанные секунды при минимальных затратах.
Привязанные к мощным алгоритмам социальных сетей, таргетированные электронные письма, тексты или видео могут использоваться для введения в заблуждение избирателей в масштабах и со скоростью, которые ранее были невозможны.
Можно лишь представить, что это может быть: звонок от кандидата гонки, дающий совет голосовать в неправильный день; появление компрометирующих видео или аудиозаписей.
Исследователи одного из из университета Америки провели опыт по определению убедительности ИИ. Для эксперимента нейросеть создала тексты по нескольким спорным темам (по типу поддержки торговли оружием или запрета абортов). Затем эти тексты смешали с реальными и выдали случайным образом участникам эксперимента из разных категорий населения. Участников просили заявить о своей позиции по вопросам до и после чтения.
Во всех сравнениях сообщения, созданные ИИ, оказались убедительны для читателей. Мало того, испытуемые отметили, что после их прочтения стали больше поддерживать позицию, которую отстаивал ИИ.
Что особенно важно - ИИ-сервисы дают сложные инструменты обычному человеку. Людям больше не нужно быть экспертами по программированию или мастерами видео, чтобы генерировать цифровой продукт. Им не обязательно работать на «ферме троллей», чтобы инициировать масштабные политические дебаты в Интернете. Они могут просто использовать передовые технологии для распространения сообщений, которые они хотят (в том числе и фейков). В этом смысле любой может стать создателем политического контента и попытаться повлиять на избирателей или СМИ.
Чтобы устранить эти недостатки, требуется ГОСУДАРСТВЕННОЕ РЕГУЛИРОВАНИЕ.
Оно должно базироваться на определенных ЭТИЧЕСКИХ ПРИНЦИПАХ, таких как: подотчетность,
прозрачность и
справедливость –
в мировой практике теперь это называется «ОТВЕТСТВЕННЫЙ ИИ».
Для создания МОДЕЛИ РЕГУЛИРОВАНИЯ ИИ нужно ответить на следующие вопросы:
как обеспечивается получение и подтверждение согласия на использование персональных данных пользователей;
как обезличиваются при обучении и работе ИИ данные пользователей;
кому могут быть доступны технологии (всем, конкурентам или избранным);
в какой степени уместна цензура, кто её будет обеспечивать (государство, разработчики или спец-организации).
Государства могут по-разному регулировать деятельность ИИ в своей стране и в направлении иных стран.
Американское министерство торговли инициировало публичное обсуждение по проблеме необходимости СЕРТИФИКАЦИИ ПОТЕНЦИАЛЬНО РИСКОВАННЫХ НОВЫХ МОДЕЛЕЙ ИИ перед их выпуском.
Страны «Большой семерки» объявили о работе над МЕЖДУНАРОДНЫМИ СТАНДАРТАМИ ИСПОЛЬЗОВАНИЯ ИИ.
ЕС также разрабатывает свой документ, который должен гарантировать, что «ИИ, разработанный и используемый в Европе, полностью соответствует ПРАВАМ И ЦЕННОСТЯМ ЕС, включая
НАДЗОР СО СТОРОНЫ ЧЕЛОВЕКА,
БЕЗОПАСНОСТЬ И
КОНФИДЕНЦИАЛЬНОСТЬ».
Американские законодатели начали рассматривать норму, требующую МАРКИРОВАТЬ ПРЕДВЫБОРНУЮ РЕКЛАМУ, СОЗДАННУЮ С ПОМОЩЬЮ ИИ.
Депутаты Госдумы России, которые предложили маркировать весь контент ИИ, создаваемый с помощью нейросетей.
Если западные страны склоняются к более тонкому нормативно-правовому регулированию, то Китай — к ЦЕНЗУРЕ.
В тот момент, когда власти США больше озабочены тем, что нейросети дают заведомо ложные ответы, Китай вводит ЦЕНЗУРУ В НЕЙРОСЕТЯХ, а не регулирует их.
УПРАВЛЕНИЕ ПО ВОПРОСАМ КИБЕРПРОСТРАНСТВА КНР опубликовало проект МЕР ПО РЕГУЛИРОВАНИЮ СЕРВИСОВ ГЕНЕРАТИВНОГО ИИ. Создаваемый им контент должен отражать основные ценности социализма, не может призывать к подрыву государственной власти, свержению социалистического строя.
КАК ЦЕНЯТ СПЕЦИАЛИСТОВ по ИИ и ИТ-инфраструктурам в РОССИИ?
Чьи интересы выше государственных интересов специалистов России?
В РОССИИ в августе 2021 г. были обозначены риски использования ИИ - в основном в таких сферах, как образование, медицина, юриспруденция, собственность, право на труд.
В 2022 году Сергей Евгеньевич Емельченков возглавил компанию «Цифра», основным акционером которой выступает «Ренова», принадлежащая Виктору Вексельбергу.
Группа «Цифра» разрабатывает технологии цифровизации промышленности, инвестирует в продукты и развивает среду промышленного интернета вещей и искусственного интеллекта (ИИ). «Цифра» предоставляет готовые отраслевые решения в области прогнозной аналитики и анализа данных, оптимизации технологических процессов, мониторинга промышленного оборудования и персонала.
Под руководством С.Е. Емельченкова «Цифра» взяла курс на реализацию импортозамещающих проектов, развитие продуктового портфеля цифровых решений для промышленности и укрепление вендорских позиций компании на рынке.
С.Е. Емельченков являлся председателем подкомитета по ЦИФРОВОЙ ЭКОНОМИКЕ и инновациям Комитета РСПП по международному сотрудничеству, где занимался вопросами развития экспорта цифровых технологий в дружественные страны. Возглавляемая Сергеем команда сосредоточилась на разработке и внедрении решений класса MES – универсального кросс-отраслевого ПО на базе отечественной цифровой платформы для промышленности: ведутся масштабные проекты импортозамещения зарубежных систем PI System, AVEVA System Platform, Honeywell в 10 крупнейших промышленных компаниях. Развитие функционала платформы технической командой привело к признанию ПО как «лучшего цифрового решения для управления производством».
Сергей Емельченков в 2017 году он получил получил награду TAdviser IT-PRIZE в номинации «ИТ-директор года» за фундаментальное обновление программного обеспечения и ИТ-инфраструктуры «Почты России». За 3,5 года его команде удалось практически полностью обновить ИТ-инфраструктуру, корпоративное и клиентское программное обеспечение организации, сделав услуги предприятия значительно мобильнее, быстрее и современнее. За время работы С.Е. Емельченкова на «Почте России», количество посылок, которые «Почта» в пиковые дни передаёт, увеличилось в 100 раз, удалось сэкономить огромное количество денег — десятки миллиардов рублей за счёт оптимизации работы «Почты», мы смогли сделать её работу оптимальной. И сейчас «Почта» получает треть своего оборота через ИТ-сервисы и системы.
Но 23 декабря 2024 года судебная коллегия Мосгорсуда оставила в силе приговор (3,5 года за превышения должностных полномочий) бывшему ИТ-директору "Почты России" Сергею Емельченкову и его экс-коллеге Андрею Синичкину, работавшему руководителем департамента управления ИТ-сервисами. Защитники на суде заявили, что считают приговор несправедливым и настаивают, что ущерб "Почте России" не был нанесён. Сама "Почта России" не выдвигала требований о возмещении ущерба. Все позиции защиты факт превышения должностных полномочий не доказан, равно как и предварительного сговора. При этом внесение изменений в договор на сервисное обслуживание компьютерной техники, с которыми в приговоре связывается нарушение закона, было инициировано со стороны макрорегиона Урал, а не лично Емельченковым, говорит защита.
За время работы С.Е. Емельченкова на «Почте России», количество посылок, которые «Почта» в пиковые дни передаёт, увеличилось в 100 раз.
Удалось сэкономить огромное количество денег — десятки миллиардов рублей –
за счёт оптимизации работы «Почты», её работу сделали оптимальной. И сейчас «Почта» получает треть своего оборота через ИТ-сервисы и системы. Касательно отсутствия согласования с Минцифры внесения изменений в сервисный договор, связанных со штрафными санкциями: документ, на который обвинение ссылается как на основание для согласования с Минцифры, не зарегистрирован в Минюсте и не является НПА, отметил один из адвокатов. В своём доводе он сослался на ответ, полученный от самого Минцифры. Сергей Емельченков и Андрей Синичкин свою вину во вменяемом им преступлении не признают. Алексей Кирсанов, адвокат Сергея Емельченкова, заявил TAdviser, что считает приговор незаконным и необоснованным, особенно учитывая, что "ущерба не было никакого".
Как сообщаила газета «Коммерсантъ», рассмотрением дела занимался Симоновский райсуд Москвы.
В 2025 году наших специалистов по ИИ в России в угоду нашим недружественным конкурентам в наших судеах не желают сохранять, несмотря на то, что на допросе в суде главного бухгалтера "Почты России" показал:
"никакой упущенной выгоды "Почта России" не понесла, должным образом в бухгалтерских книгах упущенная выгода отражена не была".
В связи со спорным сервисным контрактом ранее также прошли несколько рассмотрений в арбитражных судах, которые дошли вплоть до ВЕРХОВНОГО СУДА. Последний установил, что правовая природа суммы денег, вменяемой в качестве ущерба, это неосновательное обогащение "Почты России" за счёт включения в договор заведомо невыгодных условий, от которых исполнитель не мог отказаться, отметил один из адвокатов Сергея Емельченкова. Защитник добавил, что не может быть причинён ущерб в виде недополучения неосновательного обогащения.
Касательно отсутствия согласования с Минцифры внесения изменений в сервисный договор, связанных со штрафными санкциями: документ, на который обвинение ссылается как на основание для согласования с Минцифры, не зарегистрирован в Минюсте и не является НПА, отметил один из адвокатов. В своём доводе он сослался на ответ, полученный от самого Минцифры. Сергей Емельченков и Андрей Синичкин попросили суд признать их невиновными и вынести оправдательный приговор вместо вынесенного ранее.
Кому-то в России Верховный Суд – не указ!
Тогда кому выгодно замедлять решение вопросов импортозамещения?
КАКИЕ СОБЫТИЯ И УСЛОВИЯ НЕОБХОДИМЫ, ЧТОБЫ ИИ НАЧАЛ ЗАНИМАТЬСЯ ПОЛИТИКОЙ в сфере безопасности ИИ в РОССИИ?
На этот вопрос нейросеть ChatGPT отвечает так:
«1. ИИ должен достичь уровня развития, когда он сможет
анализировать и понимать политические тайные и открытые реальные и виртуальные процессы,
принимать по ним обоснованные решения и квази-решения,
предлагать стратегии для решения политических проблем и будущих прогнозируемых открытых и скрытых проблем.
2. В России и на её объектах должны быть приняты законы и нормативные акты, которые
разрешают использование ИИ в политических процессах и
определяют правила и ограничения для такого использования.
3. Общество (в том числе системы с ИИ) должны быть готово принять участие ИИ в политике и доверять их решениям.
Это может потребовать времени и потребовать образовательных программ для информирования субъетов (с том числе с аналитическим ИИ) о возможностях и ограничениях ИИ.
4. Политические лидеры и партии должны быть заинтересованы в использовании ИИ для улучшения политических (и уголовных против специалистов по ИИ) процессов
и быть готовыми внедрять ИИ в свою работу.
5. Должна быть создана ТЕХНИЧЕСКАЯ ИНФРАСТРУКТУРА ДЛЯ ИНТЕГРАЦИИ ИИ в политические процессы, включая
доступ к данным,
алгоритмы анализа,
алгоритмы принятия решений, а также
СИСТЕМЫ БЕЗОПАСНОСТИ и защиты данных».
Когда все эти условия будут выполнены, ИИ сможет начать заниматься политикой и правовыми вопросами в России.
Однако стоит отметить:
полное замещение человеческого участия в политике и в решении важных и специальных вопросом ИИ вряд ли возможно, поскольку политические процессы всегда будут требовать человеческого взаимодействия, эмпатии и интуиции, а также
справедливой направленности существующей открытой и неоткрытой в сфере ИИ деятельности и политических и правовых решений правящих деятелей страны, существующих и организующихся партий и правящих структур страны и обществ различных стран.
/Источник: Интернет-информация/
_____
Федеральный закон от 28.12.2010 N 390-ФЗ (ред. от 10.07.2023) "О безопасности"
Cтатья 4. Государственная политика в области обеспечения безопасности
1. Государственная политика в области обеспечения безопасности является частью внутренней и внешней политики Российской Федерации и представляет собой совокупность скоординированных и объединенных единым замыслом политических, организационных, социально-экономических, военных, правовых, информационных, специальных и иных мер.
3. Государственная политика в области обеспечения безопасности реализуется федеральными органами государственной власти, органами государственной власти субъектов Российской Федерации, органами местного самоуправления на основе стратегии национальной безопасности Российской Федерации, иных концептуальных и доктринальных документов, разрабатываемых Советом Безопасности и утверждаемых Президентом Российской Федерации.
4. Граждане и общественные объединения участвуют в реализации государственной политики в области обеспечения безопасности.
Свидетельство о публикации №225091301559