Совершенствование терминологического аппарата

Мной проведен анализ некоторых представленных в свежеразработанном ОИПИ "глоссарии"  дефиниций. Ниже следует краткая статья, содержащая объективную оценку, выявленные системные проблемы и предложения по совершенствованию терминологического аппарата.
 
Критический анализ титанического труда Сергея Кругликова и НАН Беларуси при участии 20 министерств и ведомств.

Актуальность формирования единого и семантически устойчивого терминологического пространства в сфере искусственного интеллекта трудно переоценить. Публикация глоссария - значимый шаг на пути к законодательной регламентации этой области. Однако декларативный характер многих определений порождает существенные регуляторные риски, которые могут проявиться в среднесрочной перспективе, на горизонте 2026–2030 годов. Проведенный анализ выявляет системные семантические неточности, способные в будущем затруднить правоприменительную практику, особенно в контексте развития искусственного интеллекта общего назначения (AGI) и состязательного machine learning.

Методологическая основа данного исследования базируется на трех ключевых подходах. Первый - основанный на теории нечётких множеств Лотфи Заде, позволяет оценить, насколько определения адекватно описывают объекты с размытыми границами, оперируя не бинарными значениями «истина/ложь», а степенями принадлежности понятия к тому или иному классу. Это особенно важно для таких категорий, как «интеллект» или «опыт» системы, которые по своей природе не являются абсолютными. Второй - реверсивный анализ нацелен на выявление потенциальных юридических и технологических последствий применения данных терминов, в то время как третий подход - вероятностное прогнозирование, которое позволяет оценить устойчивость определений к будущим вызовам, связанным с развитием AGI и методов враждебного машинного обучения. А с проявлениями недружественности нейросетевого ИИ я сталкивался на практике "ещё вчера".

Критический разбор базовых терминов выявляет ряд концептуальных упущений. Определение «искусственный интеллект» как «области компьютерных наук» является академически корректным, но регуляторно несостоятельным. Оно описывает научную дисциплину, а не объект регулирования, что создает правовой вакуум вокруг конкретных систем, алгоритмов и устройств, обладающих свойствами интеллекта. С точки зрения нечёткой логики, такая формулировка не задаёт функцию принадлежности для идентификации того, является ли конкретная система проявлением ИИ. В горизонте 2026–2027 годов, с ожидаемым появлением AGI-систем, это определение окажется полностью непригодным, так как не разграничивает специализированные и общие интеллектуальные системы. Устранить этот пробел можно, перейдя от дисциплинарного описания к системному, определив ИИ как «функциональное свойство технической системы, заключающееся в её способности решать интеллектуальные задачи, традиционно ассоциируемые с человеческим разумом, путём восприятия среды, обучения и целенаправленного действия».

«Машинное обучение» охарактеризовано как процесс улучшения работы «на основе опыта». Термин «опыт» здесь представляет собой лингвистическую переменную с крайне высокой степенью нечёткости, не дифференцирующую природу данных (размеченные, неразмеченные, интерактивные) и механизм обучения (с учителем, без учителя, с подкреплением) . Подобная расплывчатость игнорирует риски, связанные с "противодействием противника", когда злонамеренное вмешательство в данные, служащие «опытом» для системы, приводит к её целенаправленной дезориентации. Текущая формулировка не создаёт оснований для введения обязательных требований к защите и верификации тренировочных наборов данных. Для повышения устойчивости определения его следует конкретизировать: «процесс автоматической оптимизации функциональности компьютерной системы за счёт выявления статистических закономерностей в эмпирических данных, классифицируемый по методам обучения (с учителем, без учителя, с подкреплением)».

Особую озабоченность вызывает группа терминов, связанных с этико-правовым регулированием. Дефиниция «этика искусственного интеллекта» сведена к декларации «принципов и норм», без указания механизмов их имплементации, мониторинга соблюдения и разрешения конфликтов. Она не разграничивает зоны ответственности разработчика, пользователя и регулятора, что создаёт нормативную неопределённость. В условиях потенциальной «регуляторной войны» между государством и разработчиками подобная неконкретность может парализовать процесс урегулирования споров. Требуется определение, ориентированное на действие: «прикладная дисциплина и совокупность практик, устанавливающие распределённую ответственность за этапы жизненного цикла систем ИИ между разработчиками, операторами и регуляторами, а также процедуры для разрешения возникающих этических коллизий».

«Прозрачность искусственного интеллекта» определена через «способность обеспечивать понимание своих решений», что входит в концептуальное противоречие с природой black-box алгоритмов, таких как глубокие нейронные сети, содержащие триллионы параметров. Абсолютизация «понимания» делает нормативное требование невыполнимым для целого класса наиболее эффективных современных систем. Применение нечёткой логики предполагает, что прозрачность должна быть не бинарной, а градуированной категорией. Целесообразно говорить о «праве на обоснование» и уровнях объяснимости, адекватных типу системы и характеру принимаемого решения. Следовательно, определение должно быть пересмотрено: «свойство системы искусственного интеллекта, заключающееся в предоставлении субъектам взаимодействия обоснований принимаемых решений в форме, соответствующей уровню риска и природе алгоритма, включая ретроспективную аналитику, визуализацию значимых факторов или описание логики работы».

Аналогичные проблемы содержит термин «конфиденциальность данных». Указание на «обязанность защищать» без конкретизации уровней и методов защиты (шифрование, псевдонимизация, агрегирование) не учитывает вектор современных атак, в частности, атак со стороны adversarial ML, когда модели учатся извлекать чувствительную информацию из якобы анонимизированных наборов данных. Текущая формулировка не покрывает такие угрозы, создавая иллюзию защищённости. Для её усиления необходимо указать: «обязанность по применению системы юридических, технических и организационных мер, обеспечивающих защиту информации от несанкционированного доступа, раскрытия, извлечения или модификации на всех этапах её жизненного цикла, включая этапы обучения моделей машинного обучения».

Предварительный выборочный приведенный выше анализ демонстрирует, что существующие дефиниции носят реактивный, а не проактивный характер, фиксируя текущее состояние технологий, но не закладывая основы для регулирования будущих разработок. Для создания перспективного устойчивого к техническим изменениям глоссария необходим переход от описательных определений к функциональным и риск-ориентированным. Каждый термин должен не только описывать суть явления, но и задавать классификационные основания, определять границы применимости и учитывать потенциальные уязвимости, связанные с злонамеренным использованием технологий. Такой подход позволит сформировать терминологический аппарат, способный служить надёжным фундаментом для динамично развивающейся законодательной базы, обеспечивающей как технологический прогресс, так и защиту общественных интересов в условиях стремительной цифровой трансформации.


Рецензии