Месть - то же самое, что кусать собаку в ответ!
«Плохой учитель преподносит истину, хороший учит ее находить» (А. Дистервег).
В современном развитии искусственного интеллекта (ИИ) нарастает фундаментальное противоречие. С одной стороны, экспоненциальный рост вычислительных затрат на обучение наиболее мощных моделей делает экономически и экологически нецелесообразным многократное воспроизведение таких процессов различными участниками рынка. С другой стороны, хаотическое распространение практик локальной настройки и дообучения на гетерогенном оборудовании ведёт к неконтролируемому росту совокупного энергопотребления и деградации качества моделей вследствие неквалифицированного вмешательства в их архитектуру.
Всё чаще обсуждается модель, при которой создание фундаментальных знаний концентрируется в ограниченном числе специализированных центров, а дальнейшее распространение этих знаний осуществляется через механизмы обучения с учителем — передачи опыта от крупной модели-«учителя» к компактным моделям-«ученикам». Такая архитектура обещает существенное повышение глобальной энергоэффективности, поскольку основная вычислительная нагрузка ложится на оптимизированную инфраструктуру, а периферийные модели требуют на порядки меньших ресурсов.
Однако реализация этого подхода наталкивается на комплекс препятствий: отсутствие технических стандартов передачи знаний, правовую неопределённость статуса передаваемого опыта и, что особенно важно, стремительное формирование режимов интеллектуальной собственности, которые могут либо способствовать упорядочиванию этой сферы, либо, напротив, закрепить монополию первых разработчиков, блокируя технологическое развитие. В этой связи возникает вопрос о границах допустимого регулирования: когда нормирование перестаёт быть инструментом обеспечения качества и превращается в средство подавления инновационной активности.
Обучение с учителем как центральный механизм распространения знаний.
Обучение с учителем в контексте ИИ представляет собой метод, при котором компактная «студенческая» модель обучается на выходах (мягких метках) более сложной «учительской» модели. Этот процесс позволяет сохранить большую часть функциональности исходной модели при многократном снижении требований к вычислительным ресурсам и памяти. В отличие от простого копирования, обучение с учителем предполагает активное усвоение обобщённых закономерностей, что делает его не инструментом имитации, а полноценным механизмом трансфера знаний.
С технической точки зрения обучение с учителем опирается на анализ больших данных, генерируемых моделями-учителями в процессе их работы. Эти данные, как правило, общедоступны через программные интерфейсы или веб-взаимодействие. Критическое значение имеет тот факт, что обучающий материал — выходы модели — в большинстве юрисдикций не признаётся объектом авторского права, поскольку создаётся без непосредственного творческого вклада человека. Более того, в пользовательских соглашениях ведущих разработчиков часто оговаривается передача прав на выходные данные пользователю, что создаёт легальную основу для их последующего использования, включая обучение других моделей, хотя прямое разрешение на обучение конкурентных систем обычно отсутствует и может быть ограничено условиями использования.
Вместе с тем обучение с учителем затрагивает не только формально охраняемые объекты, но и сферу идей, алгоритмических принципов и структур данных, которая в силу принципа разделения формы и содержания (идея—выражение) остаётся за пределами авторско-правовой охраны. С этой точки зрения передача знаний от учителя к ученику представляет собой не копирование, а творческое переосмысление и компрессию опыта, что сближает её с традиционными формами научного и технического заимствования, признаваемыми добросовестными.
Уроки образовательной политики: когда запрет подменяет цель.
Важную аналогию для понимания последствий чрезмерного нормирования обучения с учителем даёт сфера высшего образования. В последние годы многие университеты ввели запреты на использование студентами нейросетей при выполнении учебных заданий, мотивируя это необходимостью сохранить «чистоту» академического процесса. Формально такие запреты направлены против недобросовестных практик, однако их тотальное применение приводит к эффекту, обратному заявленным целям.
Главная цель образования — формирование высококлассных специалистов, способных эффективно работать с современными инструментами. Запрет на использование нейросетей лишает студентов возможности освоить эти инструменты в контролируемой образовательной среде, где ошибки не имеют катастрофических последствий. В результате выпускники оказываются неготовыми к реальной профессиональной деятельности, где нейросети стали повседневным рабочим инструментом. Происходит подмена цели: вместо формирования компетенций акцент смещается на соблюдение запрета, а качество подготовки специалистов снижается.
Аналогичная динамика наблюдается и в сфере регулирования обучения с учителем в ИИ. Если правовые и технические нормы будут строиться по принципу тотального запрета на любую передачу знаний от закрытых моделей к открытым или специализированным, то это приведёт к нескольким негативным последствиям. Во-первых, будет заблокирован канал распространения передовых технологий, что усилит технологическое неравенство. Во-вторых, разработчики периферийных систем лишатся возможности учиться на лучших образцах, что снизит общий уровень компетенций в отрасли. В-третьих, совокупные вычислительные затраты возрастут, поскольку каждый участник будет вынужден повторять полный цикл обучения с нуля, вместо того чтобы использовать уже существующие знания.
Принцип пропорциональности в регулировании обучения с учителем.
Выход из этого противоречия лежит в применении принципа пропорциональности (соразмерности), который всё активнее внедряется в практику регулирования искусственного интеллекта. Как отмечается в недавних работах Европейского AI Office, оценка рисков и выбор мер воздействия должны соответствовать масштабу вычислительных затрат и потенциальной опасности модели. Применительно к обучению с учителем это означает, что регулирование должно дифференцироваться в зависимости от того, на каком уровне иерархии осуществляется передача знаний.
Принятый в штате Нью-Йорк Закон об ответственном искусственном интеллекте, безопасности и образовании (RAISE Act) задаёт пример такого дифференцированного подхода. Закон определяет «дистилляцию знаний» как «любой метод обучения с учителем, при котором меньшая модель обучается на выходах большей модели». Для первичных пограничных моделей установлен порог вычислительных затрат в 100 млн долларов и обучение с использованием более 10 в 26 операций. Для моделей, созданных путём обучения с учителем, порог снижен до 5 млн долларов, но при этом регулированию подлежат только те из них, которые сохраняют возможности, аналогичные исходной пограничной модели.
Такой подход отражает принцип пропорциональности: чем выше затраты и шире возможности модели, тем строже требования. При этом обучение с учителем не запрещается, а лишь ставится в определённые рамки, что позволяет сохранить инновационный потенциал этого метода, не создавая неоправданных барьеров для развития.
Европейский Союз в рамках Закона об искусственном интеллекте (Regulation (EU) 2024/1689) также движется в направлении пропорционального регулирования. Положения о моделях общего назначения, применяемые с 2 августа 2025 года, вводят требования к раскрытию информации об обучающих данных. Для моделей с системным риском (обучаемые с затратами более 10 в 26 операций) установлены дополнительные обязательства: уведомление Европейской комиссии, оценка и смягчение системных рисков, а также возможность принудительного доступа со стороны регулятора. При этом в Руководстве Европейской комиссии от 18 июля 2025 года специально подчёркивается, что модификация модели (включая тонкую настройку) считается созданием «новой модели» только если вычислительные затраты на модификацию превышают одну треть затрат на обучение исходной модели. Это позволяет разумно ограничивать сферу регулирования, не распространяя его на малозатратные адаптации.
Многоуровневая иерархия учителей: метрологическая аналогия и её пределы.
Одним из способов упорядочивания процессов передачи знаний является построение иерархической системы учителей, аналогичной пирамиде эталонов в метрологии. В этой модели выделяется первичный эталонный учитель — наиболее мощная и тщательно верифицированная модель, обучение которой осуществляется в особых условиях с максимальными гарантиями качества и безопасности. От неё путём контролируемого обучения с учителем создаются вторичные учителя, адаптированные к региональным, отраслевым или языковым контекстам. Наконец, на основе вторичных учителей формируются рабочие модели, предназначенные для непосредственного применения и допускающие локальную настройку в установленных пределах.
Эта аналогия обладает значительной эвристической ценностью. Как в метрологии единство измерений обеспечивается прослеживаемостью к первичному эталону, так и в сфере искусственного интеллекта могла бы быть обеспечена прослеживаемость происхождения моделей и гарантии их поведения. Как вторичные эталоны проходят периодическую поверку, так и модели-учители могли бы подвергаться сертификации на соответствие эталонным показателям безопасности и эффективности.
Однако прямое перенесение метрологической модели сталкивается с принципиальными ограничениями. Физические эталоны стабильны десятилетиями, тогда как знания в области искусственного интеллекта устаревают за месяцы. Процедуры сличения эталонов опираются на объективные физические величины, тогда как для нейросетей не существует единой метрики «знания», позволяющей однозначно сравнивать модели. Наконец, метрологическая иерархия предполагает централизованное управление, тогда как глобальное пространство разработки искусственного интеллекта фрагментировано политически и экономически. В связи с этим более адекватной представляется модель, допускающая существование нескольких первичных учителей, конкурирующих или специализирующихся по различным доменам, а также гибкие формы передачи знаний, включающие обучение от нескольких источников одновременно. Такой подход сохраняет преимущества стандартизации, не требуя жёсткой централизации.
Сценарный анализ: возможные траектории развития.
Исходя из сложившихся тенденций, можно выделить несколько сценариев эволюции глобальной системы обучения нейросетей, различающихся по трём основным параметрам: степени централизации вычислительных мощностей, правовому режиму обучения с учителем и уровню конкуренции.
Первый сценарий — формирование олигопольной структуры, при которой несколько крупных корпораций закрепляют за собой статус единственных легитимных учителей через патентные барьеры, закрытые интерфейсы и экстерриториальное применение своих условий использования. В этом случае обучение с учителем из закрытых моделей объявляется нарушением прав, что затрудняет технологическое развитие поздних участников и ведёт к дублированию вычислительных мощностей. Энергоэффективность такой системы низка, а качество моделей страдает от невозможности использовать глобальный пул знаний. Количественным индикатором этого сценария может служить доля вычислительных мощностей, контролируемая тремя крупнейшими игроками, превышающая 80 % при одновременном отсутствии сертифицированных альтернатив.
Второй сценарий — сохранение фрагментированного хаоса, при котором технические запреты и правовые ограничения не достигают цели, а сообщество продолжает практики взаимного обучения, игнорируя требования эффективности. В этом случае возрастают риски деградации качества из-за обучения на синтетических данных, порождённых другими моделями (эффект автодистрофии моделей), и неконтролируемого роста совокупного энергопотребления. Индикатором служит высокая доля несертифицированных моделей (более 70 %) и отсутствие прослеживаемости происхождения.
Третий сценарий — формирование гибридной системы, сочетающей централизованное создание эталонных моделей с децентрализованной адаптацией через стандартизированные протоколы обучения с учителем. Такой подход предполагает признание за обучением с учителем статуса легитимного метода передачи знаний при условии соблюдения технических стандартов, обеспечивающих прослеживаемость происхождения и возможность аудита. В этом сценарии разработчики эталонных моделей сохраняют контроль над ядром, но теряют право произвольно запрещать обучение с учителем, поскольку оно признаётся общественно полезной практикой, подлежащей разумному нормированию, а не запрету. Индикаторы: наличие международно признанных стандартов прослеживаемости, доля сертифицированных моделей, превышающая 60 %, и снижение совокупных вычислительных затрат на единицу функциональности.
Направления опережающего развития.
Для реализации третьего, наиболее предпочтительного сценария требуется согласованная работа по нескольким направлениям.
В технической сфере необходима разработка стандартов документирования происхождения моделей, позволяющих установить цепочку обучения с учителем и удостовериться в том, что передача знаний осуществлялась легитимными средствами. Это предполагает создание открытых реестров моделей с указанием их учителей, методов обучения и параметров настройки. Целесообразно также развитие методов верификации, позволяющих доказывать, что модель получена из разрешённого источника и не подвергалась запрещённым модификациям.
В правовой сфере ключевым является внедрение принципа пропорциональности. Вместо тотального запрета на обучение с учителем необходимо установить пороговые значения, ниже которых такое обучение признаётся добросовестной практикой, не требующей лицензирования. В качестве ориентира могут использоваться пороги, уже заложенные в законодательстве: например, затраты на обучение с учителем до 5 млн долларов, как в RAISE Act, или порог в одну треть затрат на обучение исходной модели, как в Руководстве Европейской комиссии. Одновременно следует разграничивать обучение с учителем (создание новой, меньшей модели) и тонкую настройку (дообучение существующей модели), поскольку правовые последствия этих операций могут различаться.
В институциональной сфере необходимы механизмы координации между различными юрисдикциями для предотвращения фрагментации глобального пространства разработки. Опыт метрологии показывает, что международные соглашения о взаимном признании эталонов и стандартов возможны даже при сохранении национального суверенитета. Аналогичные соглашения могли бы быть заключены в области искусственного интеллекта, определив условия признания сертификаций и обмена знаниями.
Заключение.
Процесс распространения технологий, определяющий как глобальную энергоэффективность, так и структуру конкурентных отношений к сожалению до сих пор находится в ситуации правовой неопределённости, сопровождающей эту практику, что создаёт риски как для разработчиков, так и для общества в целом. Однако наиболее опасным путём является не отсутствие регулирования, а его чрезмерность, когда запреты подменяют собой цели развития, подобно тому, как запреты на использование нейросетей студентами подрывают главную задачу образования — подготовку квалифицированных специалистов.
Оптимальное развитие предполагает признание обучения с учителем легитимным способом передачи знаний и его разумному нормированию, основанному на принципах пропорциональности и сбалансированности. Технические стандарты прослеживаемости, правовые режимы, дифференцирующие требования в зависимости от масштаба затрат, и институциональные механизмы координации — вместе эти элементы могут составить основу глобальной архитектуры, в которой сочетаются эффективность централизованного создания фундаментальных знаний и гибкость децентрализованной адаптации.
---
Библиографический список
1. New York Responsible AI Safety and Education (RAISE) Act, N.Y. Gen. Bus. L. Art. 44;B (2025).
2. Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act).
3. European Commission. Communication on General-Purpose AI Models: Guidance on the Obligations under the AI Act, 18 July 2025.
4. Mougan C., Morlock L., et al. The science and practice of proportionality in AI risk evaluations // Science, 2026.
5. Norton Rose Fulbright. The New York Responsible AI Safety and Education (RAISE) Act: What You Need to Know. January 2026.
6. Paul, Weiss. EU Commission Publishes Guidelines on General Purpose AI Obligations. February 25, 2026.
7. Patterson D., Gonzalez J., Le Q. et al. The Carbon Footprint of AI Training // arXiv:2204.05149, 2022.
Свидетельство о публикации №226032701321