Опасность при использовании ИИ

Опасности, возникающие при использования ИИ учениками в процессе обучения

Эта статья имеет целевую аудиторию: школьные учителя, преподаватели колледжей и вузов.
Надеюсь, что она будет полезна для всех пользователей ИИ.

Свободный, неконтролируемый доступ учеников к мощным системам искусственного интеллекта (таким как ChatGPT, Deepseek и др.) в образовательном контексте несет в себе ряд серьёзных потенциальных опасностей.
Часть последствий широкого внедрения ИИ можно увидеть и понять, сравнивая с наблюдаемыми эффектами, которые имели место после внедрения калькуляторов и вычислений на компьютере. Если калькулятор атрофировал ментальную арифметику, то ИИ, будучи гораздо более мощным и универсальным инструментом, может привести к деградации целого комплекса фундаментальных интеллектуальных навыков.
Разделим эти риски на несколько ключевых категорий.

1. При общении ученика с ИИ возникает интеллектуальная пассивность, атрофия базовой когнитивной компетенции: "критического мышления и проверки информации"
    • Что произошло после введения калькуляторов: Школьники разучились умножать и делить в уме, потеряли чувство числа. Ошибки в вводе данных (например, 100/0.5 вместо 100/2) часто остаются незамеченными, потому что утрачено интуитивное оценка результата.
    • Что будет после широкого внедрения ИИ: Школьники утратят способность самостоятельно строить логические цепочки, проверять факты и оценивать правдоподобность утверждений. Если ИИ выдаёт готовый вывод (например, историческое объяснение или анализ литературного произведения), то у пользователя не будет внутреннего чувства, понимания, является ли этот вывод обоснованным, упрощённым или вовсе ошибочным. Исчезнет привычка задавать вопросы "Почему?", "Откуда это известно?", "Что является причиной, а что следствием?".
Пример: Школьник получает от нейросети связный конспект учебного проекта по сложной теме. Он его заучивает, но не способен объяснить основные причинно-следственные связи своими словами, потому что не прошёл путь их самостоятельного выстраивания.

2. Происходит атрофия "творческого беспорядка" и поисковых навыков
    • Что произошло после введения калькуляторов: Исчезла необходимость в приблизительных расчётах, которые часто помогали найти неочевидное решение и оценить правильность сложного вычисления.
    • Что произойдёт после введения ИИ: школьники не получат навыков формулировать запросы методом проб и ошибок. Классический поиск в Google требовал от школьника уточнять запросы, просматривать несколько источников, синтезировать информацию. ИИ выдаёт готовый, упакованный ответ. Пропадает навык "копаться" в материале, в процессе которого часто рождаются самые ценные идеи и открытия. Творчество — это часто хаотичный процесс, который ИИ стремится оптимизировать и сделать линейным, выхолащивая его суть.

3. Атрофия "фундаментальной грамотности и навыков ясного изложения"
    • Что произошло после введения калькуляторов: Утрата навыков устного счета.
    • Что будет с внедрением ИИ: Утрата способности самостоятельно формулировать мысли в письменной и устной речи. Зачем мучительно подбирать слова, строить предложения и выверять аргументы, если нейросеть может сделать это быстрее и, на первый взгляд, качественнее?
    • Происходит подмена обучения "генерацией". Ученик перестаёт учиться писать тексты, а учится генерировать их. Он не осваивает методы анализа, а получает готовый анализ. В результате фундаментальные знания не формируются, а в голове остаётся лишь поверхностное, фрагментарное понимание.
Ученик, привыкший к тому, что ИИ пишет за него сочинения, отчёты по проектам, в жизненной ситуации не сможет самостоятельно написать простейшее заявление.
    • Может иметь место потеря академической честности. ИИ делает плагиат невероятно простым и трудно обнаруживаемым. Ученик может сдать сгенерированное эссе или реферат как свою собственную работу. Традиционные системы проверки на плагиат бессильны против уникального текста, созданного ИИ. Это подрывает саму идею оценки индивидуальных достижений.
    • Происходит деградация базовых навыков. Зачем учиться грамотно, писать, если ИИ всегда поправит? Зачем учиться считать, если можно просто описать задачу нейросети? Это ведет к атрофии фундаментальных умений, которые являются основой для более сложной интеллектуальной деятельности.

        4. Атрофия "экзистенциальной компетенции: умения ставить задачи"
    • Что было после введения калькулятора: Калькулятор решает поставленную задачу, но не может её сформулировать.
    • Что будет с введение ИИ: ИИ часто используется именно для постановки задач, генерации идей, планирования. Ученики не обучаются самостоятельно определять, чего они хотят и что им нужно. Они будут ждать, когда ИИ предложит им варианты целей, планов и решений. Ученики утрачивают способность к саморефлексии и самостоятельному целеполаганию.
Как и в случае с калькулятором, проблема не в самом инструменте, а в том, как мы его используем. Калькулятор не отменил необходимость понимать математику, но сместил фокус с вычислений на умение правильно поставить задачу и интерпретировать результат.
ИИ не отменяет необходимость думать, но смещает фокус человеческой компетенции на навыки более высокого порядка:
Не "написать текст", а "поставить задачу и отредактировать" результат ИИ.
Не "запомнить факты", а "задать правильный вопрос" и критически оценить ответ.
Не "решить задачу", а "определить, какую задачу нужно решить", и проверить, привело ли решение к нужному результату.

5.   ИИ нарушает процесс формирования «ментальных моделей»

(  Ментальность — это понятие, которое описывает особый стиль мышления, восприятия и поведения человека или группы людей. Совокупность психических свойств включает в себя не только индивидуальные черты, но и культурные, социальные и исторические аспекты, которые формируют взгляды и образ жизни.)

Любое настоящее знание — это не просто набор фактов в голове, а выстроенная ментальная модель. Мы её создаём, когда сами продираемся через материал, путаемся, делаем ошибки, ищем связи, упрощаем сложное.
Пример из физики: Школьник решает задачу на законы Ньютона. Он ошибается, сила трения оказывается с неправильным знаком, и весь ответ не сходится. Эта ошибка и её исправление — и есть момент построения ментальной модели, где он физически чувствует, что трение противоположно движению.
При использовании  ИИ, ученик просто вводит условие в нейросеть и получает готовое, идеально выверенное решение. Ментальная модель не строится. В его голове не формируется «система базовых знаний», тоесть схема, на которую он мог бы в будущем опереться, чтобы критически оценить другой, возможно, ошибочный ответ.

        6.  ИИ создаёт иллюзию компетентности
Иллюзия компетентности один из самый коварных и опасных эффектов. Человек, использующий ИИ, начинает чувствовать себя знающим, потому что он оперирует качественными продуктами (текстами, решениями, анализами), которые этот ИИ создаёт. Но это — компетентность паразитическая. Она находится не в его голове, а во внешнем инструменте.

        7. Без базовых знаний человеку нечем оценивать результат ИИ.
Критическое мышление — это не абстрактный навык, это процедура проверки новой информации на соответствие уже имеющейся у вас системе знаний.
Если вы никогда самостоятельно не анализировали стихотворение, не выявляли художественные средства и не строили гипотезы о смысле, то вы не сможете оценить, хорош ли анализ, который вам выдал ИИ. Он может быть поверхностным или просто неверным, но у вас нет внутреннего эталона для сравнения.
Если вы не решали десятки уравнений вручную, не чувствуете логику их преобразований, вы не заметите, что ИИ в одном из шагов допустил алгебраическую ошибку. Вы видите лишь красивый, связный ответ.
Таким образом, мы приходим к фундаментальному парадоксу:
ИИ можно безопасно и эффективно использовать только тогда, когда пользователь достаточно компетентен, чтобы обойтись без него.

        8.  Существуют опасности, связанные с качеством информации
Дипси это большая языковая программа, поэтому она может генерировать убедительно звучащий, но абсолютно вымышленный или ошибочный контент (так называемые "галлюцинации"). Некритичный ученик примет эту информацию за истину, что приведет к формированию неверных знаний, которые потом будет очень трудно исправить.
Ответы ИИ часто носят обобщенный характер и могут не учитывать специфику учебной программы, взгляды конкретного учителя или необходимую глубину раскрытия темы. Ученик получает "средний" ответ, который не всегда подходит для конкретных учебных задач.
ИИ генерирует текст на основе огромного массива данных из интернета, где много непроверенной и псевдонаучной информации. Ученик не учится отличать надёжные источники от не надёжных, так как ИИ представляет все в "упакованном" и уверенном виде.

        9.  Психологические и социальные риски
Обучение это процесс, который часто связан с преодолением сложностей, ошибками и поиском решений. ИИ, дающий мгновенные ответы, лишает ученика этого опыта, что может привести к низкой фрустрационной толерантности (неспособности справляться с неудачами) в будущем.
При использовании ИИ, возникает проблемы с самоидентификацией и авторством. Когда значительная часть работы создана ИИ, может возникнуть когнитивный диссонанс. Ученик перестает чувствовать себя автором и творцом, что негативно сказывается на самооценке и формировании личности.
Постоянное взаимодействие с безличным интерфейсом ИИ сокращает живое общение со сверстниками и учителями, которое критически важно для развития социальных навыков, эмпатии и умения работать в команде.

Вывод
 Свободный доступ к ИИ без педагогического сопровождения подобен выдаче ребёнку мощного инструмента без инструкции по технике безопасности. Потенциал для роста огромен, но риски разрушения самого образовательного процесса и развития личности — крайне высоки


Рецензии