Нужна альтернативная цифровизация образования
Примечание. Если санпин не изменен в худшую сторону, что и делается сегодня в реальности. (см. видеоролики Четверяковой) https://youtu.be/GOjbunvKPsQ
Часть 2
Национальная болезнь
(Отрывок из видеоролика "ИИ в образовании" "Зачем в школах Китая вводят искусственный интеллект" Интервью с А. Масаловичем)
Андрей Масалович рассказал о том, что в Китае вводится пилотный эксперимент в 148 школах Пекина по применению ИИ. В Китае чуть больше 500 000 школ, значит в одной из 3000 школ появится изучение искусственного интеллекта в первых классах. Планируется 1 урок в месяц.
Цель: научить детей общению с чат- ботами, уметь правильно ставить вопрос, уточнять вопрос.
Если бы у нас так действовали, то и никаких вопросов бы не возникло.
Об обучении в Сингапуре.
"В 1994 я ездил в Сингапур и то , что они мне рассказали об образовании, меня это потрясло. Государство даёт бесплатное образование, датирует питание и оценки там ставятся по результатам, а не потому из какой ты семьи - из бедной или богатой.
У них там разработано 250 правил, которые определяют некоторое поведение в классе. Вспомню только некоторые.
В классе 40 человек, но они говорят 10 четвёрок, потому что дети сидят по четыре человека (сдвоенная парта) лицом друг к другу. Любая задача решается вчетвером. Коллективное мышление вырабатывается.
Есть команда, когда ты выбираешь пару для работы, или команда, когда случайно подбирается пара - решаешь задачу со случайным человеком.
Есть задачи, где учитель оценивает понимание - учитель что-то говорит, а дети поднимают руку, если согласны.
Если начался какой-то неорганизованный галдёж, то кто-то может поднять руку с пятью пальцами и все должны замолчать. Есть задания, где все на одном листе пишут - один начинает, другой продолжает и т.д.
У них три своих государственных языка и плюс английский язык.
Учитель там имеет очень большой авторитет и зарплата у учителя очень большая. Учителем быть престижно, реально большой конкурс, отбирают самых лучших.
Знаю человека, который много работал с разными коллективами в России. И он сделал вывод: в России люди очень тяжело сотрудничают между собой. Это прямо национальная болезнь.
Когда людям даёшь групповое задание, они не могут поладить, им легче по-одному работать. Не знают, как слушать, как формулировать, как написать выводы. Вот это действительно большая проблема.
И ещё. В Сингапуре - запредельная оценка. Там постоянно оценивают - это ты сделал хорошо, это неправильно, сейчас подтянись. Если это делать часто, то не возникает обиды, сейчас получилось, потом не получилось. Оценивают не личность - умный или глупый, а конкретный результат.
С нашей школой надо что-то делать, так жить дальше нельзя.
В Китае искусственный интеллект не заменяет учителя. Он не меняет образование. Он не образует отдельного предмета. Существует этика искусственного интеллекта - что можно делать, а что нельзя. Нельзя других обижать, нельзя обманывать и прочее.
Когда китайцы вводили ограничение на использование гаджетов и компьютерных игр, то у них было расписано, что делать разработчикам игр, администрации, учителям, родителям, контролирующим организациям. Был принят целый ряд продуманных, взаимосвязанных, сбалансированных мер.
Заменить опытного руководителя никакой искусственный интеллект не сможет. Об этом нужно помнить".
Часть 3 Качество будет падать
(Отрывок из видеоролика Игорь Ашманов "Влияние нейросетей на IT, государство, общество и бизнес")
Один из дураков защитил диплом на основе ИИ и получил свою жалкую тройку. Он думает, что сделал что-то хорошее.
Теперь ректора думают, что с этим делать, как ограничить. Что его пропустили, это проблема университета.
У меня два моих знакомых, которые занимались ИИ, сошли с ума от этого.
Пишут мне отчаянные письма:"Дайте телефон Путина, я ему объясню, что всё, нам капец"
Там, действительно, многое поражает в этих GPT и у некоторых людей эмоционально неустойчивых возникает отчаяние, перевозбужденное состояние, навязчивые состояния. Нужно сделать ментальную гигиену.
Надо понимать, что все рассказы о том, что эта GPT такая гениальная и как она хорошо работает - это неправда. Эта штука реально косячит в довольно большом проценте случаев.
Вот пример. Когда Медведев стал президентом, задаю вопрос GPT:"Кто президент?", ответ: "Путин". Спрашиваю у друга, почему ошибка?
Ну, в сети гораздо больше информации о Путине, а о Медведеве меньше, вот и ответ.
Ответственные применения ИИ давать нельзя, потому что 10%косяков может быть, или 2% , то есть точности добиться пока нельзя. Не факт, что это будет исправлено. Либо ответственные применения превратятся в безответственные.
Влияние на общество понятно. Будет фальсифицировано всё. Поскольку человек в целом не очень способен отличить текст написанный генератором и тем более видео сделанное генератором, а поскольку соблазн очень большой, то будет фальсифицироваться всё. Уже сейчас фальсифицируют диссертации, научные статьи.
Разработчик мне говорит:"Берешь статью, повторяешь всё, что там сделано, а там уже не 97% качества получается, а 80. Всё делаешь,как у них, а качество ниже, то есть это фальшивка. И у научного редактора нет никаких критериев, как узнать настоящая ли это статья.
Начали в интернете очень сильно фальсифицировать все что угодно, статьи Ленина, Пушкина... Обычному обывателю не заметить подмену смыслов.
Процесс этой фальсификации продолжается и далее, это будет просто всеобъемлющим.
Как защищаться обществу от этого? Это проблема, потому что люди с удовольствием становятся рабами роботов, они с удовольствием отдают ответственность.
Случай с режиссером. Его остановили оперативники, потому что какая-то система распознавания узнала его как вора с точностью 70% . Они избили его, отказались смотреть паспорт, отвезли его в участок. В участке разобрались.
Такая же история была с солистом Мариинки.
Ученого геолога посадили в СИЗО потому что он якобы 20 лет назад участвовал в двойном убийстве. Люди с удовольствием передают ответственность роботам.
Вот как от этой проблемы защищаться - от склонности людей передавать ответственность роботам.
ИИ понижает качество - это я вам говорю, как профессиональный разработчик, но люди будут привыкать к снижению качества.
У нас есть категория оголтелых цифровизаторов, которые рассказывают, что цифровизация нас спасет. Но пока мы знаем, что цифровизация нас привела к тому, что за последние 4 года совершены миллиарды звонков мошенников, которые украли сотни миллиардов рублей у наших граждан. Утекли гигантские объемы персональных данных.
Особенно уязвимы пенсионеры и несовершеннолетние. Да и многие из нас бывают в уязвимом состоянии - уставшие, расстроенные.
Сейчас с помощью нейросетей пытаются говорить с покойными людьми.
Ещё пара поколений и пропадут компетенции, которые помогут различить - это на самом деле дрянь...
Это вопросы, которые должны на государственном уровне обсуждаться.
Нам нужна альтернативная цифровизация, чтобы она была безопасной для общества людей и государства. Нужно делать цифровой кодекс.
Свидетельство о публикации №223040801480
Вот школа - создана не для образования, а для учета и контроля.
Цифровизация - следующий шаг.
Стадо не должно выходить за ограждение.
Ещё удобно свалить ответственность на ИИ.
Зелёная за тему. Но не поможет, потому что никому не нужно.
Александр Сотников 2 13.06.2025 17:10 Заявить о нарушении