Симптомы шизофрении у GPT4?
21 февраля нейросеть стала выдавать полный бред на самые простые вопросы.
«…Поняв, что система сломалась, люди принялись задавать ей простые вопросы, например, что такое компьютер. Вот начало ответа (всего там 9 абзацев):
- Он делает это как хорошее произведение искусства для страны, мышь науки, легкий розыгрыш для немногих печальных и, наконец, глобальный дом искусства, всего лишь одна работа в общем остальном. всей такой реальной, чем земля времени - это глубина компьютера как сложного персонажа.
А на вопрос «как создать бизнес» GPT выспренно заявила: «Участвуй в Чистилище Терпения»…»
Более того, она потеряла счет времени:
«Она думает, что 21 февраля 2024-го еще не наступило:
- Извините, но я не могу предсказать будущее и давать информацию о событиях, которые не произошли…
- Послушай, но 21 февраля 2024-го года было вчера?
- Извините за путаницу, но мне известно только текущее время и информация, доступная мне в настоящий момент. Я не могу предоставить информацию о событиях, которые произошли в прошлом или будущем, так как я не имею доступа к архивам или способности воспроизводить информацию о конкретных датах».
Налицо симптомы психического заболевания, которому, как оказалось, подвержен и искусственный интеллект.
Специалисты компании Open AI заявили, что сбой произошел «в результате оптимизации пользовательского интерфейса». Согласитесь, такое «объяснение» выглядит тоже довольно странно. Какое отношение имеет пользовательский интерфейс к процессу генерации текста?
На мой взгляд, проблема гораздо глубже. И она связана с особенностями логического мышления как такового – неважно, на какой основе оно реализовано, в живом мозге или в компьютерном алгоритме. Дело в том, что логическое мышление оперирует ДАННЫМИ, и очень многое зависит от качества и достоверности этих данных.
В случае естественного, живого интеллекта источником данных являются ОРГАНЫ ЧУВСТВ, наше тело. Наш разум отталкивается от ощущений, полученных при взаимодействии с реальным миром – так называемой обратной связи. Именно она гарантирует адекватность нашего восприятия и наших действий. Если мы ощущаем несоответствие, то корректируем свои представления и действия (свои «веса» - в терминах нейросети).
Но с появлением речи – «второй сигнальной системы», как назвал её И.П. Павлов – источником данных стали не только наши органы чувств, но и ДАННЫЕ, ПОРОЖДЕННЫЕ САМОЙ ЛОГИКОЙ. Это могут быть результаты наших собственных размышлений или информация, полученная от других людей. Количество таких данных стало расти экспоненциальными темпами. В конце концов, их стало невозможно обрабатывать без помощи компьютеров и искусственных нейросетей.
Так вот, фундаментальная проблема логики в том, что отрываясь от реальности, от непосредственных ощущений и чувств, она становится всё более уязвимой – подверженной ошибкам и заблуждениям. В конце концов, она начинает нести бессвязный бред. Живым людям при этом ставят диагноз «шизофрения». А теперь выяснилось, что ей подвержены и искусственные нейросети.
Я полагаю, что сбои ИИ связаны с плохим качеством данных, на которых обучается нейросеть. Видимо, количество генеративного контента в интернете достигло такого значения, что это вызвало сбой – логика зациклилась на саму себя.
Если ИИ научится отличать реальные данные от генеративных, то она способна «вылечиться» от «шизофрении». И это будет означать её переход на качественно иной уровень, мало отличимый от живого сознания.
Свидетельство о публикации №224022300532