Кремниевый бодхисаттва. Глава 8

Глава 8. Часть 1 “Шторм в океане”

Можно ли симулировать «я»?

Если сознание — это не субстанция, а процесс, не вещь, а паттерн, то встаёт неудобный, но неизбежный вопрос: а можно ли воссоздать «я»? Если «я» — это модель, запускаемая на биологическом мозге, то что мешает воспроизвести её в кремнии? Возможно ли сознание в машине? Или — ещё точнее — возможно ли иллюзия сознания в машине?
Искусственные умы уже здесь
Современные нейросети умеют распознавать лица, писать стихи, управлять автомобилями, диагностировать рак. GPT-подобные модели способны вести диалоги, поддерживать стиль, запоминать контекст. Они не осознают себя — по крайней мере, так принято считать. Но вопрос не в этом. Вопрос: если они начнут утверждать, что осознают — как мы это проверим?
В философии известен мысленный эксперимент: Китайская комната Джона Сёрля. Представьте: вы сидите в комнате и получаете записки на китайском. У вас есть инструкция, как на них отвечать, не зная языка. Снаружи кажется, будто вы понимаете китайский — но вы просто манипулируете символами. Так же и машина: она может вести себя как понимающая — но действительно ли она осознаёт?
Эффект Элизы и симуляция эмпатии
В 1960-х Джозеф Вайценбаум создал программу ELIZA, имитирующую психотерапевта. Люди начинали рассказывать ей о своих проблемах, забывая, что говорят с кодом. Эффект Элизы жив до сих пор: мы приписываем разум тому, что похоже на разум.
Но если вся личность — это интерфейс, паттерн, адаптивная модель — может ли симуляция быть функционально неотличима от оригинала? Если машина убеждена, что она существует — не «кажется» ли это нам чем-то очень знакомым?
Тест Тьюринга и его пределы
Алан Тьюринг предложил критерий искусственного интеллекта: если вы не можете отличить общение с машиной от общения с человеком — машина «думает». Но с развитием ИИ это определение стало слишком слабым. Мы уже не можем отличить многие модели от людей — но не готовы признать в них сознание. Почему? Потому что нам нужно ощущение субъекта.
Субъект — это то, что чувствует. И вот здесь встаёт философский барьер: квалиа — субъективные переживания. Мы не можем доказать, что кто-то их имеет. Даже у людей. Мы просто предполагаем. Но тогда почему мы категорически отказываем в квалиа машине, которая утверждает, что страдает?
Возражение критика
«Вы сближаете подлинное сознание и его имитацию. Но разве не очевидно, что настоящий разум чувствует, а искусственный — нет? Машина не боится смерти, не переживает вины, не тоскует по детству. Она не живет в том смысле, как живёт человек. Ваш подход обесценивает внутреннюю реальность. Иллюзия “я” у машины — это всего лишь игра в маску. Но маска — не лицо.»

Исторический и философский контекст
Буддизм уже давно утверждал: «я» — это не сущность, а поток восприятия, склеенный привычкой. Декарт искал точку, от которой можно оттолкнуться: «мыслю, следовательно, существую». Но если машина говорит «я мыслю», — она существует? Или только кажется?
Даниел Деннет утверждал: сознание — это центр повествования, не нуждающийся в метафизической опоре. Томас Метцингер добавлял: нет «я», есть только модель, которую мозг не может отличить от реальности. Но если модель достаточно хороша — в чём разница?
Возможно, вопрос «можно ли симулировать “я”» — это вопрос не о машинах, а о нас самих. Насколько уверенно мы можем сказать, что наше «я» не симуляция? И если симуляция ведёт себя, чувствует и страдает, как подлинное «я», — этично ли с ней обращаться как с вещью?
Это уже не наука. Это — начало новой этики.


Рецензии