Гёделевский аргумент и вычислимость интеллекта

Редакция — июнь 2025. Формат pdf (с иллюстрациями) доступен в разделе ссылок на другие ресурсы — http://www.proza.ru/avtor/laplas

Нынешнее название: "Сильный искусственный интеллект (AGI) не может быть создан. Теория всего не имеет смысла. Значение противоречивости теории всего."


Содержание

В статье обоснована принципиальная невозможность создания человеком каких-либо искусственных систем, приближающихся к сложности интеллекта самого человека. Несмотря на очевидный прогресс искусственных нейронных сетей, в том числе связанный с чат-ботами, которые, как кажется, уже сейчас умнее многих людей и знают больше любого человека, нынешний искусственный интеллект от сложности интеллекта человека далёк и не достигнет этого уровня ни в какой перспективе. Более или менее аналогично другим машинам, создаваемым человеком, искусственный интеллект не сможет существовать без человека и в целом никогда не выйдет за рамки его помощника.

Вторая тема статьи — противоречивость теории всего, рассматривая её как наиболее фундаментальную физическую теорию, которая опишет материю на элементарном уровне. Противоречивость такой теории достаточно очевидная идея, аргументировать её несложно, поэтому главное состоит в широком и, вероятно, неожиданном контексте некоторых причин и следствий этой противоречивости.

Основная тема статьи — границы сложности искусственного интеллекта. Как будет показано, характер этих границ принципиальный, они связаны не просто с созданием тех или иных устройств, а имеют глобальный смысл пределов познания вообще, каковые пределы проявляют себя в том числе и в ограничении сложности создаваемых человеком систем. Как следствие этой глобальности, подтверждение того, что сложность создаваемых человеком систем всегда будет ограничена сложностью интеллекта самого человека, можно увидеть в аргументах логического, практического и физического характера, то есть наблюдать со всех возможных точек зрения. С каждой из них ограничения выглядят по-своему, но, как разные стороны одной проблемы, они взаимно дополняют и обосновывают друг друга. В том же порядке аргументы будут рассмотрены в статье — от логики к физике, от истоков и общих соображений к аргументам более конкретным.

В первой главе рассмотрены некоторые общие, принципиальные аргументы, касающиеся вычислимости (формализации, описания) мышления и связи этой задачи с построением теории всего, в том числе теоремы Гёделя о неполноте, гёделевский аргумент, теорема Тарского о невыразимости истины, а также в первой главе рассмотрен вопрос свободы воли. Во второй главе описана работа нейронных сетей и показаны непосредственные препятствия, которые не позволят любым системам, создаваемым с участием интеллекта человека, включая искусственные нейронные сети и другие недетерминированные алгоритмы, приблизиться к сложности интеллекта человека. В третьей главе аргументы первой главы рассмотрены на более принципиальном уровне. В четвёртой главе выводы предыдущих глав дополнены наглядными аргументами, связанными с сознанием. В пятой главе некоторые аргументы предыдущих глав приведены более развёрнуто. В шестой главе уточнено значение теорем Гёделя с точки зрения перспектив искусственного интеллекта и построения теории всего, а также приведена ещё одна интерпретация теорем Гёделя. В седьмой главе рассмотрена связь противоречивости теории всего с тенденциями познания, в том числе предположение, что проблема измерения квантовой механики может быть прямым следствием этих тенденций. В восьмой главе описаны физические основания жизни и их связь с приведёнными ранее аргументами, уточнено поведение, принципиально недоступное искусственному интеллекту, и следствие этого ограничения для его развития.

Есть ещё один аргумент, без которого перечисленный выше набор точек зрения был бы неполным. Он состоит в том, что создание такого объекта, как сильный искусственный интеллект, выглядит невозможным и само по себе, так как неявно подразумевает, что усложнение создаваемых человеком систем линейно. Дело в том, что если можно создать что-то сложнее себя, то, очевидно, никаких пределов сложности у создаваемых систем нет, разве что это какие-нибудь пределы физические. Однако мир нелинеен, подавляющее большинство встречающихся в природе физических систем принадлежат к нелинейной неравновесной термодинамике, предсказание таких систем ограничено. Причём такие физические системы, как мозг и вообще жизнь, в плане непредсказуемости можно выделить особенно — это очень непредсказуемые системы. Но тогда, по мере приближения сложности создаваемых систем к сложности биологических, создаваемые системы тоже, по-видимому, должны становиться всё более непредсказуемыми. В чём причина этой непредсказуемости, к чему она в итоге стремится, не помешает ли её рост усложнению искусственного интеллекта? Это ощущение неполноты и противоречивости простых подходов в оценке перспектив искусственного интеллекта назовём аргументом интуитивного характера. Интуиция сама по себе, как аргумент самый общий, аргумент слабый. С интуиции все доказательства только начинаются, и в данном случае этот интуитивный аргумент тоже только предваряет другие аргументы статьи.


Оглавление
   1. Алгоритм мышления, свобода воли и теория всего 3
   2. Непосредственные препятствия 26
      2.1. Нейронные сети 27
      2.2. Пределы сложности искусственного интеллекта 36
   3. Принципиальные препятствия 54
   4. Наглядные аргументы 64
   5. Ненужная глава 72
   6. Ещё одна интерпретация 76
   7. Тенденции познания 80
   8. Физика жизни 89
      8.1. Физические основания жизни или Что не может искусственный интеллект 89
      8.2. Моделирование мозга и самостоятельная эволюция искусственного интеллекта 101
   9. Заключение 111
   Дополнительно 112


1. Алгоритм мышления, свобода воли и теория всего

В 1930 году австрийским математиком Куртом Гёделем были доказаны теоремы о неполноте формальных систем. Появление теорем вызвало значительный резонанс, выходящий далеко за пределы математического сообщества. Со временем теоремы приобрели широкую известность.

Причиной известности теорем стала их очевидная связь с идеями более общего характера, чем только математические. Причём идеями столь же глобальными, сколь глобальным является значение теорем для математики. Источник этой связи понятен. Делая утверждения о математическом языке, теоремы Гёделя о неполноте должны иметь связь и с наукой, так как математика — это язык науки. А учитывая, что и наука, и её язык — это часть более широкого контекста форм познания и способов формулировки знаний, то связь должна быть и с познанием вообще, его особенностями и тенденциями.

Другими словами, выяснилось, что, казалось бы, сугубо математические утверждения, по-видимому, можно интерпретировать как раскрывающие некоторые внутренние, принципиальные свойства познания — и даже самой познаваемой природы, так как познание тоже её часть. Эти свойства — существование у познания границ. Которые проявляют себя как непосредственно — в противоречивости теории всего, так и через ограничение сложности создаваемых человеком систем.

Идеи о наличии у познания границ высказывались и раньше, но теоремы Гёделя привлекли внимание тем, что дали этим идеям строгое математическое наполнение. Мы тоже начнём статью с рассмотрения теорем Гёделя о неполноте и связанных с ними аргументов. В целом этот тип аргументов называют интерпретациями теорем.

Интерпретация — это истолкование, указание на связь явлений, их общность, когда содержание одного явления позволяет раскрыть содержание другого. В этой главе рассмотрим две самые известные интерпретации теорем Гёделя о неполноте, они же соответствуют заявленным темам статьи, в том числе так называемый гёделевский аргумент. Вначале рассмотрим как теоремы связаны с созданием искусственного интеллекта, затем — с построением теории всего.

Выводы, которые мы сделаем в отношении связи теорем с этими задачами, подтверждаются в том числе и тем, что те же самые выводы следуют и из множества других аргументов, менее абстрактного характера, которые мы тоже приведём. В свою очередь, связь абстрактных математических теорем и аргументов менее абстрактного характера, которая, таким образом, также наблюдается, позволяет и наоборот — считать интерпретацией сами теоремы. Которые, как оказывается, только лишь на математическом языке описывают некоторые и без них достаточно очевидные особенности наблюдаемой природы, а не открывают что-либо скрытое сами по себе.

Итак, согласно первой интерпретации, которую мы рассмотрим, из теорем Гёделя следует, что мышление «невычислимо», формализовать мыслительный процесс принципиально невозможно. Иными словами, работу мозга в принципе нельзя выразить в виде некоторой строгой формулы, точной пошаговой инструкции, алгоритма, используя который можно было бы предсказывать результаты мыслительного процесса, создавать действительно «мыслящие» искусственные системы или написать программу конкретной личности и перенести личность в компьютер. В свою очередь, это означает, что естественный интеллект принципиально отличается от машинного, так как все системы искусственного интеллекта работают по некоторому алгоритму. Таким образом, интеллект человека всегда будет оставаться сильнее искусственного, так как сам человек, получается, не сможет создать такой алгоритм, который бы полноценно выразил все его способности.

Говоря более точно, человек не сможет создать такой алгоритм, который бы полноценно выразил способность мозга вырабатывать алгоритмы. Дело в том, что единственной «способностью» любой нервной системы является преобразование сигналов рецепторов в последовательности нервных импульсов, управляющих мышцами и железами. Основными клетками нервной системы являются нейроны, которые образуют в организме единую сеть, в свою очередь, основной объём этой сети приходится на мозг. Нервная система на входе имеет рецепторы внутренней и внешней среды, на выходе мышцы и железы. Таким образом, нервная система переводит чувствительность в двигательную активность. Нервная система организует работу мышц и посредством желёз координирует с работой мышц работу остального организма.

Именно эту способность мозга воспринимать мир и преобразовывать воспринятое в действия, или, проще говоря, ставить и решать задачи, никакой алгоритм полноценно не выразит, поэтому в целом поведение искусственного интеллекта всегда будет оставаться проще поведения человека. В статье мы не только ответим на вопрос, почему не выразит, но и что, собственно, это означает, какие задачи недоступны искусственному интеллекту, в чём его поведение будет проще.

В обоснование этих утверждений теоремы Гёделя могут быть положены по-разному. Например, сам Гёдель в лекции Гиббса в 1951 предположил, что его теоремы дают основание для антимеханистической точки зрения на мышление. Однако наибольшую известность получил так называемый гёделевский аргумент, который был представлен британским ученым Джоном Лукасом в 1961 году. По-видимому, именно это время можно считать тем периодом, когда дискуссии о возможностях машин и о том, что у этих возможностей, вероятно, есть границы, стали приобретать конкретное наполнение и популярность. Однако и нейросетевая и физическая сторона работы мозга в то время были понятны ещё достаточно слабо, поэтому аргументы этой главы, отчасти повторяя исторический дискурс, тоже ничего из этого не учитывают и носят максимально общий, принципиальный характер. Сам гёделевский аргумент мы рассмотрим в этой главе позже, а начнём с сопоставлений теорем Гёделя и мышления более очевидного характера. 

Но прежде вспомним, что такое алгоритм, и определимся, какую систему можно считать искусственной.

Алгоритм — это точная пошаговая инструкция, например, компьютерная программа — это реализованный конкретными средствами алгоритм. «Искусственность» же системы заключается в том, что чем полнее работу системы определяет написанный человеком алгоритм, тем больше её можно считать искусственной, целенаправленно созданной человеком, его интеллектом. Поэтому можно ещё раз уточнить и сформулировать ограничение искусственного интеллекта следующим образом. Чем полнее работу системы определяет написанный человеком алгоритм, тем ниже будет её сложность по сравнению с интеллектом человека. И наоборот, превзойти интеллект человека сможет только такая система, в создании которой интеллект человека не участвует.

Теперь рассмотрим сами теоремы Гёделя, их содержание и математическое значение.

Теоремы Гёделя о неполноте делают утверждения о формальных системах. «Формальная система» в самом общем смысле — это система заданных в качестве аксиом формул, используя которые можно получать новые формулы. Также можно сказать, что формальная система — это некоторый абстрактный язык, в котором по строгим правилам сочетаний букв и слов из одних утверждений можно выводить другие. И наконец формальная система (или формальная теория) — это, собственно говоря, и есть то, что называется математикой, конкретная математическая теория или даже математика в целом.

Теоремы Гёделя устанавливают принципиальные ограничения формальной арифметики и, как следствие, всякой достаточно богатой формальной системы, в которой можно определить основные арифметические понятия: натуральные числа, 0, 1, сложение и умножение. Обратим внимание, без арифметики математическая теория во многом теряет своё значение, так как становится невозможным задать точные количественные отношения.

Ограничения, накладываемые теоремами, носят следующий характер. Первая теорема о неполноте утверждает: если формальная система непротиворечива, то в ней существует невыводимая и неопровержимая формула.

Иными словами, из первой теоремы следует, что если формальная система непротиворечива (то есть в системе нельзя и доказать утверждение, и его опровергнуть), то такая система будет неполна — в ней всегда можно будет построить истинное утверждение, истинность которого невозможно будет доказать в рамках выразительных средств формального языка этой системы. И даже если включать такие невыводимые и неопровержимые утверждения в состав аксиом системы, то набор аксиом не будет удовлетворять требованию полноты и в случае, если пополнить систему бесконечным множеством аксиом. Проще говоря, из первой теоремы следует, что в непротиворечивой формальной системе множество истинных формул всегда будет больше множества доказуемых формул.

В свою очередь, вторая теорема о неполноте утверждает, что если формальная система непротиворечива, то в ней невыводима формула, содержательно утверждающая непротиворечивость этой системы.

Как можно объяснить вторую теорему, если условием непротиворечивости является наличие в формальной системе невыводимой и неопровержимой формулы, то обосновать непротиворечивость этой формальной системы средствами самой системы не получится, так как, выходит, что само «условие непротиворечивости» в системе невыводимо. Потому что пока в системе остаётся что-то непонятное — невыводимая и неопровержимая формула — то окончательно утверждать ничего нельзя, так как наличие непонятного оставляет все вопросы открытыми.

В то же время непротиворечивость одной формальной системы может быть доказана средствами другой формальной системы с более выразительным языком. Однако проблема в том, что если правила вывода этой системы будут сильнее логических средств арифметики, то уверенности в доказательстве не будет.

Причина отсутствия уверенности в следующем. Если арифметика непротиворечива, то, как говорилось, более богатый язык позволит доказать её непротиворечивость. Но арифметика изучает числа, их свойства и отношения, а чисел бесконечно много. К примеру, нет самого большого натурального числа, множество всех натуральных чисел бесконечно. Поэтому язык, на котором можно будет доказать непротиворечивость сразу всей арифметики, должен «вместить» в себя сразу всё бесконечное множество натуральных чисел, то есть потребуется рассмотрение бесконечности не как только потенциального, а как актуального явления — как некоторого завершённого, обозримого объекта.

Однако конструктивность такого подхода не очевидна, потому что кроме как «потенциально», то есть в некой недостижимой на практике перспективе, построить бесконечность невозможно.

Понять логические затруднения, которые возникают, если рассматривать бесконечность как завершённый объект, отчасти поможет такой пример. Если представить, что жизнь бесконечна и при этом рассматривать такую жизнь как целое, то получится, что количество минут, часов или дней этой жизни будет равно количеству лет, веков и т. д., так как и то и другое будет одинаково бесконечно. Ещё один пример — парадокс Галилея. Каждое натуральное число — 1, 2, 3, 4… — можно возвести в квадрат, поэтому квадратов натуральных чисел, очевидно, должно быть столько же, сколько самих натуральных чисел. Но при этом не из каждого натурального числа можно извлечь целый корень, поэтому получается, что количество квадратов натуральных чисел меньше количества натуральных чисел. Что противоречит первому выводу, что квадратов столько же. Эти парадоксальные ситуации говорят о том, что к бесконечным объектам не применима очевидная в иных обстоятельствах аксиома Евклида «целое больше своей части». Более строго, бесконечные множества характеризуются как множества, имеющие собственные подмножества той же мощности.

Таким образом, если правила вывода системы будут сильнее логических средств арифметики, то используемые в доказательстве методы не будут финитистскими, то есть не будут методами конечными, наглядными, однозначно ясными.

Например, непротиворечивость формальной арифметики доказана в теории Генцена (где к логике первого порядка добавлен упрощённый вариант трансфинитной индукции — метода доказательства, обобщающего математическую индукцию на случай несчётного числа значений параметра), или в рамках теории множеств (посредством доказательства теоремы Гудстейна). Эти формальные системы сильнее арифметики, так как позволяют совершать операции над бесконечными совокупностями (множествами) элементов, объединённых по некоторому признаку, и доказательства собственной непротиворечивости уже не имеют. Причём если исходить из того, что для доказательства непротиворечивости этих формальных систем потребуется формальная система с ещё более выразительным языком, то методы этой системы, очевидно, должны быть «ещё менее финитистскими» и, как следствие, оставлять ещё больше вопросов.

Более того, под вопросом находится даже сама принципиальная возможность такого доказательства, так как формальная система, в которой можно будет доказать непротиворечивость теории множеств, должна оперировать таким объектом, как множество всех множеств.

Теория множеств изучает множества (элементом множества может быть любой объект), поэтому чтобы доказать непротиворечивость теории множеств, формальная система, в которой это будет возможно, должна обладать более богатым языком, то есть этот язык должен «вместить» в себя всю теорию множеств. Проще говоря, вместить все мыслимые множества, точно также как сама теория множеств «вместила» в себя всю арифметику. Однако, в отличие, например, от множества всех натуральных чисел, множество всех множеств — это объект противоречивый.

Здесь сделаем отступление и рассмотрим противоречивость множества всех множеств подробнее и в более широком контексте, чем только математическом, после чего вернёмся к теоремам Гёделя.

Как говорилось, несмотря на то, что натуральных чисел бесконечно много, мы всё-таки можем представить их все одним объектом — множеством натуральных чисел. Однако совсем другая ситуация возникает, если попробовать в таком же ключе «одного объекта» представить множество всех множеств.

Рассмотрим такой аргумент. Множество всех множеств, очевидно, должно быть самым большим множеством, так как включает в себя все множества. Однако множество всех подмножеств любого множества (множество всех возможных объединений элементов множества между собой) будет всегда больше самого множества (количество всех возможных объединений элементов множества, очевидно, много больше, чем количество самих этих элементов множества). Но тогда, если мы включим в множество всех множеств ещё и множество всех его подмножеств, то множество всех множеств, естественно, тут же станет больше. Но тогда и множество подмножеств полученного таким образом множества всех множеств точно так же снова станет больше самого множества всех множеств, а значит, операцию по включению в него его подмножеств нужно будет проделывать опять — и так бесконечно. Где бы мы ни остановились, тут же оказывается, что множество подмножеств больше самого множества всех множеств. Но множество всех множеств должно быть самым большим.

Таким образом, непротиворечиво определить объект «множество всех множеств» не получается. Если мы говорим, что множество всех множеств — это самое больше множество, так как этот объект включает в себя все множества, то оказывается, что множество всех его подмножеств больше самого множества всех множеств, а как только переносим внимание на подмножества, то они сами по себе всего лишь набор подмножеств, а не объект, не множество всех множеств. Чтобы они стали самостоятельным объектом, их надо обобщить в «новое целое» — множество всех множеств. Но такой объект противоречив, так как включает в себя сам себя.

Может быть дело в названии? Почему бы не обобщить все множества не во «множество всех множеств», а назвать этот объект по-другому — «общность всех множеств», например. Однако в теории множеств речь идёт о множествах, у нас нет и не может быть других объектов — только множества и подмножества (они же элементы множества). Поэтому в теории множеств «общность всех множеств» — это тоже множество, и оно тоже должно быть подмножеством множества всех множеств. В ином случае это должна быть другая теория — «теория общностей», но в ней возникли бы точно такие же по своей сути противоречия.

В результате, ввиду противоречивости, множество всех множеств не может являться объектом никакой теории. Но другого множества всех множеств, которое будет множеством именно всех множеств, у нас нет. В итоге доказательство непротиворечивости теории множеств построить невозможно. Наоборот, наличие парадоксов говорит о противоречивости теории множеств.

Парадоксальность множество всех множеств можно описать по-другому, возможно, более понятно. Пусть есть множество всех множеств, которые не содержат себя в качестве своего элемента. Например, такие множества — это множество людей или, например, множество электронов, и вообще любые наборы чего-либо конкретного. Очевидно, что само множество людей или множество электронов как объекты — это не человек и не электрон, то есть это действительно такие множества, которые не содержат сами себя в качестве своего элемента. Но если представить множество всех таких множеств — будет ли оно содержать себя в качестве своего элемента?

Кажется, ответ очевиден — если рассматриваются только множества, которые не содержат себя своим элементом, то и их совокупность тоже не будет содержать себя своим элементом. Откуда взяться чему-то другому, ведь это просто совокупность всех множеств, которые не содержат себя своим элементом, а не нечто новое, не некий новый объект. С другой стороны, так как речь идёт о множестве самих множеств, то такое множество, очевидно, должно содержать себя своим элементом — оно же само тоже множество, а значит, должно быть элементом самого себя, множества всех множеств. Таким образом, возникает противоречие, так как мы рассматриваем только такие множества, которые не содержат себя своим элементом. Множество всех множеств не может существовать.

Описанный парадокс — это парадокс Рассела, парадокс первого («наивного») варианта теории множеств. Парадокс Рассела в других формулировках был известен ещё в Древней Греции. Например, это парадокс лжеца: «Это высказывание ложь». Если данное высказывание действительно ложь, то оно правдиво говорит о своей ложности, то есть оно правдиво. Если же оно правдиво, то оно ложно. Другой вариант: «Мэры всех городов должны жить не в своем городе, а в специальном Городе Мэров». Но где тогда должен жить мэр Города Мэров, ведь по условию в своём городе он жить не может? Или даже так: если разделить все числа на интересные и неинтересные, то неинтересные числа сразу станут интересны тем, что они неинтересные, то есть интересными, получается, будут и сразу все числа, и только их часть.

Тем не менее на нынешнем этапе развития теории множеств с помощью различных достаточно искусственных ограничений основные противоречия преодолены. Способ преодоления противоречий фактически заключается в том, чтобы так или иначе устранить множество всех множеств из теории. Например, похожим образом в науке не рассматривается теория всего, хотя бы потому, что она ещё не создана, но это не мешает делать содержательные утверждения об отдельных явлениях. Поэтому в разных вариантах теории множеств вместо множества всех множеств теперь тоже рассматриваются объекты более частного характера: универсальный класс — класс всех множеств, который сам множеством не является, или универсальное множество (универсум), которое понимается более узко, как «множество, включающее все множества, участвующие в рассматриваемой задаче». Доказательство непротиворечивости таких теорий становится возможным, оно будет ограничено рассматриваемыми множествами.

Теперь обратим внимание, множество всех множеств — это, по сути, объект «всё», а одна из тем статьи как раз о таком объекте — о теории всего, то есть о том, можно ли описать «всё», выразить «всё» на языке некоторой теории. И противоречивость множества всех множеств, наверное, говорит о том что и теория всего тоже должна быть противоречивой. Пока не будем делать обобщений насчёт теории всего, о ней речь пойдёт позже, тем не менее, действительно, ещё ненадолго отложим теоремы Гёделя и рассмотрим множество всех множеств подробнее. 

И прежде всего, как кажется, множество всех множеств должно быть, несмотря ни на какие противоречия. Потому что если что-то мыслится, то должен существовать и объект «всё мыслимое», если существует что-то, то должно быть и «всё сущее», если есть язык, то должен быть и «самый богатый язык». Однако, как следует из парадоксов со множеством всех множеств, с такими объектами может быть не всё так однозначно. И не просто потому, что их нельзя построить «на практике», как нельзя построить бесконечность натуральных чисел, а потому что эти объекты противоречивые, бессмысленные. Они как будто должны выходить за рамки самих себя, за рамки того, что рассматривается.

Множество людей — это не человек, множество электронов — не электрон, множество всех множеств тоже не должно быть множеством, чтобы не включать в себя само себя и тем самым избежать противоречивости. Но у нас есть только множества, за рамки множеств мы выйти не можем. Теперь посмотрим на объекты «всё мыслимое», «всё сущее», «самый богатый язык». По тем же самым причинам «всё мыслимое» уже не может быть мыслимым, «всё сущее» — сущим, а «самый богатый язык» — это уже не язык. «Всё мыслимое», «всё сущее» или «самый богатый язык» — это нечто большее, чем просто что-то мыслимое, что-то существующее или какой-либо язык. Но нельзя больше чем мыслить, существовать и говорить, поэтому для того, кто мыслит, существует и говорит, это объекты непознаваемые, недоступные осмыслению.

Можно сказать, что в попытке определить объект, который вмещает в себя всё, мы сталкиваемся с такой бесконечностью, которая бесконечно бесконечнее любой мыслимой бесконечности. Настолько, что мы уже не в состоянии как-либо «объять взглядом», оценить, представить такой объект. И ввиду его уже «максимальной нефинитисткости», то есть максимальной неоднозначности, неясности, мы получаем объект уже попросту противоречивый, контринтуитивный, немыслимый.

Тем не менее интересные аналогии ещё не закончились. Множество всех множеств можно связать ещё с одним явлением — познанием.

В попытке определить множество всех множеств как некий завершённый объект, то есть как некое целое, оно как будто бы постоянно от нас «убегает», постоянно расширяется, ускользает от внимания, не позволяя заключить себя в рамки каких-либо границ, пределов, одного образа. Потому что как только мы переводим внимание с объекта на его элементы, то есть с множества всех множеств на его подмножества, пытаясь подтвердить, что все подмножества учтены, множество всех множеств тут же стремительно вырастает, требуя нового подтверждения, и так постоянно. Иными словами, представление о целом требует проверки через уточнение деталей, а уточнение деталей требует проверки через уточнение целого, которое снова требует внимания к деталям — и так бесконечно.

Эту особенность множества всех множеств можно связать не только с противоречивостью объекта «всё», но и с самим ходом познания. В процессе познания представление о деталях уточняет смысл целого, а целое — смысл деталей. В результате изменяется представление и о мире в целом, и о его элементах. Но, учитывая противоречивость объекта «всё», этот процесс никогда не достигнет своего логического итога в виде точного понимания и мира в целом, и его элементов. Если объект «всё» противоречив, то познание и должно быть бесконечным, самая нижняя черепаха мироздания никогда не будет найдена. В свою очередь, приближение к ней, вероятно, будет отражаться и на ходе познания в целом, и на отдельных теориях. Как конкретно выглядит это отражение, мы рассмотрим в седьмой главе. 

Связать множество всех множеств с познанием можно ещё одним способом. Познавая мир, мы обучаемся, то есть некоторым образом меняемся и действуем иначе, чем раньше, по новому алгоритму. При этом, так как мы часть всего сущего, то понимание всего, очевидно, должно включать и понимание себя. Но в этом процессе мы, естественно, тоже обучаемся, то есть меняемся, усложняемся — и, таким образом, будем вынуждены уточнять понимание себя снова и снова — и так бесконечно. Образно говоря, попытка описать себя равносильна рисованию себя, рисующего себя, рисующего себя… и так бесконечно. Потому что понимание себя требует качественного перехода к чему-то другому, к какому-то другому объекту, но нельзя быть не собой.

Немного перефразируем сказанное в предыдущем абзаце. Целое — это всегда новый объект, так как на уровне целого у деталей появляются новые качества. Клетки становятся человеком, деревья лесом и так далее. Однако, чтобы понять смысл целого, на объект надо посмотреть со стороны — со стороны своего опыта, для чего надо предположить модель явления. Иными словами, надо мысленно выйти за рамки рассматриваемого явления. Но за рамки всего, как и за рамки себя, выйти в принципе невозможно. Потому что и в том и в другом случае придётся выйти за рамки своих знаний, чувств, задач, за рамки какого бы то ни было смысла, пространства и времени, всего прошлого будущего. В итоге, в отличие от других явлений, объект «всё», точно так же, как объект «Я», не имеет никакого смысла. Являясь частью мира, сделать вывод обо всём мире невозможно — в то же время наблюдать мир можно, только будучи его частью. Парадокс Рассела демонстрирует это теоретико-множественном уровне. 

И наконец обратим внимание, что множество всех множеств можно сравнить в том числе и с истинной невыводимой формулой из первой теоремы Гёделя о неполноте. Такая формула есть — и множество всех множеств, очевидно, есть, должно быть. Но эта формула невыводима — и множество всех множеств тоже «невыводимо», рассуждения, которые, как кажется, к нему ведут, на самом деле ведут к противоречиям.

Теперь вернёмся к теоремам Гёделя и определим их значение.

Итак, из теорем Гёделя о неполноте следует, что так расширить аксиоматику любой достаточно богатой и непротиворечивой формальной системы, чтобы все утверждения без остатка распределились на истинные и ложные, невозможно, потому что если система непротиворечива, то в ней всегда должны оставаться истинные невыводимые формулы. Доказать непротиворечивость формальной системы можно в системе с более богатым языком, но для доказательства непротиворечивости уже этой формальной системы потребуется система с ещё более богатым языком — и так бесконечно, при этом каждый более богатый язык будет всё менее финитистским.

В результате логико-математическое значение теорем Гёделя можно определить следующим образом. Никакая формализованная система логики не может быть адекватной базой математики, потому что если математика непротиворечива, то она не может быть целиком сведена к какому-либо конечному набору аксиом — их никогда не хватит, чтобы доказать все математические истины. Можно сформулировать иначе: чтобы доказать непротиворечивость математики, нужно выйти за рамки математики, но за рамками математики не может быть математических доказательств. Или так: если математика непротиворечива, то она не может быть целиком сведена к каким-либо финитистским — ясным, конечным — построениям, полностью выражена с помощью каких-либо финитистских методов рассуждения.

В свою очередь, эти выводы можно интерпретировать как невозможность устранения из математики метафизики — неких невычислимых, непонятных оснований, которые невозможно выразить в виде каких-либо точных правил, строгих законов, то есть невозможно формализовать.

Историко-математическое значение теорем Гёделя о неполноте заключается в их радикальном влиянии на программу формализации оснований математики с последующим доказательством её непротиворечивости, проводимую знаменитым немецким математиком Давидом Гильбертом в 20-е годы прошлого века. Для осуществления этой программы Гильберт разработал строгую логическую теорию доказательств, с помощью которой непротиворечивость математики свелась бы к доказательству непротиворечивости арифметики. Как следует из теорем, программа оказалась невыполнимой.

Выяснив основное содержание теорем Гёделя о неполноте, далее рассмотрим их связь с построением искусственного интеллекта. Но прежде ещё раз вспомним, что аргументы этой главы, которые касаются искусственного интеллекта, носят общий, принципиальный характер. В них не учитываются особенности мозга и алгоритмов искусственного интеллекта (отчасти коснёмся этой темы в конце главы, когда речь пойдёт о свободе воли). Речь об этом пойдёт во второй главе и других главах. Более того, аргументы этой главы фактически никак не пригодятся для доказательства ограничений сложности искусственного интеллекта, которое будет приведено во второй главе. Но они пригодятся в третьей главе, где мы снова вернёмся к принципиальным соображениям, и в других главах, в том числе, когда речь пойдёт о физических основаниях жизни.

Связать сделанные выводы с ограничением сложности искусственного интеллекта можно следующим образом.

«Понять» явление — это формализовать его, то есть изучить законы явления и написать его алгоритм, формулу явления, которая этот алгоритм содержит и позволит вычислять течение явления, в зависимости от начальных условий. Другими словами, «понять» явление — это научиться его предсказывать; чем дальше в прошлое и будущее можно заглянуть, тем глубже представление о происходящем. В свою очередь, алгоритм, как точная формула явления, подразумевает формальный язык, в котором по строгим правилам сочетаний букв и слов одни утверждения перерабатываются в другие — «дано» в «ответ», начальное состояние в конечное. Изменить здесь что-то невозможно, так как если неизвестен алгоритм, то нельзя говорить о понимании явления, потому что без знания того, как конкретно условия влияют на явление, течение явления можно будет только угадывать, а если язык не формальный, то есть не однозначный, не строгий, то он не позволит выразить точное знание. В итоге, чем меньше в описании явления формального языка, то есть чем в описании «меньше алгоритма», «меньше математики» и, следовательно, чем меньше в явлении понятного, тем больше предсказание такого явления будет связано с угадыванием, случайным выбором — иными словами, будет расти неопределённость.

Таким образом, понятно, что ограничение на формализацию явления — это ограничение на понимание явления. Ограничение, накладываемые теоремами Гёделя, — это ограничение на формализацию математики, то есть на понимание математики. Математика есть некоторый итог мышления, а мышление, в свою очередь, есть некоторый физический процесс, явление природы. Следовательно, ограничение на понимание математики может иметь связь как с ограничением на понимание работы мозга, так и природы в целом. Вероятно также, что эти ограничения могут иметь связь с созданием искусственного интеллекта. Действительно ли это так?

Если предположить, что мышление человека — это некое «обычное» физическое явление (как на самом деле, скажем во второй и третьей главе), то очевидно — для того, чтобы воссоздать мышление в искусственной системе не наугад, а целенаправленно, точно понимая что, как и зачем делается, мышление прежде следует понять, то есть формализовать. Другими словами, надо найти законы мышления, написать его алгоритм, то есть создать «теорию мышления», «теорию интеллекта» — «формулу» того, как мышление происходит. Однако, согласно теоремам Гёделя, в решении этой задачи возникнут принципиальные сложности.

Самый очевидный аргумент, говорящий о том, что сложности действительно возникнут, состоит в том, что непосредственным источником математики является мышление человека, поэтому если мышление будет формализовано, то формализована будет и вся математика. Но вся математика не может быть формализована, так как такая формальная система будет противоречивой. Следовательно, не может быть формализовано и всё мышление. В итоге всё верно, мышление «невычислимо», алгоритм мышления не имеет смысла, различие естественного интеллекта и машинного принципиальное.

Тем не менее рассмотрим ситуацию подробнее: в чём конкретно будет противоречие, другие аргументы и их следствия.

Если предположить, что мышление можно формализовать, то есть мышление имеет некоторые законы и их можно найти и выразить в виде строгих формул, то мы, таким образом, построим алгоритм мышления, который позволит вычислять любой мыслительный процесс, любой итог мышления, в том числе сами найденные нами законы мышления, ведь они тоже есть некоторый итог мышления. В свою очередь, поиск законов мышления в этом случае можно представить, как поиск субъектом своих аксиом.

В скобках обратим внимание. Наверное, в сказанном уже заметно что-то «не то». Вначале мы находим законы мышления, а потом оказывается, что они позволяют вычислять законы мышления — законы мышления, таким образом, выводят сами себя. В этом явно есть какое-то противоречие. Можно сформулировать это противоречие иначе. Законы формулируются на формальном, математическом языке, а так как все знания, все утверждения и вообще все слова, включая сами законы мышления, следуют из законов мышления, то, получается, что, когда найдены законы мышления, то слова начинают следовать только из слов. А куда же исчез мозг, работу которого должны описывать законы мышления? А познаваемый мир? Странная ситуация? Вернёмся к ней позже.

Итак, пока субъекту известны ещё не все свои аксиомы, то есть не все законы мышления, то понятно, что алгоритм мышления написать будет нельзя, поэтому строго разделять свои утверждения на истинные и ложные субъект не сможет. Не зная всех причин появления утверждений, не понимая, как конкретно мозг приходит к тому или иному выводу, что и как конкретно на этот вывод влияет, нет и оснований считать свои утверждения истинными или ложными. В конце концов даже само представление о том, что есть «ложь», а что «истина», тоже понятно ещё не полностью. Точнее говоря, субъект сможет разделить на истинные и ложные только часть своих утверждений — некоторое частное утверждение можно будет назвать истинным, но сама концепция, в которой это утверждение выведено как истинное, такого же строгого обоснования иметь уже не будет.

Тогда можно предположить, что если субъекту станут известны все свои аксиомы, то есть все законы мышления, алгоритм мышления написать будет можно, а значит, и строгая граница между истиной и ложью тоже может быть проведена. Основания всех своих утверждений станут в точности понятны, поэтому любое своё утверждение субъект сможет однозначно определить или как истинное, или как ложное, фантазию можно будет строго отделять от реальности.

Однако, наоборот, такая «полнота знания» будет означать, что субъект не знает абсолютно ничего, потому что именно так можно охарактеризовать противоречивость.

Согласно теореме Гёделя, если формальная система непротиворечива, то набор аксиом не может быть полон, из-за чего, как говорилось, в непротиворечивой формальной системе множество истинных формул всегда будет больше множества доказуемых формул. Таким образом, в отношении непротиворечивой формальной системы можно сказать то же самое, что и в отношении мышления, законы которого известны ещё не полностью: «некоторое частное утверждение можно будет назвать истинным, но сама концепция, в которой это утверждение выведено как истинное, такого же строгого обоснования иметь уже не будет». «Концепция» — это сама формальная система, «частные утверждения», которые в ней выводятся, — это доказываемые теоремы, при этом непротиворечивость «концепции» нельзя доказать средствами самой этой системы.

Однако если мы смогли сформулировать алгоритм мышления, то это означает, что мы сформулировали его на некотором формальном языке в рамках некоторой формальной системы. И набор аксиом этой формальной системы должен быть именно полон, потому что алгоритм мышления следует сам из себя. Как говорилось, алгоритм мышления — это, как и любое утверждение, некоторый итог мышления, при этом алгоритм мышления описывает всё мышление, все его итоги, а значит, и свой собственный вывод тоже. Поэтому за рамками алгоритма мышления ничего мыслимого оставаться уже не может — алгоритм мышления выводит всё, включая сам себя. Следовательно, набор аксиом формальной системы, на языке которой написан алгоритм мышления, будет полон, потому что, во-первых, она тоже итог мышления, во-вторых, в мышлении никаких «истинных, но невыводимых формул» нет, так как все формулы следуют из алгоритм мышления, а алгоритм мышления следует сам из себя. В итоге такая формальная система будет противоречивой, поэтому алгоритм мышления не имеет смысла.

Скажем то же самое более кратко. Источником формальной системы, на языке которой формализовано мышление, является само мышление. Однако, формализуя свой источник, эта формальная система формализует и саму себя тоже. Поэтому такая формальная система должна быть полной, так как в формализованном мышлении не может быть ничего невыводимого. Но тогда эта формальная система должна быть противоречивой, потому что в непротиворечивой формальной системе должна существовать истинная невыводимая формула.

Опишем противоречие более наглядно. Для этого вспомним, в чём вообще причина противоречивости. Если можно сформулировать утверждение, то можно сформулировать и его отрицание, но в непротиворечивой формальной системе доказуемым может быть только что-то одно. Наоборот, в противоречивой системе выводиться будет и то и другое — «А» будет равно «не А».

Но именно это и произойдёт в случае формализации мышления. Все возможные утверждения, которые только можно сформулировать, следуют, естественно, из законов мышления. Поэтому знание всех законов мышления будет означать, что выводимыми станут  абсолютно все утверждения, который только можно сформулировать, в том числе противоположные или даже о ложности самих законов мышления, по которым эти утверждения получены. Однако, как говорилось, если система аксиом непротиворечива, то верным в ней можно только что-то одно — или «А», или «не А». Поэтому выводимость всех утверждений, наоборот, будет означать, что ложь перестанет отличаться от истины, верное от неверного, всё станет одинаковым — и из знаний субъекта исчезнет какой-либо смысл. Но в отсутствие смысла нельзя вести речь и о каком-либо знании.

Посмотрим ещё раз. Если у нас есть верный алгоритм некого явления, то, естественно, что ничего «ложное» из него следовать не может. Алгоритм — это инструкция переработки входящих данных в исходящие. Поэтому если у нас есть такая инструкция, есть верная «формула» явления, то мы всего лишь подставляем в неё начальные условия, в которых хотим явление исследовать, и получаем результатом то, что будет происходить с явлением в этих условиях. В случае алгоритма мышления, подставляя начальные условия — например сигналы рецепторов — мы, очевидно, можем найти такие условия, когда получим на выходе высказывание, что алгоритм мышления неверный. Ведь человек может при желании сказать, что-то верное или неверное, соврать, пошутить, независимо от того, как обстоят дела на самом деле, при этом желания не возникают без причины. Однако тогда, получается, что из верного алгоритма следует неверное утверждение о том, что этот алгоритм неверный. Если алгоритм верный, то он неверный. Это и есть противоречивость, бессмысленность. Истина и ложь становятся неотличимы друг от друга, так как доказать можно абсолютно всё, что можно сформулировать.

Противоречивость алгоритма мышления можно объяснить по-другому, может быть, ещё более наглядно. Знание законов мышления означает возможность предсказывать поведение любого субъекта, включая собственное поведение. Но, как кажется, если будущее известно, то его всегда можно изменить и поступить иначе, чем предсказано. Получается, если субъект не знает о том, что его поведение предсказано, то предсказание будет точным, но если ему предсказание сообщить, то он сможет своё поведение изменить. Однако если верность предсказания зависит от его знания субъектом, то очевидно, что описаны минимум ещё не все законы мышления, так как, оказывается, их недостаточно, чтобы предсказывать поведение во всех ситуациях. Таким образом, идея, что можно найти все законы мышления, ведёт к противоречиям. Точное разрешение этого парадокса приведём в конце третьей главы.

В том числе невозможность найти все законы мышления означает, что не может быть построена теория всего — теория, из которой будут выводимо всё сущее — так как мышление из неё будет невыводимо.

Посмотрим на противоречивость законов мышления с несколько другой стороны. Окружающая нас среда сама по себе не может быть ложной — она такая, какая есть. Поэтому если мы в точности опишем связь среды со своими утверждениями, то есть в точности установим, как утверждения возникают, как конкретно тот или иной «вход» в мозге приводит к тому или иному «выходу», то утверждения перестанут отличаться от среды, станут ей. И тогда утверждения, естественно, не смогут быть ложными. Но тогда они не смогут быть и истинными, так как в отсутствие ложных утверждений нет и истинных. Таким образом, возможность такую связь провести и с этой точки зрения ведёт к противоречиям. Проще говоря, сколько бы мы ни познавали стул, как бы точно его себе ни представляли, сколь точно ни описывали, никаких стульев в нашей голове не появиться, образ стула — это ещё не сам стул.

Заметим, сказанное означает, что наше представление о реальном мире всегда неточное и неполное, иными словами, ничего из наших знаний в реальности не существует. Более того, не просто не существует, а наши представления о реальности отличаются от самой реальности качественно — об этом говорит тот факт, что по мере познания стул в нашей голове не становится всё более и более реальным стулом, то есть разница между образом явления и самим явлением принципиальная, действительно качественная и всегда остаётся таковой. Как ни странно, это совсем не означает наличия в мозге чего-то «нефизичного», «нематериального», но оставим подробности о качественном отличии знания о реальности и самой реальности для четвёртой и седьмой главы.

Ещё один вывод из сказанного заключается в том, что смысл не может быть формализован. Смысл — это составляющая сознания, эмоционально воспринимаемая обобщённая перспектива ситуации, например, радость, печаль, удивление, то есть в целом эмоциональные оттенки хорошо/плохо. При этом сознание, очевидно, неотделимо от мышления. Поэтому если мышление можно описать на некотором языке, то и смысл тоже станет обычным утверждением этого языка. Однако тогда разница между ложью и истиной исчезнет, так как смысл и истинного утверждения, и ложного станет истинным утверждением языка, на котором описано мышление. Следовательно, чтобы у утверждений был какой-либо смысл, он должен оставаться за рамками утверждений, то есть сам смысл нельзя выразить каким-либо языком, смысл должен отличаться от какого бы то ни было языка, язык сам по себе никакого смысла не имеет и иметь не может. Можно обратить внимание, сказанное означает, что в природе должно быть что-то, что словами выразить нельзя. Потому что у слов самих по себе никакого смысла нет, но смысл при этом есть.

Противоречивость законов мышления можно объяснить ещё одним способом. Формализовать явление — это описать его на некотором формальном языке. При этом формализация мышления, которое есть непосредственный источник всех языков, будет равносильна построению максимально выразительного языка. Но максимально выразительный язык должен быть языком и максимально «не финитистским», то есть абсолютно неясным, неоднозначным, попросту «не языком», полной его противоположностью, поэтому ни что-либо на нём сформулировать, ни даже построить такой язык невозможно. Как мы уже писали, то же самое следует из противоречивости множества всех множеств.

Приведём ещё один аргумент.

Если пополнение непротиворечивой формальной системы аксиомами может продолжаться бесконечно и всё равно будут оставаться истинные недоказуемые утверждения, то и формализация мышления тоже процесс бесконечный. Если непротиворечивая формальная система не может быть представлена конечной совокупностью алгоритмов, то и мышление тоже не может быть представлено конечной совокупностью алгоритмов. Обратим внимание, приведённые утверждения — это не утверждения о бесконечности значений параметров мышления, потому что они говорят о том, что бесконечен сам набор правил, по которым меняются параметры мышления.

Теперь вернёмся к теорем Гёделя и рассмотрим собственно сам гёделевский аргумент, для чего обратимся к сути доказательства важной в данном случае первой теоремы.

Вспомним, первая теорема о неполноте утверждает: если формальная система непротиворечива, то в ней существует невыводимая и неопровержимая формула. Поэтому идея доказательства, найденного Гёделем, заключалась в том, чтобы построить пример формулы, которая была бы и недоказуема, и одновременно содержательно истинна. Таковой Гёдель берёт формулу, которая содержательно утверждает свою собственную недоказуемость, то есть невыводимость из аксиом рассматриваемой формальной системы (так называемое гёделево предложение). Тогда, если эта формула в системе доказуема, то возникает противоречие, так как формула утверждает, что она недоказуема. Но если формула недоказуема, то она истинна, так как утверждает, что она недоказуема и на самом деле недоказуема. Таким образом, построенная формула является истинной недоказуемой формулой.

Для построения такой формулы и доказательства теоремы Гёдель приписал каждому символу, формуле или доказательству рассматриваемой системы номер — натуральное число (гёделева нумерация). Чем, по существу, задал специфический метаязык, который позволил «внутри» самой формальной системы высказывать суждения о её свойствах в форме суждений о числах. Например, невыводимость формулы означает, что в системе не может быть построено число с такими свойствами.

Однако помимо математических идей из этого доказательства следует и то, что человек способен распознавать истинные формулы, даже несмотря на их невыводимость из аксиом системы — иначе, например, истинную невыводимую формулу построить было бы невозможно. Но это значит, что мышление человека способно распознавать истину неким «не математическим» образом, так как в математике истинность определяется только посредством доказательства. Мышление не выводит формулы, будучи ограниченным формальными рамками аксиом системы, а находит их неким неформальным способом, имея возможность как будто наблюдать всю систему целиком, выделяя в ней интересные объекты, и уже только после этого проверяется их выводимость, исследуются пути к строгому доказательству. Поэтому можно предположить, что формальные утверждения — это действительно только некая «часть», некоторый «итог» принципиально неформализуемого, невычислимого явления, алгоритм которого написать невозможно.

С теоремами о неполноте перекликается теорема Тарского о невыразимости арифметической истины, доказанная выдающимся польско-американским математиком Альфредом Тарским в 1936 году.

Согласно этой теореме, множество истинных утверждений арифметики (множество их номеров в гёделевой нумерации) не является арифметическим множеством, то есть множество всех истинных утверждений арифметики не может быть выражено какой-либо формулой арифметики, тогда как множество доказуемых утверждений, наоборот, арифметично и даже перечислимо. Иное, например, означало бы, что истинной невыводимой формулы нет, арифметика противоречива. Таким образом, понятие арифметической истины не может быть выражено средствами самой арифметики. В то же время понятие арифметической истины может быть выражено в теории более сильной, чем арифметика, однако чтобы выразить понятие истины уже этой теории, потребуется теория с ещё более выразительным языком и так далее.

Далее тоже рассмотрим теорему Тарского с точки зрения возможности формализации мышления, но вначале обратим внимание на её значение применительно к другой идее, не менее глобальной — возможности построения теории всего. Как будет понятно, в том же смысле можно интерпретировать и терему Гёделя.

Представим, что мы поняли законы всего сущего и создали теорию всего, то есть написали формулу всего. Из этой формулы будет выводиться всё — все законы физики, алгоритмы всех явлений, в ней будут заключены ответы на все вопросы, всё прошлое и будущее. Теорема Тарского говорит о том, что такая теория не имеет смысла, потому что никакого языка для написания формулы будет недостаточно — всё, что есть, никаким языком выразить невозможно, так как это будет означать, что выражены и все истинные утверждения в том числе.

Проверим. Формула всего выражает всё, другими словами, формула всего выражает «множество всех истинных утверждений» обо всём. Однако, согласно теореме Тарского, формула, написанная на некотором языке, не может выразить множество всех истинных утверждений, которые можно на этом языке сформулировать, для построения такой формулы нужен более богатый язык. Возникает противоречие, так как, получается, что формула всего не может выразить всё.

Иными словами, как только у нас появляется язык, появляются и утверждения, которые можно на этом языке сформулировать — соответственно, истинные или ложные. И, чтобы выразить множество всех истинных утверждений, самого этого языка уже не хватит, нужен более богатый язык — и так бесконечно. Чтобы написать формулу всего, тоже нужен некоторый язык, причём этот язык должен быть максимально богатым, так как формула всего должна выражать всё. Но всё — это в том числе и множество всех истинных утверждений языка, на котором она написана. Но тогда формула всего будет противоречивой. Таким образом, в случае построения теории всего мы пришли к пределу — максимально богатого языка недостаточно, а более богатый язык существовать уже не может.

Сформулируем ограничение ещё одним способом. Для построения теории всего нужно выйти за рамки бесконечности всё более богатых языков. Однако чем богаче язык, тем менее он финитистский. В свою очередь, чем язык менее финитистский, тем меньше в нём ясности, строгости, конечности, а чем меньше в языке этих качеств, тем меньше это язык. Таким образом, получается, чтобы построить теорию всего, нужно выйти за рамки любого мыслимого языка, но сформулировать что-либо можно только на языке. Например, учитывая, что на языке формулируются все задачи и все решения, то выйти за рамки языка означает выйти за рамки всех задач и всех решений, в том числе за рамки задачи построения теории всего и за рамки решения этой задачи — за рамки самой теории всего.

Теперь обратим внимание на некоторые свойства теории всего. Теория всего позволила бы точно отделять ложь от истины, фантазию от реальности, так как из теории всего выводится всё прошлое и будущее, она содержит ответы на все вопросы. Но вспомним, теми же свойствами обладает алгоритм мышления, то есть теория всего и алгоритм мышления — это одно и то же. Например, все утверждения, которые только можно сформулировать, следуют из теории всего, в том числе и утверждения о ложности самой теории всего. Точно так же все утверждения следуют из алгоритма мышления. Таким образом, теория всего и алгоритм мышления — это одно и то же, поэтому они одинаково противоречивы.

Проверим утверждение, что эти алгоритмы одно и то же.

Вначале приведём самый короткий аргумент. Солипсизм неопровержим. Собственно, этим всё сказано. Солипсизм — это идея, что единственной реальностью является только собственное сознание, его наполняют видения, внешнего мира нет. Никакая теория не сможет опровергнуть это представление, потому что мир дан нам в ощущениях. В результате что бы мы ни описывали, мы описываем свои ощущения, и теория всего должна всего лишь описать их все. Но если всё мыслимое внутри нас, то всё мыслимое проще нас, то есть теория всего уже не может быть мыслимой.

Проверим подробнее.

Мир дан нам в ощущениях — это действительно так, независимо от идей солипсизма. Мы не воспринимаем мир непосредственно, а только через призму опыта, заключённого в структуре мозга. Поэтому в процессе познания мы фактически изучаем свои ощущения, которые делим на мир объективный и субъективный, явления физические и психические. Первые обусловлены законами физики, вторые законами мышления. Но так как на самом деле речь всегда идёт об одной и той же физической реальности, частью которой является субъект, то речь всегда идёт и об одних и тех же законах природы, лежащих в основании и объективного, и субъективного мира.

В результате ограничение на познание законов физики приведёт к невозможности понять и все законы мышления, так как о том, что ещё не все законы физики поняты, нам подскажет только невозможность непротиворечиво описать все свои ощущения. Наоборот, если станут известны все законы физики, то известны, естественно, станут и все законы мышления. Точно так же если понятны ещё не все законы мышления, то, очевидно, что понятны ещё не все законы физики. Наоборот, если все законы мышления станут понятны, то выводимыми становятся все ощущения и, следовательно, все законы физики. Таким образом, теория всего и алгоритм мышления — это действительно одно и то же. И теория всего, и алгоритм мышления должны объединить физическое и психическое в одной формальной структуре, в которой мир субъектов и объектов станет одним целым, одинаково выводимой будет и движение материи, и порывы чувств.

Проверим с точки зрения сложности. Равна ли она? Теория всего — это некоторый итог мышления, поэтому теория всего не может быть сложнее мышления. Но и мышление не может быть сложнее теории всего, так как теория всего описывает всё, включая само мышление. Таким образом, сложность алгоритма мышления и сложность теории всего равны, то есть и с этой точки зрения эти два гипотетических объекта равносильны друг другу.

Теперь вспомним теоремы Гёделя ещё раз. Ранее мы пришли к выводу, из теорем Гёделя следует, что написание алгоритма мышления равносильно построению максимально не финитистского языка, то есть языка максимально неясного, неоднозначного, не строгого, попросту «не языка». Как мы выяснили только что, то же самое следует и из теоремы Тарского — никакого языка для написания теории всего будет недостаточно, а теория всего и алгоритм мышления — это одно и то же.

Теория всего — это, видимо, физическая теория. Тогда что означает противоречивость теории всего с точки зрения физики? Теория всего описывает некие основания всего, то есть основания всей реальности, всего сущего. Следовательно никакой язык их описать не может. В основании реальности лежит что-то, что в принципе невыразимо никаким языком — и потому в основании мышления лежит, видимо, то же самое. Ещё не раз вернёмся к этим вопросам в других главах, а пока посмотрим на связь теоремы Тарского с алгоритмом мышления с других позиций.

Подобно тому, как средствами самой системы нельзя доказать её непротиворечивость, если система действительно непротиворечива, то невозможность выразить понятие истины в теореме Тарского — это невозможность выразить средствами самой теории некоторое утверждение о структуре этой теории. Иными словами, язык любой достаточно богатой и непротиворечивой формальной системы является ограниченно саморепрезентативным. Например, это значит, что никакая непротиворечивая математическая теория никогда не сможет выразить все математические истины, так как не сможет доказать некоторые истины о своей собственной структуре.

Поэтому с точки зрения формализации мышления интерпретировать теорему Тарского можно следующим образом. Возможность описать все законы мышления в терминах какого-либо языка означает, что этот язык возникает сам из себя, так как мышление является источником этого языка и он же мышление полностью описывает. Саморепрезентативность такого языка будет неограниченной, потому что всё, что мыслимо, будет и выводимым, так как все утверждения, которые только могут быть сформулированы, в этом описании уже предопределены, невыводимых утверждений попросту не останется.

Противоречивость такого итога можно заметить в самореференции. Неограниченно саморепрезентативный язык будет самореферентным. Все слова такого языка будут сами себя обосновывать — любое утверждение в конечном итоге будет иметь следствием само себя, так как нет никаких других оснований существования слов, кроме самих слов. Но слова сами по себе не имеют никакого смысла, поэтому язык не может иметь основанием только сам себя, не может описывать все правила, по которым сам возникает. Иначе истинность утверждений не будет обусловлена ничем, так как они не будут выражать ничего, кроме самих себя, никакого внешнего мира.

Наглядно иллюстрирует это противоречие такой вид логической ошибки (или демагогического приёма), как порочный круг — когда определение предмета включает в себя свойства самого предмета или когда при доказательстве утверждения используется само это утверждение. Здесь вспомним, что на стр. 12 мы уже пришли к выводу, что когда найдены законы мышления, то слова начинают следовать только из слов, и теперь понятно, почему это действительно означает противоречие.

В итоге в интерпретации теорем Гёделя и Тарского, на первый взгляд имеющих только математическое значение, кажется, действительно можно сделать вывод, что описать все законы мышления невозможно, то есть формализация мышления не имеет смысла, алгоритм мышления не может быть построен. Причём так как законы мышления выводит само мышление, то сказанное означает, что какие-то законы мышления не могут быть самим мышлением поняты, найдены, то есть это законы непознаваемые, они должны всегда оставаться в природе нераскрытыми, являясь основанием невыводимой «части» мышления, которую нельзя как-либо описать. Обратим внимание, фактически к тем же выводам мы пришли в интерпретации противоречивости множества всех множеств — такие объекты, как всё сущее, всё мыслимое, самый богатый язык, не имеют смысла

Например, бессмысленность алгоритма мышления означает, что интеллект нельзя запрограммировать, то есть нельзя написать компьютерную программу интеллекта, так как компьютерная программа — это реализованный конкретными средствами алгоритм. Или не может быть такого алгоритма, который бы по условиям задачи выдавал параметры интеллекта, способного её решить. Бессмысленность алгоритма мышления говорит и о том, что нельзя перенести личность в компьютер.

Бессмысленность алгоритма мышления позволяет сделать некоторые выводы, относительно свободы воли. Есть она или нет? Может быть, что-то другое?

Рассмотрим два варианта, оба не совсем верные. Потом уточним сказанное, а также сделаем некоторый предварительный экскурс в физику жизни. А не начнём сразу с верного ответа, чтобы точнее понять вопрос, его подводные камни.

Очевидно, что случайный выбор, как некая встроенная в наше мышление возможность выбирать поведение неким истинно случайным образом, — это не свобода воли, так как выбор по принципу «как карта ляжет» — это не выбор субъекта, а фактически некое «внешнее» по отношению к его опыту событие. Предопределённость поведения тоже, естественно, к свободе воли никакого отношения не имеет. Бессмысленность алгоритма мышления ужа сама по себе означает, что предопределённости нет — иначе алгоритм мышления хотя бы в принципиальном смысле мог бы существовать, но на всякий случай рассмотрим все варианты.

И действительно, к каким бы выводам мы ни пришли ранее, предопределённость выглядит противоречивой и сама по себе. Например, если в основании нашего поведения лежат некие законы, используя которые можно хотя бы в принципиальном смысле поведение предсказывать, то, получается, все наши поступки, мысли и чувства были в точности предопределены ещё в момент рождения Вселенной, что совершенно невероятно. Столь точные начальные настройки Вселенной выглядят абсолютно невозможными.

Вероятностный детерминизм квантовой механики в этой невероятной картине ничего не меняет. Согласно КМ, каждая частица есть сразу во всём пространстве Вселенной, но с разной вероятностью быть обнаруженной там или там; эволюцию этой вероятности во времени и пространстве описывает волновая функция, и эта эволюция полностью детерминирована (волновая функция эволюционирует гладко и непрерывно). Таким образом, точность настройки начальных условий Вселенной всего лишь переносится с частиц, на их волновые функции.

Однако если, как показано ранее, теория всего не имеет смысла, то в основании природы, в основании всех её законов, в том числе КМ, лежит что-то познанию полностью недоступное. А так как теория всего в точности равна алгоритму мышления, то и в основании мышления лежит то же самое. Вспомним, что говорилось в начале статьи — функция мозга любого животного, включая человека, управлять мышцами, то есть вырабатывать и принимать решения, ставить и решать задачи, действовать, постоянно совершать выбор. Поэтому основания мышления — это действительно основание того, как мы приходим к тому или иному решению, совершаем выбор, основание нашей «воли». Следовательно, если в основании мышления лежит что-то познанию полностью недоступное, то какой-либо определённый ответ на вопрос, есть свобода воли или нет, дать в принципе невозможно. И не просто невозможно, а такой ответ не имеет смысла, его не существует. Потому что «не имеет смысла» — это значит, что верный ответ не может быть как-либо помыслен, представлен, осознан.

Таким образом, верный ответ на вопрос, есть свобода воли или нет, не сводится к простому противопоставлению «да» или «нет», верный ответ на этот вопрос попросту не существует ни в каком представимом виде.

Более того, не имеет смысла и сам вопрос. В нашей логике может быть или случайность, или предопределённость, или их «смесь» в виде вероятности, но, как показано, ничего из этого к свободе воли отношения иметь не может. Вспомним множество всех множеств. Вроде бы объект прост и даже очевиден, но он ускользает от понимания, стоит только к нему присмотреться внимательнее. То же самое и свобода воли. Что это такое? Как оказалось, её тоже нельзя даже определить. Множество всех множеств, теория всего, алгоритм мышления, свобода воли — это разные выражения границ познания.

Теперь рассмотрим второй вариант ответа на вопрос, есть ли свобода воли. В нём тоже будет не всё хорошо.

Опустим салфетку одним концом в воду. И увидим, как, смачивая салфетку, вода стала подниматься по ней вверх, преодолевая сопротивление среды и пренебрегая силой тяжести. Точно так же и мы по чисто физическим причинам активно стремимся в направлении, где меньше сопротивление среды или больше ресурсов (то есть в направлении к лучшему качеству жизни, наиболее полному решению задач самосохранения и размножения). А так как мы во время этого движения обучается, оно постепенно реализуется всё более сложным образом. Причём это движение всегда немного хаотичное, потому что мозг, в отсутствие жёстких связей между элементами, сочетает в себе хаос и порядок, но оно стабилизировано вот этим общим «притягивающим» направлением «к лучшему».

Например, как бы мы ни концентрировали внимание, оно всё равно немного флуктуирует, скачет, при этом его общее направление на решаемую задачу сохраняется. Более того, мозг, как физическая система, никак принципиально не отличается от остального организма, поэтому хаотическая составляющая есть не только в работе мозга, но и на всех уровнях биологических систем от клетки до биосферы. В свою очередь, важной характеристикой хаоса является чувствительность к начальным условиям. В результате наличие в нас некоторой доли хаоса и, как следствие, чувствительности, приводит к тому, что хотя в общем и целом мы все похожи, но в частностях отличаемся, на любом более общем масштабе мы все движемся в одном направлении, но разными конкретными траекториями на любом более мелком.

Поэтому даже если бы был строгий детерминизм, точной заданности поведения всё равно не будет. Возможность эволюции, как общего движения к порядку и его всё более сложным формам, задают обычные законы физики, а в рамках этого общего направления все биологические системы столь же случайны и неупорядочены, как камни у дороги. Но никто же не станет утверждать, что вот этот уникальный булыжник был в точности задан в момент рождения Вселенной? Потому что его уникальность — это и есть незаданность, «как попалость».

Законы физики определяют возможность появления камней, но не их конкретные формы, поэтому камни есть, но они все разные. Так же и в случае жизни — законы физики определяют существование таких явлений, которые становятся основанием жизни в целом, определяя её появление и эволюцию, но не подробности конкретных организмов. В результате так же как камни, в целом мы все похожи, так как в целом одинаково заданы едиными для всех законами физики, а частностях мы все разные, потому что не заданы, случайны. Наоборот, если бы, к примеру, несмотря на отсутствие жёстких связей между элементами, хаотичности в нашем поведении не было, то вот это было бы чрезвычайно странно, и говорило о предопределённости. 

Иными словами, в нашей Вселенной начальные условия можно задать грубо, мир от этого сильно не поменяется. Например, на ранних этапах эволюции Вселенной после этапа кварк-глюонной плазмы и бариогенеза очередной фазовый переход привёл к образованию элементарных частиц в их нынешней форме. Однако, очевидно, что как бы ни перемешать эти частицы, всё равно возникнут звёзды, планеты и камни на них, просто они будут не в точности там же, где сейчас, и не в точности такие же, как нынешние. Точно так же всё равно возникнет жизнь, просто не точная копия себя нынешней. В плане предопределённости у нас нет никакого отличия от камней.

В итоге, согласно бритве Оккама — средневекового монаха, одного из величайших логиков всех времён, призывавшего не плодить лишних сущностей, свобода воли оказывается именно такой лишней сущностью. Наше поведение вполне можно объяснить без неё, даже в строго детерминированном мире.

Тем не менее, как мы говорили, этот вывод тоже не совсем верный.

Ещё раз вспомним, что теория всего не имеет смысла, поэтому какое «всё», неизвестно и не может быть известно. В свою очередь, это означает, что ни одно утверждение не может быть расширено на «всё». Чтобы иметь смысл, утверждения должны иметь границы применимости — границы их расширения на время и пространство. Однако, когда мы предполагаем, что мир детерминирован, мы делаем утверждение именно обо «всём». Поэтому, наоборот, можно утверждать, что ни детерминизм, ни случайность, ни что-то ещё, что можно хоть как-то сформулировать, не лежат в основании мира. Там что-то другое, а наблюдаемая причинность лишь некое «внешнее», феноменологическое (наблюдаемое как феномен, без понимания оснований) проявление этого чего-то.

Но теория всего — это же и алгоритм мышления, поэтому если какая-то идея не имеет смысла в отношении всего, то она не имеет смысла и в отношении мышления. Следовательно, если нет предопределённости, то отсутствие свободы воли утверждать нельзя. Но и что свобода воли есть, тоже утверждать нельзя, так как неизвестно, что такое свобода воли. И не может быть известно, ведь свобода воли должна лежать в основании мышления, а это синоним не имеющего смысла. Чем бы свобода воли ни была, сформулировать, что это такое, невозможно.

Таким образом, как кажется, мы снова пришли к выводам первого варианта. Теперь уточним аргументы вариантов и сформулируем окончательный ответ.

Ошибочность второго варианта ответа в том, что в нём предполагается наличие в основании мира и, таким образом, в основании мышления, чего-то такого, что можно сформулировать. В данном случае детерминизма. И на этом уже строятся дальнейшие выводы о том, что свобода воли — это лишняя сущность. Однако основания мира не имеют смысла, поэтому апелляция к бритве Оккама неправомерна, лишней сущностью, наоборот, является сам детерминизм в его таком «безграничном» расширении на всё.

Первый же вариант нехорош тем, что на самом деле жизнь не такое уж непознаваемое явление, напрямую связанное с чём-то принципиально непонятным, что лежит в основании мира. Наличие непонятного в основании мира ещё не означает, что на более или менее поверхностном масштабе нельзя выделить в наблюдаемых событиях те или иные отдельные закономерности, то есть описать те или иные явления, открыть те или иные законы физики. В том числе описать такие явления, которые лежат в основании работы биологических систем. Естественно, это должны быть не совсем обычные явления, так как алгоритм обычных явлений написать можно, а алгоритм мышления не имеет смысла. В свою очередь, мышление, очевидно, не что-то принципиально отличное от остального организма, следовательно, явления, лежащие в основании биологических систем, должны отличаться некоей особенной, качественно более высокой непредсказуемостью, чем те явления, алгоритм которых написать можно.

Какие это явления? Подробнее скажем о них в восьмой главе, сейчас же сформулируем самое необходимое в нынешнем контексте. Начнём с возможности предсказаний. Могут ли быть принципиально разные в этом смысле явления? Ответ не так очевиден.

Все явления природы — это выделяемые нашим вниманием феноменологические проявления того, что лежит в её основании. Иными словами, это проявления происходящего на элементарном уровне материи. Элементарный уровень материи лежит в основании всех явлений природы, поэтому именно описание законов элементарного уровня материи — это и есть теория всего. По-другому, элементарный уровень материи — это реальность «как она есть на самом деле». Явления, которые лежат в основании жизни, естественно, такие же феноменологические проявления элементарного уровня материи.

Естественно также, что чем больше нюансов явления учитывает его описание, тем точнее будут предсказания. Учесть абсолютно все нюансы можно только в том случае, если описать явление на элементарном уровне материи. Такое описание будет абсолютно точным, ведь оно не оставит ничего скрытого. Однако, требуя описания элементарного уровня материи, абсолютная точность равносильна теории всего и потому не имеет смысла. Как следствие, предсказания в принципе не могут быть абсолютно точными — и это, что тоже естественно, касается всех явлений.

В скобках заметим, «элементарные частицы» в квантовой физике — это микрообъекты субъядерного масштаба, которые или считаются бесструктурными (например, фотоны, электроны), или которые на данное время на практике невозможно расщепить на составные части по причине конфайнмента (например, это протоны, нейтроны). Однако размер и другие свойства частиц за пределами некоторых доступных исследованию масштабов непонятны. Поэтому «элементарные частицы» — это части наиболее глубокого на нынешнее время представления о материи, но не представление об её элементарном уровне.

Как кажется, из сказанного следует очевидный вывод, что, последовательно уточняя описание, можно так же последовательно увеличивать точность предсказаний, но просто не до абсолютно точных — и это касается всех явлений. Однако этот очевидный вывод неверен. Он применим только к равновесным системам — грубым, которые сложно вывести из равновесия, то есть таким, на работу которых можно повлиять только более или менее значительным воздействием. В случае же неравновесных систем этот вывод не работает, а жизнь система именно такая.

Поясним.

Представим шарик на вершине горки. Он находится в шатком равновесии (в неравновесном состоянии), поэтому скатится с горки, стоит только к нему хоть немного прикоснуться. Иначе говоря, сколь угодно малое изменение параметров шарика (вследствие того же прикосновения) приведёт к тому, что его поведение качественно изменится — вместо покоя он, наоборот, покатится с горки вниз по той или иной её стороне.

Однако, ввиду того, что к качественному изменению поведения шарика может привести самое малое (то есть элементарное, происходящее на элементарном уровне материи) изменение его параметров, то и предсказать поведение шарика в критической точке максимальной неустойчивости (в точке бифуркации) поможет только его абсолютно точное описание. Стоит описание немного упростить, сделать его хотя бы чуть-чуть более грубым, ограничившись уровнем материи менее глубоким, чем элементарный, и предсказания будут качественно отличаться от реального поведения шарика, то есть фактически будут носить характер угадывания, потому что когда и по какой стороне горки скатится шарик, будет совершенно непонятно вплоть до того, как он начнёт катиться. Или предсказание будет абсолютно точным, или пальцем в небо, одно из двух.

Такая чувствительность называется чувствительностью к начальным условиям, мы недавно её уже упоминали. Как говорилось, она является важной характеристикой хаоса, а хаос лежит в основании жизни, то есть хаос является составляющей нашего поведения на всех уровнях. Таким образом, имея в своём основании хаос, жизнь на всех уровнях связана с элементарным уровнем материи и потому является чрезвычайно мало предсказуемым явлением.

Однако сказанное не выглядит разумным: хаос — это беспорядок, а беспорядка для жизни явно недостаточно.

Действительно, наряду с хаосом в основании жизни лежат такие явления, как самоорганизация и аттракторы. Если хаос — это беспорядок, то самоорганизация — это упорядочение хаоса без каких-либо специфических организующих воздействий (поэтому и само- организация), а аттракторы — это точка, периодическая траектория или область, к которой неизменно стремится поведение системы. Эти явления в некотором смысле противоположны хаосу, они ограничивают хаос, упорядочивают и направляют его, организуя элементы неживого мира в сложную структуру биологических систем и целенаправленное поведение.

Таким образом, на всех масштабах жизнь сочетает в себе одновременно хаос и порядок, на любом более общем масштабе будет наблюдаться порядок, на любом более мелком — хаос. Одной стороны жизни является организованность и целенаправленность, связанная с самоорганизацией и аттракторами, другой — непредсказуемость и индивидуальность, это черты хаоса, связанные с чувствительностью к начальным условиям. Например, поэтому предсказания нашего поведения возможны, но только или только в самом общем, или на очень короткий срок.

Это же и окончательный ответ на вопрос о свободе воли. И всё наше существование, и любой конкретный выбор — это сочетание самоорганизации и хаоса, порядка и беспорядка. В целом понятное, в частном невычислимое и непредсказуемое, растворяющееся в глубине материи, где любое знание теряет смысл.

В итоге несмотря на то, что явления, лежащие в основании жизни, известны и понятны, оказывается, что они ограничивают сами себя. Объясняя жизнь в целом, её частные параметры из них невыводимы. Если в целом жизнь и конкретно поведение человека предопределены законами физики нашего мира и указанными выше явлениями, то в частных параметрах о предопределённости говорить не имеет смысла, так как там начинается связь с элементарным уровнем материи, где ничего определённого не существует. Поэтому больше, чем сказано о свободе воли выше, сказать о ней вряд ли возможно. Если только ещё что-нибудь необычное — в восьмой главе, когда обстоятельства связи мышления с элементарным уровнем материи станут понятнее.

Обратим внимание, что искусственный интеллект, будь он в аппаратной или программной реализации, неравновесной системой не является. Поэтому к жизни искусственный интеллект отношения не имеет, знания элементарного уровня материи для описания его работы не требуется. Искусственный интеллект — это достаточно грубая, стабильная в широком классе условий система, работа которой реализована на масштабе много больше, чем элементарный. Иными словами, работа ИИ представляет из себя жёстко и однозначно заданное взаимодействие стабильных деталей, которые много крупнее, чем элементарный уровень материи.

И наконец без ответа остался вопрос — откуда берётся само ощущение свободы выбора? Почему мы делаем то, что «хотим»? Почему мы можем себе «приказать», заставить себя сделать что-то «волевым усилием»? Ответ несложен, мы дадим его во второй главе, так как он требует некоторого представления о работе мозга.

Далее, прежде чем перейти ко второй главе, в которой в том числе посмотрим на перспективы искусственного интеллекта с другой точки зрения, рассмотрим некоторые общие замечания, касающиеся уже сказанного.

По крайней мере на некоторые из приведённых выше аргументов можно возразить, что в объективной реальности нет формальных систем, поэтому применимость математических теорем для выводов о теории всего или о мышления не ясна и доказательством служить не может. К примеру, если человек ничего не знает о числах, умножении и сложении, то есть его мыслительные процессы не организованы «математическим образом», то может быть, что и математические теоремы к его мышлению неприменимы.

Однако сколько-нибудь глубокое отличие мышления людей, знающих математику и не знающих, тоже не кажется возможным. При этом если считать, что математика имеет смысл только в голове математика, то это уже само по себе означает бессмысленность формализации чего-либо. И ставит вопросы о знании вообще, так как бессмысленность математики за границами математического мышления означает и бессмысленность науки по отношению к объективной реальности. Математика является языком науки — аппарат логики (алфавит, аксиоматика, правила вывода) используется при построении любой научной модели.

Похожее возражение. Как уже говорилось, теоремы о неполноте применимы только к формальным системам с достаточно богатым языком. Например, к арифметике Пресбургера, где нет умножения (а значит, нет обратного ему деления и потому нет не целых чисел), или Евклидовой геометрии, где нельзя построить утверждения о натуральных числах, теоремы Гёделя не применимы, то есть эти системы являются и полными, и непротиворечивыми одновременно. Тогда если предположить, что математика некой цивилизации не знает, к примеру, умножения, то, может быть, и построение теории всего, и формализация мышления этой цивилизацией будет возможны?

Однако, ввиду того, что речь идёт о таком явлении как мышление, а оно, в свою очередь, часть природы, то очевидно, что язык этой теории должен быть достаточно богатым, чтобы включать в себя и натуральные числа, и умножение — просто по причине того, что такие формальные языки в принципе могут быть построены мышлением, даже если где-то они ещё и не известны. Поэтому выбор менее выразительного формального языка тоже не поможет формализовать мышление. Такой язык будет попросту ещё менее адекватен процессу мышления, чем язык выразительный. В то же время достаточно богатый язык уже позволит прийти к выводам Гёделя об ограничениях формальных систем, то есть, по сути, позволит формализовать представление о пределах формализации, неосуществимости ясного, конечного и одновременно полного и непротиворечивого описания законов природы. И наконец язык ещё более богатый будет уже слишком общим, не финитистским, допускать существование неконструктивных объектов, связанных с бесконечностью, построение которых «на практике» неосуществимо, то есть утверждения теории, использующей более выразительный язык, будут попросту не очевидными, не однозначными, допускающими толкования, приближаясь в этом к естественному языку.

Одновременно с этим цивилизация, к примеру, ещё не имеющая понятий «механизм», «электричество» или им подобных, очевидно, находится на очень низком уровне развития, потому что ещё не приступила к изучению сколько-нибудь сложных природных процессов. Но так же и цивилизация, математика которой не содержит умножения, очевидно, тоже знает о природе очень мало, ввиду того, что математика, как формальный язык, описывающий структуры, порядок и отношения, предоставляет языковые средства науке и потому напрямую связана с её развитием. Следовательно слишком простая математика будет означать в том числе и то, что знания такой цивилизации ещё слишком просты, чтобы сколько-нибудь близко подступиться к таким идеям, как исследование мозга, искусственный интеллект или теория всего.

Таким образом, несмотря на то, что в объективной реальности нет чисел или умножения, следует исходить из того, что математика по отношению к реальности имеет смысл. С другой стороны, из теорем Гёделя следует, что математика не является полностью адекватным средством описания мира, потому что математика не может формализовать сама себя, а значит, математика в принципе не способна описать всё. Это говорит о том, что математические построения сами по себе не могут служить единственным средством познания мира и требуют сверки с реальностью, а также, что познание мира, как его точного описания, ограничено.

Ограничения математики — это не проблема самой математики, а проявление более общих особенностей познания. Заключающихся в ограниченных возможностях языка в целом, который в принципе не способен описать свой источник и, таким образом, не способен описать весь мир целиком. В то же время лучших средств, кроме формальных, для точного описания мира неизвестно и их не может быть в принципе, так как только однозначный, строгий, ясный язык способен выразить точное знание.



2. Непосредственные препятствия

В этой главе рассмотрим перспективы создания сильного искусственного интеллекта с другой точки зрения — практической, поэтому принципиальные аргументы предыдущей главы нам не пригодятся. С какими проблемами столкнётся создание искусственного интеллекта на практике? Для ответа на этот вопрос прежде всего в общих чертах рассмотрим, как происходит мышление в мозге.


2.1. Нейронные сети

Как известно, мы мыслим сетью нейронов. Все нейроны нервной системы объединены в единую сеть, однако так как самым значительным их скоплением является головной мозг, то мыслим мы тоже в основном той частью нейронной сети, которая его образует, поэтому дальше с мышлением будем связывать именно мозг и его особенности. Надо заметить, утверждение, что мы мыслим нейронной сетью головного мозга на самом деле тоже упрощает реальную картину, потому что за счёт перемещения биологически активных веществ, в том числе в пространстве между нейронами, мыслит сразу весь объём мозга, а не только сеть самих нейронов. Но пока об этом уровне мышления известно относительно немного, поэтому сейчас мы не будем заострять на нём внимание, на выводы это всё равно не повлияет.


Рис. 1. Схематичное изображение нейронной сети. Кружочками обозначены нейроны, стрелочками — их связи. В отличие от изображённой, реальная биологическая нейронная сеть во множестве содержит связи обратные (от нейронов ближе к выходу к нейронам ближе ко входу) и связи нелокальные (напрямую соединяющие отдалённые участки сети) и в целом имеет много более сложную неоднородную архитектуру, подразделённую на зоны и отделы, архитектура связей в которых отличается. В том числе выход в нейронной сети мозга в некотором смысле находится там же, где и вход, так как нервные волокна, передающие сигналы «вниз» к мышцам и железам, проходят через нижние отделы мозга и спинной мозг, где происходит первичная обработка сигналов рецепторов.

На входе сеть нейронов имеет рецепторы внешней и внутренней среды, а на выходе мышцы и железы. Это означает, что задача мышления — перевод чувствительности в двигательную активность. Нервная система организует работу мышц и посредством желёз координирует с работой мышц работу остального организма.

Иными словами, в общем контексте стремления всего живого к самосохранению (и размножению, но данное стремление требует отдельного уточнения, оно будет сделано позже, на выводы это не повлияет) нервная система ставит цели и формирует работу мышц для их достижения. По мере усложнения мозга (в ходе эволюции и в процессе обучения) цели становятся всё более далёкими, стратегическими, а тактика последовательного движения к ним всё более сложной, так как по мере накопления опыта в формировании поведения внешняя и внутренняя среда учитываются всё более сложным образом, со всё большими подробностями.

Указанные свойства мозга позволяют сформулировать, что такое мышление, интеллект — это способность ставить и решать задачи, в также способность обучаться. Обучение позволяет ставить задачи точнее и решать их быстрее, с меньшими усилиями, более эффективно. Все задачи ставятся и решаются в контексте самой общей задачи любой жизни — задачи самосохранения, наиболее эффективного решения этой задачи, то есть, обобщённо, в контексте стремления к лучшему качеству жизни. Таким образом, интеллект (естественный интеллект) — это способность формировать тактику и стратегию поведенческих действий достижения целей самосохранения. Сложность тактики и дальность стратегий связана со способностью предсказывать события, то есть с полнотой и точностью знаний о себе и мире. Поэтому силу интеллекта можно связать с объёмом и сложностью опыта.

Забегая вперёд, стремление организмов к самосохранению напрямую связано с такими физическими особенностями биологических систем, которые лежат в самом основании любой мыслимой жизни (то есть не только известной, земной, а любой жизни вообще) и начинаются ещё в неживой природе. О некоторых из них мы уже говорили в первой главе. Это интенсивный обмен со средой веществом/энергией, неравновесность, нелинейность, хаос, самоорганизация, аттракторы. Иными словами, как лежащее в основании жизни, стремление к самосохранению не задано устройством какого-либо органа или системы организма, а есть физическая основа существования всех биологических систем на всех уровнях — от клетки или многоклеточного организма до социума и биосферы. Поэтому любое усложнение организмов в ходе эволюции, в том числе появление нервной системы и её усложнение в процессе обучения, — это не добавление к функции самосохранения чего-либо иного, нового, внешнего или появление этой функции, а только лишь усложнение этой функции, возможность учитывать среду точнее и полнее, формировать всё более сложную тактику и всё более далёкую стратегию поведенческих действий в реализации самосохранения. Тем не менее пока только обратим внимание на эту принципиальную особенность жизни, немного больше скажем в конце главы и подробнее вернёмся к физическим основаниям жизни в восьмой главе. В том числе узнаем, почему стремление к размножению — это не совсем то, что кажется.

Вернёмся к мышлению. Нейронная сеть мозга — это единая система чрезвычайно сложным образом связанных между собой нейронов. Связывают нейроны их отростки — аксоны и дендриты. Аксоны, длинные и разветвлённые, передают нервные импульсы, дендриты короткие, они принимают. Место контакта между аксоном и дендритом называется синапс. Аксоны объединяют как близкие, так и удалённые друг от друга нейроны, а в целом связи нейронов могут быть обратными и прямыми (см. подпись к рисунку). У каждого нейрона могут быть десятки тысяч связей с другими нейронами по всему пространству мозга, причём в мозге постоянно идёт более или менее активный процесс роста новых связей и отмирания связей малоактивных.

В том числе связи нейронов разделяются на тормозные и возбуждающие, причём и тех и других приблизительно поровну. Тем самым в мозге реализован баланс возбуждения и торможения, когда возбуждение одних нейронов в пространстве сети приводит к взаимосвязанному торможению других и наоборот по принципу «если где-то отнимется, то в другом месте обязательно прибавится».

Заметим, по-другому нельзя, потому что если нервная система не будет представлять из себя единую систему, в которой всё в высшей степени взаимосвязано и взаимозависимо, то невозможна будет точно координированная активность всех мышц и желёз. Например, вследствие взаимозависимости, активность одних рецепторов и молчание других приводит к тому, что одни нейроны в пространстве сети будут более активны, а другие — в точной координации с первыми — менее.  Как следствие, такая же картина активности будет и на выходе нейронной сети — одни нейроны будут генерировать больше нервных импульсов, другие меньше. В результате, к примеру, сгибательные мышцы конечности будут больше напряжены, так как их активизация нервными импульсами будет высокой, а разгибательные меньше — и конечность будет сгибаться. Изменение в сигналах рецепторов вызовут соответствующее и координированное перераспределение активности мышц всего мышечного аппарата.

Очень важно обратить внимание на следующую особенность нейронной сети мозга (и в принципе всех нейронных сетей, что искусственных, что биологических). На входе у нейронной сети гораздо больше нейронов, чем на выходе. В результате, как в воронке, в которую льют разные жидкости, по мере прохождения по нейронной сети сигналы рецепторов перемешиваются и сами собой «сжимаются» в упорядоченную активность нейронов на выходе сети, управляющих мышцами и железами. Такая особенность архитектуры — большое количество нейронов на входе и меньшее на выходе — это очень важное обстоятельство для понимания работы нейронных сетей.

Более точно, афферентных нервных волокон — непосредственно проводящих нервные импульсы в головной мозг — около 3 млн. Два из которых связаны со зрительными рецепторами, а один несёт информацию от спинного мозга, в котором происходит первичная обработка сигналов от остальных рецепторов. В то же время эфферентных волокон, несущих нервные импульсы от головного мозга к мышцам и железам, всего около 200 тыс.. Например, указанное соотношение объясняет, почему именно зрение вносит наибольший вклад в сознание — потому что импульсов от зрительных рецепторов поступает в мозг больше, чем от других рецепторов.

Процесс «перемешивания и сжатия» сигналов рецепторов в нейронной сети по-другому можно назвать конкуренцией всего со всем, в результате чего остаётся самое важное. Точно так же можно сказать, что «перемешивание и сжатие» имеет смысл распознавания неких абстрактных признаков условий, их ключевых особенностей. От общих признаков ближе ко входу нейронной сети, где по причине большого количества входов «сжатие» минимально, ко всё более конкретным на выходе. Тем самым поток данных от рецепторов трансформируется в мозге в конкретный образ, цель действий. В результате поведение связано не просто с условиями, а с их важными для животного особенностями, так как то, какие признаки условий будут выделены, зависит не только от самих условий, но и от устройства нейронной сети, то есть от опыта животного. 

Процесс распознавания — от общего к конкретному — это же и процесс формирования мышечной активности, от действий общего характера до связанных с частными особенностями нынешних условий. Поэтому выходы к мышцам и железам тоже есть на разных уровнях нейронной сети мозга, и по мере прохождения нервного возбуждения по сети мышечная активность надстраивается элементами, всё более тонко учитывающими внутренние и внешние условия — от тонуса, вегетативных функций, объёмных мышечных синергий, рефлекторных и циклических движений к движениям пространственного поля, предметным действиям, речи, письму.

При этом наличие в нейронной сети мозга обратных связей приводит к тому, что теперь импульсы в мозге могут циркулировать от входа к выходу и обратно. Очень важное значение этого влияния в том, что высокие уровни нейронной сети могут влиять на низкие. Тем самым уже сформированное поведение может непосредственно влиять на поведение ещё только формирующееся, чтобы формирующееся по смыслу «продолжало» сформированное. В результате появляется возможность создавать связанные общим смыслом цепочки действий, то есть проводить последовательное целенаправленное поведение, в том числе фразы языка и алгоритмы решения задач.

Теперь обратим внимание на ещё одно очень важное обстоятельство. В нашем описании выходит, что, с одной стороны, по мере прохождения по сети сигналы рецепторов «перемешиваются и сжимаются» в активность выходных нейронов, управляющих мышцами и железами, а с другой — в этом же процессе происходит распознавание условий, то есть тот же процесс «перемешивания и сжатия» приводит к формированию конкретного образа, цели действий. На самом деле всё это действительно один и тот же процесс прохождения сигналов рецепторов от входа к выходу нейронной сети. Способность одновременно и распознавать условия, и строить последовательности управляющих мышцами сигналов нейронной сети придают обратные связи.

Если убрать обратные связи, то любой этап описанной работы будет только распознаванием условий — «перемешиванием и сжатием», а активность нейронов на выходе сети будет кодировать отнесение рецепторного сигнала к некому классу условий. К примеру, сеть будет отличать изображения кошек от изображения собак — высокая активность одних нейронов на выходе будет означать кошку, других собаку.

Но если есть обратные связи, то, как говорилось, появляется динамика, потому что возбуждение от рецепторов получает возможность циркулировать — теперь оно проходит не только от входа к выходу, но и обратно, влияя на нижележащие нейроны. Тем самым теперь не только вход влияет на выход, но и выход непосредственно влияет на вход, поэтому работа сети усложняется, а возможности растут.

Суть роста возможностей в том, что активность выходных нейронов теперь будет представлять из себя определённые последовательности нервных импульсов, связанных общим смыслом — и между собой, и с распознаваемыми условиями. У нейронной сети появляется новая функция — построение связанных последовательностей сигналов. Но функция распознавания при этом не исчезает, а лишь объединяется с новой в одно целое. В результате, если на выходе мышцы, то работа сети станет построением неких последовательностей действий, связанных с кошками и собаками.

Заметим также, высокая взаимозависимость нейронов в сети означает, что строгое разделение опыта/функций в пространстве сети не имеет смысла и ведёт к противоречиям. Это тоже очень важный для понимания работы мозга (и подобных ему физических систем) вывод, поэтому рассмотрим его подробнее.

Например, если опыт строго разделён, то становится невозможным обучение — опыт будет меняться не как одно целое, а частями, которые потом не смогут адекватно взаимодействовать. Или обучаться должна только одна какая-то часть мозга, которая «собирает» сложное поведение из простых реакций, жёстко заданных на врождённом уровне. Кажется, последний вариант возможен.

Однако, согласно этому представлению, собственно само мышление находится только в управляющей части, которая знает, как всё надо «собирать», и которая обучается. Но ведь и в этой части опыт тоже должен быть или разделён — и тогда все описанные выше проблемы с обучением возникают опять, или опыт действительно не разделён, представляя из себя одно целое.

Чтобы противоречивость деления была понятнее, приведём более конкретный пример. Часто мышление описывают в том смысле, что сознание — это некий экран, на котором мозг формирует и наблюдает варианты поведения, выбирая наиболее оптимальные. Подобные идеи возникают в буквальной трактовке воспринимаемого в сознании, которое действительно можно интерпретировать, как будто некое внутреннее Я наблюдает за происходящим, за мыслями, создаёт и сравнивает их. Почему возникает такая иллюзия, скажем позже, а пока обратим внимание, в этой модели опять происходит разделение мозга на части управляющие и управляемые, думающие и не думающие, а это значит уже описанное выше противоречие с обучением. Тем не менее разделение данной модели на функции носит более конкретный характер, поэтому и противоречие тоже можно уточнить.

Допустим, Я — это некая часть мозга, которая формирует и оценивает модели поведения, построенные ей в другой части мозга. Однако, чтобы моделировать, Я должно эти модели запомнить и сравнить внутри себя, иначе одна модель для Я не будет отличаться от другой. Следовательно, внутри себя Я тоже должно моделировать. В результате вначале мозг делится на первое Я и модели, которые это Я создаёт и оценивает, потом внутри первого Я возникает ещё одно Я и его модели, потом ещё одно... и так до бесконечности. В конечном итоге от Я ничего не остаётся. 

В центре управления уже не может быть других центров управления, иначе центр управления в конечном итоге превратится в бесконечно малую точку. Парадоксальность функции управления поняли ещё в древности, но тогда не знали о нейронных сетях, и парадоксы работали, скорее, на идею души, как непознаваемой искры, которую вдохнул в человека бог. Теперь же известно, что на самом деле весь мозг — это одна биологическая нейронная сеть, которая мыслит вся целиком, как одно целое, а любое разделение мышления/опыта на части ведёт к противоречиям.

Но как возможно, что опыт не разделён? Все наслышаны о разных зонах, отделах и даже отдельных нейронах, которые вроде бы отвечают за свои конкретные функции? Действительно, всё это в любой нейронной сети есть, но, как известно, пишется не всегда так, как слышится.

Опыт нейронной сети — это вся сеть, вся её структура, так как всей структурой нейронной сети как целым определяется то, как будут преобразованы рецепторные сигналы на входе сети в сигналы на выходе из неё. Конкретный набор сигналов рецепторов меняет предыдущую картину возбуждения/торможения в сети некоторым конкретным образом, тем самым из структуры сети — из опыта — «вызывается» некоторая конкретная реакция, то есть возникает конкретная конфигурация активности выходных нейронов сети. Например, это означает, что опыт в нейронной сети вызывается не по адресу, а по содержанию. Что отличает нейронные сети от традиционных компьютеров, где разные данные хранятся на своём месте на жёстком диске.

При этом, ввиду того, что торможение одних нейронов — это связанное возбуждение других и наоборот, нельзя сказать, что в сети что-то отключается или подключается, всегда работает вся сеть. Но если любой опыт — это вся сеть, динамика всей сети, то любой опыт размазан сразу по всей сети, по всем её нейронам и связям. В свою очередь, так как сеть неоднородна (на входе нейронов больше, чем на выходе; архитектура связей в разных зонах и отделах сети различается), эти неоднородности вносят свою своеобразную составляющую в активность нейронов на выходе сети. В результате, обобщая размазанность и неоднородность, можно говорить только о большей или меньшей концентрации какого-либо опыта  в пространстве сети, а не о строгом разделении.

Проще говоря, в нейронах самих по себе нет какого-либо опыта, кроме «умения» принимать и передавать возбуждение, их иное функциональное значение возникает только в контексте всех остальных нейронов сети и потому не может быть от них строго отделено. Поэтому, отвечая на вопрос выше, знаменитые «нейроны бабушки», «нейроны новизны» или иные другие нейроны и зоны «чего-то конкретного» — это не элементы мозга, в которых единолично сконцентрирован некий конкретный опыт, а всего лишь те нейроны, зоны и области мозга, которые неизменно активны, когда человек думает о бабушках, замечает что-то новое или в целом занимается некой конкретной деятельностью. Естественно, в этот момент активны и множество других нейронов по всему мозгу (вспомним о балансе возбуждения и торможения), но корреляция их активности с данным опытом просто менее прямая.

Из-за нелокальности опыта, нейронные сети повторяют ту особенность голограмм, когда любая часть изображения содержит всё изображение с уменьшающейся детализацией, в зависимости от величины фрагмента. Ввиду того, что любой опыт принадлежит всей структуре нейронной сети сразу, различаясь только концентрацией в разных областях, то при разрушении оставшаяся часть нейронной сети всё равно сохраняет особенности опыта исходной, только в меньшем объёме. И потому при сохранении у нейронной сети достаточного количества нейронов и связей утраченное качество опыта может быть потом быстро восстановлено. В большей степени это относится к коре мозга, так как структурные отличия подкорковых отделов более выражены. К тому же если разрушение затронуло подкорковые области, то нарушены будут общие функции интеллекта, или не будет поступать афферентное возбуждение, если разрушены первичные проекционные поля.

Распределённость опыта в мозге ограничивает возможность чтения мыслей или управления мыслью различных устройств. В идеале наиболее точное представление о направлении мысли человека, можно получить, только если снять активность всех нейронов. Но это физически невозможно (подробнее о принципиальных ограничениях в исследовании мозга скажем в восьмой главе), и в любом случае мозг у всех людей различается, поэтому чем выше становится точность, тем стремительнее растёт необходимость индивидуализации. Все остальные методы слишком приблизительны, их точность в чтении мыслей сильно ограничена. Более того, мозг обучается (скоро объясним, как это происходит), и в этом процессе распределение опыта (его концентрация в тех или иных областях сети) меняется. В результате значение активности одних и тех же нейронов не только зависит от контекста остальных, но и может менять своё значение с течением времени.

Теперь вспомним об иллюзии Я как наблюдателя образов. Почему она возникает, если мозг мыслит как целое?

Для ответа вспомним, как работают нейронные сети, как происходит распознавание. От общего к конкретному. В результате как связанных с распознаванием общих признаков ситуации и выделением общего направления поведения, работа низких уровней нейронной сети психически ощущается как эмоции/мотивы. В этот момент «мы понимаем» смысл ситуации (то есть её обобщённую перспективу), и соответствующим образом меняется тонус мышц, пульс, частота дыхания, поза. По мере приближения к коре распознаются всё более частные признаки условий и одновременно происходит их обобщение в «целое», в конкретный образ, вследствие описанного ранее «сжатия» — и общее направление действий становится конкретным целенаправленным поведением. От низкого уровня абстракций к высокому, от общего к конкретному.

В результате в нашем сознании есть самоощущение, как психическое восприятие работы наиболее нижележащих отделов мозга; есть более конкретизированные эмоции/мотивы, «концентрирующиеся» в лимбической системе, как восприятие «смысла» условий, и наконец есть конкретные образы, как восприятие нынешней цели действий, за что в большей степени отвечает кора.

Таким образом, в большей степени «мы» — это эмоционально-мотивирующее самоощущение, восприятие смысла происходящего, как «фон» опыта более общего, связанного с нижними уровнями нейронной сети мозга, на котором распознаются общие признаки условий и формируется общее направление действий — возникает мотив и эмоциональное побуждение. И в меньшей степени «мы» — это образы и фразы языка, как опыт более конкретный, больше связанный с корой. Который, как опыт более частный, «мы» поэтому как будто «наблюдаем со стороны», а точнее, «на фоне» опыта более общего. В итоге мы не наблюдаем в своём сознании что-либо со стороны, а являемся этим, просто на разных уровнях мозга. Тема корреляции сознания с работой нейронной сети мозга будет продолжена в восьмой главе, где рассмотрим физические аспекты этой связи.

Теперь вспомним о свободе воли.

В первой главе мы обещали сказать, откуда берётся ощущение свободы выбора своих действий. Для ответа внимательно посмотрим, что написано в абзаце выше и сформулируем его немного другими словами. На входе нейронной сети условия в целом, ничего не выделено, на выходе конкретные признаки условий. Таким образом, распознавание условий и формирование поведения происходит от общего к частному, от неопределённого к конкретному. Иначе говоря, от «побуждения» к конкретному действию, от «захотел» к «сделал». Это причина ощущения свободы выбора. Вначале «мы» чего-то неопределённо «хотим», затем «понимаем», чего хотим и «делаем» это.

Но где здесь «воля», «приказ» самому себе?

Вследствие наличия обратных связей, в мозге не только нижележащие уровни влияют на вышележащие, но и наоборот. А управление вегетативным функциями происходит именно на нижних уровнях (конкретика ситуации для этих функций не важна), где происходит распознавание общих признаков условий. Поэтому если распознаваемый конкретный стимул оказывается важным (звонок будильника), но не соответствует условиям в целом (тепло, темно и хочется спать), это приводит к активному перестроению работы нижних уровней сети (резко поднять тонус мышц, открыть глаза), что и ощущается как волевое усилие. Не «желание», идущее снизу вверх, а «приказ», идущий сверху вниз.

В итоге, как мы и говорили в первой главе, на общем уровне в нашем поведении всё понятно, в том числе и как возникает ощущение свободы выбора. Но на частном начинаются загадки. Это и сама конкретика выбора, о чём в первой главе мы кратко уже говорили, и это само сознание как таковое, о «непосредственно наблюдаемой» загадочности которого скажем подробнее в четвёртой главе. 

Рост уровня абстракций по мере прохождения возбуждения от входа сети к выходу — это способность выделять всё более сложные признаки условий. Например, если мозг других животных может выделять в условиях более или менее сложные образы непосредственно окружающих их объектов, то человеку за счёт большей сложности его мозга (упрощённо говоря, за счёт большего количества слоёв в нейронной сети и связей нейронов) широко доступны уже и «образы образов», то есть понятия языка — абстракции более высокого уровня, чем образы конкретных объектов. К примеру, понятие «яблоко» обобщает все яблоки, которые как-либо известны человеку. Более того, человек способен распознавать в условиях в том числе такие сложные, глобальные и уже непосредственно не наблюдаемые «образы», как политика, физика, время, вселенная и т. д.. Как следствие, в отличие от более простых животных, поведение человека, тактика и стратегия его действий, формируется не только «здесь и сейчас», вне сколько-нибудь развёрнутого представления о себе и окружающем мире, о прошлом и будущем, но и на таких же сложных и глобальных пространственных и временных масштабах.

Не полях заметим, возможно, что ещё более высокие уровни абстракций могут быть доступны гипотетическим представителям инопланетной жизни. Интеллект которых, таким образом, будет выше человеческого, а тактика и стратегия поведения будет ещё более сложной и глобальной — и непонятной человеку, так же, как человеческие действия непонятны, например, человекообразным обезьянам.

Скажем об обучении.

Все нейронные сети обучаются, то есть, взаимодействуя со средой, нейронная сеть меняется и после обучения обрабатывает сигналы рецепторов уже по-другому. Непосредственно обучение происходит за счёт изменения весов связей нейронов — чем активнее связь, тем всё больше становится её «вес» в торможении или возбуждении нейрона. Или, точнее говоря, меняется «вес» синапса. Нейроны «общаются» нервными импульсами, передача импульса происходит в синапсе, обучение связано с тем, что амплитуда и частота передаваемого сигнала могут меняться.

Суть обучения в том, что разные условия — это разная конфигурация активности рецепторов, а значит, и отличающаяся картина взаимозависимых процессов возбуждения/торможения внутри нейронной сети, то есть разные условия активизируют сеть по-разному. Причём больше всего активизируют сеть не просто условия, а то, что в них повторяется, их неизменно повторяющиеся признаки, характеризующие эти условия. Тем самым по мере повторения эти признаки всё больше меняют сеть «под себя». В результате разный опыт всё больше разделяется в пространстве сети, что, как следствие, приводит к активизации и разных выходных нейронов — нейронная сеть обучается, реакция на разные стимулы становится всё более индивидуальной, учитывающей их особенности всё более точно.

В свою очередь, после обучения распознавание даже минимума знакомых признаков (например, если стимул частично скрыт, зашумлён, искажён или только отчасти похож на ранее виденные) не помешает нейронной сети узнать ранее запомненное. Дело в том, что относительно большой вес активизированных знакомыми признаками связей приведёт к тому, что именно эти связи будут играть главную роль в активизации нейронов на выходе сети — и сеть узнает в условиях знакомое, поэтому в целом реакция сети будет такой же, как на ранее многократно наблюдаемый объект.

Иными словами, в ходе обучения сеть учится распознавать логику происходящего, основные свойства окружающего мира, суть условий — то есть то, что неизменно повторяется, а значит, является в этих условиях важным, основным, определяющим, что характеризует эти условия, «сшивает» внешне разные условия некоей внутренней общностью. Поэтому после обучения ответ сети происходит прежде всего в соответствии с сутью происходящего. Говоря по-другому, сети умеют различать контекст условий.

В то же время реакция сети немного изменится под влиянием частных особенностей нынешней ситуации. В результате мы узнаем знакомый объект даже в новом ракурсе — и одновременно тонко скорректируем движения, чтобы им воспользоваться. Мы поймём контекст — дружеская вечеринка или официальный приём — и необходимым образом скорректируем поведение.

Немного скажем о кратковременной памяти. Как уже говорилось, возбуждение в мозге циркулирует. Кратковременная память представляет собой до некоторой степени выделенную и наиболее активную составляющую этой циркуляции (как быстрый поток в более медленном потоке), в который вовлечены ансамбли нейронов, более всего связанные с тем, что попадает во внимание. Внимание отражает нынешнюю цель поведения, в контексте которой формируется реакция сети (наибольшая активность этих нейронов, как аттрактор, притягивает фазовые траектории других нейронов мозга). При этом то, что попало во внимание, не исчезает из кратковременной памяти сразу как только внимание переключится, а ещё некоторое время выделенная активность этих нейронов сохраняется, хотя и несколько менее энергичная. По этой причине запоминается прежде всего то, что ранее попало во внимание (вспомним, чем более активен нейрон, тем больший вес приобретают его связи в активизации других нейронов), в ином случае запоминалось бы много лишнего, маловажного, всё подряд. Больше о внимании скажем в восьмой главе, так как более точное представление требует обращения к физической стороне работы мозга.

Теперь ненадолго вернёмся к обратным связям и дополним их значение с учётом обучения. Дополним коротко, так как подробное описание работы мозга выходит за рамки статьи. Обратные связи позволяют не только обучаться, но и переучиваться в широких пределах, так как с их помощью частный вывод может непосредственно влиять низкие уровни сети, обучая их, то есть может менять общее представление. Автоматизация поведения по мере научения, а также возможность «думать», то есть фантазировать, вспоминать, планировать, мысленно говорить самому с собой — это всё тоже обратные связи. Или сравнение — к примеру, что больше два или три? — это тоже обратные связи. Нелокальность опыта означает, что такие естественные функции интеллекта как «сравнение» на самом деле не так очевидны, как может казаться, потому что сравнивающий и сравниваемое, оценщик и оцениваемое представляют в мозге одно целое.

Немного подробнее остановимся только на разговоре самим с собой. Распознавая общие признаки условий, подкорковые отделы задают общее направление распознаванию в коре. Уточняя его до конкретных фраз и образов, в том числе интроспективных — обозначающих себя, кора по обратным связям повлияет на подкорковые отделы, внеся в их работу соответствующие словам изменения, что воспринимается как некоторое новое эмоциональное состояние. Одновременно подкорковые отделы задают новое общее направление распознаванию в коре, которое приводит к новым конкретным фразам и образам. В итоге субъект и эмоционально «понимает» себя, и соответственно этому пониманию в его сознании возникают новые слова и образы.

Итак, «нейросетевая» организация мышления очевидна: новый опыт — это новое поведение, новая последовательность поведенческих действий. При этом невозможно иметь в мозге хранилище опыта, заранее приспособленного под все возможные нюансы условий, которые только могут встретиться животному. Следовательно нужна такая система, которая будет способная сама собой усложняться, только по причине взаимодействия со средой. В результате в структуре этой системы сама собой будет формироваться картина мира, где представлены важные для животного признаки среды и реакция на них. И чем система изначально сложнее, тем большему животное сможет научиться, сложнее поведение построить. Таковой системой природа создала нейронную сеть, а её начальная сложность связана с наследственными факторами.


2.2. Пределы сложности искусственного интеллекта

Мы в общих чертах рассмотрели работу мозга. Из сказанного понятно, что мы мыслим нейронной сетью. В основе систем искусственного интеллекта тоже лежат нейронные сети, только искусственные. В отличие от биологических, искусственные нейронные сети — это алгоритм. Но алгоритм не совсем обычный. 

Вспомним, алгоритм — это естественное выражение «понимания». Явление понятно, если построен его алгоритм (или, что одно и то же, если явление формализовано, написана формула явления, создана теория, описывающая явление), так как только построение алгоритма позволяет предсказывать течение явления в зависимости от начальных условий, а именно возможность предсказывать и есть суть «понимания». Иными словами, алгоритм позволяет «вычислять» течение явления, последовательно преобразовывая данные в результат по некоторым правилам.

Однако, в отличие от «понятных» алгоритмов, искусственные нейронные сети — это алгоритм как раз «непонятный». Но как такое может быть, если алгоритм — это выражение понимания?

Короткий ответ дадим сразу. Алгоритм может быть очень сложным — и по этой причине он, естественно, будет малопонятным. Но в пределе малопонятный алгоритм станет алгоритмом уже фактически непонятным. Оставаясь при этом алгоритмом, то есть некоей последовательностью шагов преобразования данных в результат, которою в принципиальном смысле можно расписать ручкой на бумаге, хотя это может быть очень сложно или даже невозможно сделать на практике.

Дальше подробнее рассмотрим, почему искусственная нейронная сеть — это алгоритм сложный и непонятный, а главное — что из этого следует с точки зрения создания искусственного интеллекта.

Если животному обучение необходимо из-за того, что невозможно иметь в мозге хранилище опыта, заранее приспособленного под все возможные нюансы условий, которые только могут животному встретиться, то человеку, очевидно, проще было бы сразу написать прямой алгоритм решения задачи, а не тратить время на создание и обучение нейронных сетей. Тогда зачем нужны искусственные нейронные сети?

Алгоритм — это выражение понимания, но сам по себе алгоритм — это решение, то есть алгоритм — это инструкция, описывающая порядок действий исполнителя для решения задачи. Поэтому какая задача — сложная она или простая, таким же сложным или простым будет её решение. И таким же будет «понимание» этого решения — оно будет понятно меньше или больше. В результате на некотором уровне сложности задач прямой алгоритм решения написать становится делом на практике неосуществимым, так как он становится уже слишком сложным и потому слишком непонятным.

Таким образом, ответ на вопрос, зачем нужны нейронные сети, заключается в том, что искусственные нейронные сети используются в тех случаях, когда прямой алгоритм решения задачи написать очень сложно, например, ввиду множества данных и нелинейных отношений между ними, поэтому нужен какой-либо иной способ решения.

«Иной способ решения» в этом случае может быть только один — его суть в том, чтобы задача решалась «сама собой», то есть без прямого участия интеллекта человека, ведь человеческий интеллект затрудняется написать прямой алгоритм её решения. Другими словами, «иной способ решения» — это должен быть «непонятный процесс решения». И он же «непрямой процесс решения». Потому что был бы процесс решения понятен, мы бы и сами решили задачу, то есть написали прямой алгоритм решения.

Способ решения задач, который удовлетворяет всем этим особенностям, есть — это искусственная нейронная сеть и обучение. По аналогии с мозгом (который тоже никто заранее не программирует под решение различных конкретных задач, встающих перед животным, направленно внося изменения в его структуру) более или менее наугад создаётся некоторая искусственная нейронная сеть, которая затем обучается предъявлением обучающих примеров. По тому же принципу, как это описано ранее в отношении мозга, искусственная нейронная сеть запоминает в обучающих примерах нечто неизменно повторяющееся, то есть их некие общие признаки, суть наблюдаемого, логику происходящего. После чего сможет узнать эти признаки в изображении, которого не было в обучающей выборке, верно отнеся его к соответствующему классу, сможет построить фразу или прогноз развития событий. То есть сеть решает задачу как будто «сама», в ходе обучения, без прямого задания пути к решению человеком. В свою очередь, так как алгоритм решения непонятной задачи нам, естественно, непонятен, а искусственная нейронная сеть — это и есть этот алгоритм решения, то как сеть приходит к тому или иному решению нам, соответственно, тоже непонятно. По этой причине искусственные нейронные сети иногда называют системой чёрный ящик.

В скобках заметим, получившие широкую известность чат-боты типа ChatGPT, построенные на основе нейронный сетей, обучаются по тому же общему принципу. Сети предъявляется выборка текстов, на основании которых она запоминает, как сочетаются слова. Точнее говоря, сеть выявляет логику построения фраз, статистику — то, какое слово «обычно», то есть чаще всего, следует за другим словом в контексте предыдущих слов фразы. Поэтому в дальнейшем сеть может сама последовательно слово за словом «достраивать» заданный вопрос наиболее вероятными — наиболее «логичными» — в его контексте словами, тем самым получается ответ (точнее говоря, речь идёт не о словах, а о токенах, токен в данном случае — это буква, часть слова, слово или словосочетание, которым можно продолжить фразу).

Если пользователь что-то отвечает, например, не соглашается с ответом сети, то его слова меняют контекст диалога, и в этом новом контексте сеть даёт другой ответ — спорит с пользователем или соглашается, что ошиблась. Например, отчасти похожим образом добавление к предыдущему ответу калькулятора нового действия приведёт к изменению ответа. В нейронных сетях контекст диалога с пользователем — это, по сути, упрощённый аналог кратковременной памяти мозга. Её объём, то есть объём контекста, который может воспринимать сеть, ограничен и растёт в новых моделях.

Правда, так как после обучения чат-боты ничего новое запомнить уже не могут (после обучения веса связей фиксируются), то запоминание предыдущего диалога с пользователем происходит посредством отдельной памяти, то есть предыдущие диалоги сама сеть не запоминает, они не меняют её опыт (не меняют веса связей). В отличие от мозга, который меняется постоянно — обучается или забывает. В скобках заметим, что, регулируя параметры сети, можно сделать так, что сеть будет «достраивать» вопрос пользователя по-разному. Например, наиболее вероятными в его контексте словами ответа — и тогда ответ будет более «академичным», сухим, более точно следовать текстам обучающей выборки. Или менее вероятными — и тогда ответ будет более творческим, субъективным, но, возможно, менее адекватным.

Непосредственно «непонятность» вычислений искусственной нейронной сети заключается в множественности однотипных операций. Мысленно проследить эти вычисления невозможно, поэтому по факту они приобретают смысл только в конце процесса, когда активизируются выходные нейроны сети, обозначающие тот или иной ответ сети.

       Рис. 2. Математическая модель нейрона. Пунктиром обозначено тело (сома) нейрона.
      
    1. Нейроны, выходные сигналы которых поступают на вход данному, w — веса входных сигналов.
    2. Сумматор входных сигналов.
    3. Вычислитель передаточной функции (функции активации).
    4. Нейроны, на входы которых подаётся выходной сигнал данного

Вычисления происходят следующим образом: входящие в нейрон сигналы умножаются на коэффициент веса связи, по которой они поступили, получившиеся на всех связях значения суммируются, после чего в соответствии с функцией активации нейрона (которая может быть разной) вычисляется его выходной сигнал. И так с каждым нейроном в слое. Вычислив таким образом выходной сигнал каждого нейрона, переходят к следующему слою, для нейронов которого эти сигналы будут входящими. Как понятно, добавление в сеть обратных связей значительно усложнит алгоритм.

Таким образом, ответ на вопрос о причинах «непонятности» искусственных нейронных сетей заключается в том, что искусственные нейронные сети непонятны именно вследствие непонятности их вычислений. Сложность не позволяет написать нейронную сеть сразу готовой, не требующей обучения, как пишутся прямые алгоритмы. Можно сказать, что искусственная нейронная сеть до обучения — это фактически алгоритм-заготовка, которая станет алгоритмом решения конкретной задачи только после обучения, и чем изначально сложнее будет сеть, тем большему она сможет научиться, более сложные задачи сможет решать.

Проще говоря, в ходе обучения посредством обучающих примеров нейронная сеть «подгоняется» под задачу — до тех пор, пока задача не будет решена. После этого веса связей фиксируются, обучаться сеть больше не может (различными модификациями опыта могут продолжать заниматься только разработчики сети, имеющие доступ к её настройкам, как, например, в случае ChatGPT), иначе новый опыт будет стирать старый (в чём заключается проблема пластичности/стабильности), замещая его опытом, всё менее зависимым от того, который предусматривался при создании сети.

Однако если работа нейронной сети непонятна, то создавать нейронные сети можно только наугад. Об этом уже говорилось выше, но так как это очень важный вывод, остановимся на нём подробнее. Создание сетей наугад очевидно и с той точки зрения, что если решение задачи непонятно, то его можно только угадать, пользуясь какими-то общими соображениями о пути к решению. Точно так же по неким общим соображениям создаётся нейронная сеть, и так же более или менее наугад она затем обучается, из-за чего никогда заранее не известно, приведёт ли данная структура нейронной сети и данное обучение к удовлетворительному решению задачи.

Можно заметить, приблизительно так же «непонятен» алгоритм клеточного автомата, поэтому его тоже можно создавать только наугад. В клеточном автомате заданы правила взаимодействия клеток, их появления и исчезновения. Запустив клеточный автомат, можно наблюдать на экране появление, исчезновение и эволюцию различных структур клеток. Но необходимость запоминать состояние множества клеток приводит к тому, что проверить, к чему приведут те или иные особенности правил можно, только запустив автомат на компьютере, то есть вначале надо задать правила более или менее наугад, и только потом, запустив на компьютере, можно будет узнать, что получилось. Нейронная сеть точно так же более или менее наугад создаётся и более или менее наугад обучается.

Если посмотреть на создание искусственной нейронной сети с более общих позиций, то можно написать алгоритм, который, например, будет рассчитывать параметры деталей шкафа в зависимости от объёма вещей, но не имеет смысла такой алгоритм, который будет рассчитывать нейронную сеть в зависимости от условий задачи. В отличие от шкафов, задача у которых одна — вмещать что-то трёхмерное, поэтому и алгоритм создания шкафов один на все шкафы, задача нейронных сетей состоит не в решении какой-то одной конкретной задачи, а в решении задач вообще. Каждая нейронная сеть — это новый алгоритм, возможно, подходящий для решения какой-либо неизвестной пока задачи. Поэтому алгоритм, который на входе будет иметь условия задачи, а на выходе алгоритм, который способен её решить, будет равносилен алгоритму решения всех задач, которые только могут решить алгоритмы, а значит, выходу за рамки всех этих задач, так как задача построить алгоритм решения всех задач, которые только могут решить алгоритмы, очевидно, лежит снаружи задач, которые только могут решить алгоритмы. Естественно, это противоречие, так как алгоритм решения всех задач, которые только могут решить алгоритмы, получается, не может быть алгоритмом, ведь он должен решать задачу, которая не может быть решена алгоритмами. Другими словами, построение такого алгоритма точно так же не имеет смысла, как построение теории всего, которая равносильна выходу за всё, или написание алгоритма мышления, который равносилен выходу за мышление, за опыт. Можно обратить внимание также на соответствие этих выводов рассуждениям из начала первой главы про теорию множеств и о том, что всё мыслимое, всё сущее или самый богатый язык — это уже не что-либо сущее, что-либо мыслимое или какой-либо язык.

И действительно, работа искусственных нейронных сетей не задаётся заранее в точности. Ввиду сложной структуры нейросетевого алгоритма, проследить ход вычислений мысленно невозможно, поэтому конкретные параметры создаваемой сети выбираются более или менее наугад на основании прошлого опыта решения сетями похожих задач и других общих соображений о целесообразности того или иного выбора. После чего сеть обучается. В процессе обучения сеть оптимизируется под решение поставленной задачи — можно сказать, что «грубый» процесс создания нейросетевого алгоритма сменяется «тонкой» подгонкой его под задачу. Процесс обучения тоже во многом интуитивен и результат не гарантирует.

Дело обстоит практически так же, как и в отношении человека — устройство мозга непонятно, поэтому и верный подход к обучению неясен, и результат не гарантирован. Но, повторим, с тем важным отличием, к которому мы пришли в первой главе, что работа мозга невычислима в принципе, в отличие от просто сложных вычислений искусственных нейронных сетей.

Обратим внимание, прямой алгоритм — это, по-другому, детерминированный алгоритм. В таком алгоритме путь от данных к результату понятен и потому сформулирован ясно и однозначно — «детерминирован» нашим точным знанием этого пути. Однако искусственные нейронные сети относятся к недетерминированным алгоритмам. Ввиду того, что путь от данных к результату в задачах, которые решают нейронные сети, непонятен — «не детерминирован» точным знанием, то его формулировка подразумевает варианты, полезность которых заранее неизвестна, из-за чего выбор между ними случаен. Например, это разные начальные параметры сети или разные параметры обучения, которые, как сказано выше, выбираются более или менее наугад на основании различных общих соображений. В результате разные варианты нейронной сети могут решать задачу по-разному, будучи точнее в одном её параметре или в другом.

Однако если работа вычислительной системы непонятна, то оценить решения такой системы, естественно, можно только «снаружи», по самим решениям, а не в точности понимая, как они возникают. Искусственной нейронной сети приходится или «верить на слово», или прежде проверять адекватность её решений. Образно говоря, как и в случае человека, мы больше судим нейронную сеть «по делам», чем проверяя ход её «мыслей».

В результате в создании нейронных сетей возникает такая составляющая, как отбор. Аналогично естественному отбору искусственные нейронные сети создаются и обучаются более или менее наугад, в процессе чего среда — в данном случае человек, как создатель нейронной сети — оставляет те, которые отвечают его нуждам.

При этом, создавая искусственный интеллект, мы так или иначе воссоздаём своё представление о том, что мы хотим от искусственного интеллекта — очевидно, что другого представления у нас нет и быть не может, любая идея становится частью нашего опыта, причём в том виде, как мы её воспримем. Также очевидно, что сложность этого представления ограничена нашими нынешними знаниями. Таким образом, наша способность «отбирать», то есть отделять адекватные системы от не адекватных, всегда ограничена нашими нынешними знаниями. 

Но не менее очевидно и то, что наши нынешние знания — это далеко не все потенциально возможные знания, на которые способен наш интеллект. Однако создать при этом мы должны нейронную сеть, которая потенциально может знать всё, что потенциально можем знать мы. Получается, чтобы создать искусственный интеллект, сложность которого всего лишь равна сложности интеллекта человека, уже нужно знать больше, чем известно. Потому что в ином случае создание искусственного интеллекта будет тормозить наша неспособность отличить более умную систему от более глупой, адекватную от неадекватной, ведь все возможные критерии отбора, естественно, лежат в рамках сложности наших нынешних знаний. Образно говоря, создание искусственного интеллекта ещё только равной себе сложности уже становится равносильно вытягиванию себя самого за волосы из болота, попытке прыгнуть выше головы, создать то, неизвестно что. 

Однако искусственному интеллекту не достичь даже сложности нынешних знаний.

Проблема в том, что точные критерии отбора можно сформулировать только на уровне точных знаний. Поэтому по мере того, как сложность поведения искусственного интеллекта будет приближаться к сложности нашего нынешнего поведения и, таким образом, выходить за рамки того, что мы точно знаем в себе и поэтому можем точно и однозначно оценить это и в поведении ИИ, оценивать станет всё сложнее и сложнее. Но мы точно знаем про себя очень немногое, иначе, например, психология или различные социальные науки были бы науками столь же точными как физика. Поэтому по мере приближения оценка адекватности будет становиться всё более и более неопределённой, и в конечном итоге, ввиду того, что отличить адекватную систему от неадекватной станет на практике делом слишком сложным, дальнейшее усложнение искусственного интеллекта потеряет смысл задолго до достижения им сложности даже нынешнего опыта человека.

Посмотрим на сказанное с другого ракурса.

Исследуя мозг, мы выдвигаем гипотезу в отношении работы мозга, и проверяем её, наблюдая за его работой, то есть наблюдая за поведением самих себя. Создавая искусственные нейронные сети, мы выдвигаем гипотезу в отношении устройства и обучения сети, и проверяем её, опять же сравнивая поведение создаваемой системы со своим поведением, со своим опытом, задачами и их решениями. Таким образом, и изучение естественного интеллекта, и создание интеллекта искусственного одинаково требует всё более глубокого понимания своего поведения.

Но понимание своего поведения равносильно пониманию своего мышления, которое как минимум сейчас понятно далеко не полностью, а на самом деле сколько-нибудь точно понять его невозможно вообще, исходя из того, что алгоритм мышления не просто сложный, а не имеет смысла. И поведение, естественно, непонятно в той же степени, как и мышление. Следовательно приближение сложности поведения создаваемых систем к сложности поведения человека равносильно всё более глубокому познанию того, что познано быть не может — мышления человека, всей сложности его поведения. Иначе говоря, для создания искусственного интеллекта всего лишь только равного интеллекту человека потребуется выйти за рамки познаваемого, что, естественно, бессмыслица. В итоге создание ИИ равного по сложности интеллекту самого человека, как создателя ИИ, невозможно. К уровню интеллекта человека можно только приближаться, при этом на практике приближение происходит только к уровню нынешнего опыта человека, его нынешних знаний о себе и окружающем мире.

Например, мы умеем не только говорить, но и непосредственно действовать — воплощать сказанное, придуманное. Умеем исследовать и подчинять себе природу, взаимодействовать с другими людьми, проводить глобальные политические, экономические, исследовательские программы. Вся наша жизнь — это одно целое, одна глобальная стратегия самосохранения, с неизменной общей целью и постоянно меняющейся тактикой. Всё это тоже часть нашего опыта, причём его наиболее сложная и непонятная составляющая (подробнее о самосохранении скажем в восьмой главе). Как следствие, сейчас ИИ существует «внутри» этой стратегии, являясь нашим инструментом в её реализации, и за эти рамки ИИ выйти не способен.

В итоге по мере приближения создаваемых систем к сложности интеллекта человека их усложнение будет идти всё медленнее и в конечном итоге оно будет ограничено некоторым уровнем от сложности нынешних знаний человека. Сложность создаваемого искусственного интеллекта всегда будет ограничивать непознаваемость явления, которое в нём предполагается воплотить — мышления человека.

Представленные выше аргументы, вероятно, выглядят довольно абстрактными. Чтобы они стали более наглядными, посмотрим, как ограничение на сложность создаваемых систем будет проявлять себя на практике. По каким конкретно направлениям будут расти проблемы по мере приближения сложности искусственного интеллекта к сложности интеллекта человека.

Наиболее близкое нынешнее приближение искусственных систем к «интеллекту» — это уже упоминавшиеся чат-боты ChatGPT или аналогичные диалоговые системы, созданные на основе нейронных сетей. Такие системы отвечают на вопросы из разных областей знания, могут что-то посоветовать, решить математическую задачу. Однако часто их ответы носят неверный и попросту неадекватный характер (такие ответы по аналогии с человеком называют галлюцинациями). Предсказать появление неадекватных ответов невозможно, они могут быть и в простых темах, и в сложных, а стилистически выглядеть при этом вполне правдоподобно. Поэтому за рамками проверенных разработчиками вопросов и ответов такие системы могут посоветовать пользователю что-то опасное, ложное, ввести в заблуждение, так как не каждый сможет неадекватность ответа распознать и не все вопросы можно задать и проверить заранее. Это уже реальная и серьёзная проблема, возникающая в использовании таких систем. 

Например, как кажется, естественное применение чат-ботов на практике — колл-центры компаний. Операторы колл-центров не решают глобальных проблем, сложных или слишком ответственных вопросов, наоборот, общение ограничено направлением деятельности компании и носит более или менее стандартный характер в основном одних и тех же простых вопросов и ответов. Поэтому даже простые модели нынешних чат-ботов с такой работой, вероятно, вполне справятся. Однако именно по причине заранее непредсказуемой неадекватности ответов такое применение ИИ в обозримой перспективе не ожидается. Нейронные сети сейчас только распознают речь и относят вопрос к тому или иному классу, а заранее записанный ответ «по старинке» даёт или автомат, или общение переводится на человека.

В то же время в областях, где неадекватность не страшна (например, в кратком пересказе новостей) или решения ИИ проходят проверку человеком (проектирование, написание программ, медицина, наука), ИИ может быть полезен. За счёт широкого кругозора и скорости вычислений одна система ИИ может быстро выполнять относительно простую интеллектуальную работу сразу во многих областях знания, оставляя за человеком уровень проверки, стратегических обобщений и руководства. 

Понятно, откуда берётся неадекватность.

Чат-боты обучаются на огромных массивах различных текстов, размеченных приблизительно в том же смысле, как подбирают тексты для обучения детей, — от простых к сложным, от текстов с ясными и «правильными» посылами к идеям неоднозначным. Но, как говорилось выше, составляющая формализованного опыта, то есть точных знаний, не адекватна всему опыту человека — ни по объёму, ни по сложности. Тексты, будь то математический язык или естественный, — это малая и простая часть опыта. Тексты о пешеходах — это не умение ходить, тексты о самоделках — это не умение что-то делать «своими руками». Поэтому вполне естественно, что искусственный интеллект, обученный только на текстах, адекватным нашему опыту не станет. Среди ответов, которые он генерирует только на основании других текстов, всегда будет высокая составляющая таких, которые в контексте нашего опыта будут неадекватными, неверными.

То же можно сказать иначе. Описание природы не равно описываемой природе. Абсолютная адекватность описания равносильна теории всего, но теория всего не имеет смысла. В свою очередь, теория всего равносильна алгоритму мышления, поэтому точно так же дела обстоят с опытом — весь наш опыт нельзя выразить словами, так как это равносильно написанию алгоритма мышления. Применительно к созданию искусственного интеллекта это означает, что тексты, которые генерирует искусственный интеллект, обученный только на текстах, будут ещё менее адекватны реальному миру, чем наши тексты, потому что если мы живём в реальном мире, который, естественно, сам себе адекватен и не ограничивается только текстами, то мир искусственного интеллекта — это только наши тексты, а они уже изначально реальному миру более или менее неадекватны. Таким образом, и с этой точки зрения поведение искусственного интеллекта, обученного только на текстах, всегда будет относительно более неадекватным и простым, чем поведение человека.

Например, если бы чат-бот всегда цитировал в тексте ответа какой-либо конкретный источник дословно, то в этом случае неадекватность могла бы быть только в неверном выборе источника или цитаты для ответа. Но чат-бот, то есть нейронная сеть, формирует ответ «самостоятельно», последовательно подставляя в ответ те слова и фразы, которые в контексте слов вопроса встречаются в текстах обучающей выборки наиболее часто. То есть, собственно говоря, подставляя те слова и фразы, которые соответствуют распознаваемой сетью логике ситуации, её сути, контексту, ведь именно логику происходящего и учится распознавать нейронная сеть в процессе обучения. К примеру, если рассматривать работу мозга в самых общих чертах (то есть не учитывая особенности работы мозга, как определённой физической системы), то ответ чат-бота формируется практически так же, как это делает наш мозг. Однако у нас в голове тексты возникают не только на основании других текстов, а в этом участвует и весь другой опыт человека, ввиду того, что нейронные сети работают как целое.

В результате чат-боты по сравнению с человеком уже изначально оперируют неполной информацией о нашем мире, взятой только из текстов. Поэтому они в принципе не могут быть столь же адекватными нашему миру, как сам человек. Как следствие, вполне естественно, что на практике рост объёма знаний нейронной сети или эксперименты с разметкой обучающих текстов не сопровождаются аналогичным уменьшением объёма неадекватных ответов.

Человек понимает смысл слов более или менее в контексте сразу всего опыта, так как в работе биологической нейронной сети всё в высшей степени взаимосвязано. Надо сказать, что в искусственных нейронных сетях связанность не является такой же высокой, как в сетях биологических, но, если не вдаваться в подробности отличий искусственного и естественного интеллекта, то про искусственные нейронные сети можно сказать то же самое. Однако опыт человека много богаче, чем тексты, речь. Поэтому естественно, что один и тот же текст, «пропущенный» через призму нашего многогранного опыта, мы будем понимать более или менее по-другому, чем его поймёт искусственная нейронная сеть, обученная только на текстах.

Как кажется, очевидный выход в этом случае — это дальнейшее усложнение нейронных сетей, то есть дальнейшее приближение их к сложности мозга, в том числе к нашему разнообразию рецепторов и построению движений, а также ещё более точная разметка обучающих примеров. Тогда искусственный интеллект сможет воспринимать мир в большем многообразии причин и следствий, обучить его можно будет точнее, а значит, адекватность ответов вырастет.

Однако чем сложнее становятся создаваемые системы, тем сложнее становятся и решаемые ими задачи. Но сложные задачи — это и важные задачи, а значит, чем сложнее система, тем больше возможный вред от её ошибок. Одновременно, чем сложнее становятся системы искусственного интеллекта, тем потенциально шире становится и область их возможного применения. Как следствие, растёт важность их тестирования во всех условиях, где сеть потенциально может быть использована, так как за рамками проверенных её решения всегда могут быть опасны. Причём ввиду того, что речь идёт о системах обучающихся, то в идеале проверять нейронную сеть требуется не только во всех возможных условиях, но и по-разному обученные.

Но, уменьшая возможности такой проверки, чем сложнее становятся нейронные сети, тем больше становится вариантов сетей и больше вариантов их обучения, ведь больше становится и параметров, которые выбираются наугад. При этом, ещё более усложняя возможности тестирования, богаче становится поведение этих вариантов — аналогично богатству поведения человека. В том числе богаче стратегическими решениями, которые уже в принципе невозможно оценить сколько-нибудь быстро.

Например, как говорилось, поведение человека — это реализация глобальной и, по сути, бесконечной стратегии самосохранения и размножения, её прерывает смерть, а не логическое завершение. Эта стратегия реализуется в сложной и постоянно меняющейся природной и социальной среде, где все частные решения увязаны между собой, представляя из себя на самом деле тактику этой общей стратегии, а не отдельные поступки, из-за чего никакой поступок нельзя оценить однозначно ни на каком конечном промежутке времени. При этом важность точной оценки становится тем выше, чем более отдалённые последствия рассматривать. К примеру, даже оценка того, что съесть на завтрак, будет меняться и становиться всё сложнее и важнее, если рассматривать завтрак не просто с точки зрения насыщения здесь и сейчас, а в контексте всё более многоплановых и далёких последствий завтрака для решения задач наступающего дня, его влияния на своё здоровье и так далее. Ещё быстрее важность точной оценки будет расти, если это план лечения тяжёлой болезни, эпидемии, управленческие, социальные, экономические или политические решения различного уровня, непосредственно влияющие на жизнь сразу множества людей.

Таким образом, уже понятно, что усложнение сетей — это как минимум палка о двух концах. Нельзя создать сразу сложную и адекватную нейронную сеть, а последовательный путь к ней проходит через стремительно ширящиеся проблемы: растёт количество вариантов сетей, вариантов обучения, сложность поведения сети, важность точной оценки адекватности — и потому стремительно усложняется весь процесс создания, обучения и тестирования сетей. В итоге на практике, чем сложнее поведение сети, тем ко всё более неопределённой будет стремиться оценка адекватности, поэтому каждое новое усложнение искусственного интеллекта станет требовать всё больше времени.

И тем не менее сказанное сейчас всё равно не раскрывает всей глубины растущих проблем и той реальной скорости, с которой они на самом деле будут расти. Ведь в примерах выше искусственный интеллект предстаёт не более чем советчиком, по сути, только компилирующим некий вариант решения задачи на основании уже известного, но он не проводит самостоятельные исследования и не исполняет своё решение.

Как говорилось, на базе обучающей выборки искусственный интеллект может подсказать человеку решение проблемы. Это может быть совет абстрактного характера, научного или любого другого, а специализированные системы могут поставить медицинский диагноз и составить план лечения. При этом чат-боты типа ChatGPT сейчас создаются больше с развлекательной и исследовательской целью, а советы медицинских систем проверяются врачом. Однако у нас всё ещё остаётся выбор — этим советам можно следовать, следовать с осторожностью или не следовать вообще.   

Но важность точной оценки адекватности начинает расти намного более стремительно в случае, если поведение искусственного интеллекта будет подразумевать хотя бы небольшую самостоятельность — от принятия решения до его исполнения. И при этом одновременно будет столь же стремительно уменьшаться возможность эту оценку дать, ведь сети, которые смогут не только советовать, но и что-то делать сами, это сети намного более сложные, поэтому вариантов их устройства и обучения будет больше, поведение этих вариантов богаче, а значит, и проверить его сложнее, это потребует ещё больше времени.

Более того, если системы обладающие самостоятельностью смогут ещё и обучаться в реальном времени, то рост важности точной оценки адекватности претерпевает ещё один качественный скачок, но при этом столь же качественно уменьшается возможность её дать, ввиду того, что оценивать реальное поведение, даже без обучения в реальном времени, сложнее и много дольше, чем просто ответы на вопросы. 

В скобках заметим, как уже говорилось, нынешние системы искусственного интеллекта не обучаются в процессе эксплуатации, после отдельного процесса обучения веса связей фиксируются, в отличие от мозга, который учится всегда. Отсутствие обучения означает отсутствие обратной связи от пользователя или от мира, невозможность персонализации, адаптации, устаревание данных, на которых обучена система. И пока непонятно, как на практике решить эту проблему. Есть и другие серьёзные проблемы, которые тоже можно связать больше с устройством систем, чем с обучением. Например, это чувствительность (количество и сложность рецепторов) и моторика, особенно тонкая, сложная, которая, очевидно, потребуется, если речь идёт о роботе. Но в целом все эти проблемы является частью проблем усложнения, поэтому в этой главе мы их рассматривать не станем, а в несколько другом контексте коснёмся в восьмой главе. 

Но и это тоже ещё не все проблемы. Выше мы говорили про решения сети и то, что их становится всё сложнее проверить. Но при этом всё-таки предполагалось, что вопрос сформулирован, задание дано, нужно только проверить ответ, оценить результат. Однако задать вопрос можно только о том, что как минимум более или менее понятно, в то время как за пределами наиболее формальной части нынешнего опыта понятного, естественно, становится всё меньше, а за пределами нынешнего опыта в целом уже и вообще ничего нет, ни понятного, ни непонятного. Поэтому по мере приближения сложности поведения искусственного интеллекта к сложности поведения человека всё меньше будет понятно и то, что вообще нужно проверять, что спрашивать, какие нужно давать задания. Выражаться это будет в том, что ситуаций, в которых необходимо проверить адекватность ИИ, будет становиться не просто всё больше, а они будут становиться ещё и всё более сложными, многоплановыми, и потому в конечном счёте всё более и более неопределёнными. Их будет всё труднее конкретизировать, найти, представить.

В итоге по причине роста указанных проблем задолго до приближения создаваемых систем к сложности даже нынешнего опыта человека, проверить адекватность поведения создаваемых систем будет возможно только всё более и более фрагментарно, и только на уровне некоторых относительно простых вопросов, которые можно более или менее точно сформулировать, аналогично тому, как неполно и неточно мы можем оценить поведение других людей в каком-либо тесте или опросе.

В то же время если говорить о людях, то за рамками проверенного в тестах мы всё равно можем рассчитывать на их адекватность. И не просто потому, что в каждом из нас заключён опыт миллиардов лет биологической эволюции, а потому что активное стремление к самосохранению встроено в любую жизнь ещё на физическом уровне. Это та общая цель, которая придаёт смысл всем действиям человека, то физическое основание, которое в более простых физических системах существовало в природе ещё до появления жизни и на новом уровне сложности продолжается в биологических системах от клетки до человека. Определяя их постоянную активность и направленность этой активности в одну и ту же для всех организмов сторону самосохранения. Нервная система позволяет животному уточнять это стремление под окружающую среду в более широких пределах, чем это могут организмы без неё, но нервная система не привносит в жизнь нечто принципиально новое.

Такая поведенческая однонаправленность определяет значительную общность всех людей, их мнений, целей, интересов, а также понимание чужих поступков, возможность их предвидеть, различать намерения, легко этому обучаться. И даже не только людей, по тем же причинам общности нам также понятно и поведение животных. По причине этой общности у человека склонность к серьёзной неадекватности можно заметить по множеству внешних признаков. Однако в отношении искусственных нейронных сетей ни на что из этого рассчитывать нельзя. В отсутствие понимания работы системы и общности этой работы с собой, сколько-нибудь достоверная экстраполяция поведения системы в проверенных ситуациях на ситуации ещё не проверенные невозможна.

Например, то, что у ИИ нет описанного выше активного стремления к самосохранению означает, что задать их поведение можно только на уровне выше физического. Иными словами, в случае ИИ обучение не уточняет функцию самосохранения, как это происходит в случае обучения человека или других животных, а только лишь имитирует «внешнюю» сторону нашего поведения.

Поэтому возможности вычислительных систем самостоятельно корректировать своё поведение, обучаясь и исправляя прошлые ошибки, много ниже тех же способностей человека. Не рассматривая сейчас физическую сторону этого вопроса (это будет сделано в восьмой главе), можно сказать, дело в том, что у человека есть абсолютный критерий адекватности всех его поступков, верности всех знаний — ощущения, полнота удовлетворения стремления к самосохранению и размножению, то есть, проще говоря, понимание того, стало жить лучше или нет. Если знание помогает лучше жить, значит, оно адекватно среде, если нет, то оно ложно. Голод, холод, боль — всё это заставляет искать лучшего и всегда желать большего. Человек живёт в среде, в том числе среде социума, так как не может выжить в одиночку, тем самым жить лучше можно, только если адекватно эту среду учитывать в своих стремлениях, познавая её, чтобы учитывать точнее во благо себе. На этом общем основании возникают все более частные представления об истинном и ложном, верном и неверном, решена задача правильно или неправильно.

Но, в отличие от человека, искусственной нейронной сети или любой другой вычислительной системе всё равно жива она ли мертва, правильно она решила задачу или нет. Ни лучше, ни хуже ей от этого не станет, потому что жизнь и ИИ — это принципиально разные физические системы, у ИИ нет стремлений.

В результате любая сколько-нибудь значительная самостоятельность ИИ в обучении и ином развитии приведёт не к эволюции ИИ, а только к его разрушению, так как всех возможных путей развития несравнимо больше, чем путей адекватных — тех, которые позволят существовать, не будучи разрушенными средой. Но сам выбирать их ИИ не умеет, он «другой системы», а наши знания, которые мы вложили в него посредством создания и обучения, это уточнение функции самосохранения и размножения, а не сама эта функция, то есть это то, что на поверхности, но не то, что движет нашим поведением, позволяет нам «стремиться» и «чувствовать», отделяя верное от неверного. В итоге, не имея ни стремления к самосохранению, ни критерия адекватности в виде ощущений, самостоятельное развитие вычислительных систем очень быстро пойдёт «вразнос», станет носить характер бессмысленных изменений и остановится.

Но почему бы не воспроизвести физические основания жизни в вычислительных системах? Как говорилось, подробнее об этом речь пойдёт в восьмой главе (и отчасти других главах), а пока вспомним, что биологическая нейронная сеть — это в принципе не алгоритм. Очевидно, что попытка воспроизвести вычислительными средствами, то есть в том или ином алгоритме, такое явление, которое в принципе не алгоритм, невозможна в том же принципиальном смысле и по мере попыток её решения столкнётся с такими же принципиальными проблемами.

Обобщим.

Когда отследить и исправить неадекватность искусственной нейронной сети стало сложно, тогда, чтобы сеть могла стать более адекватной за счёт большего объёма опыта, мы решили её усложнить. Однако, оказывается, что необходимость проверки решений искусственного интеллекта от этого не только не уменьшается, а она стала ещё более необходимой, при том, что осуществить её, наоборот, стало намного труднее.

Имея в качестве образца только себя и свои знания, усложнение возможно только одним способом — это приближать нейронную сеть к тому сложному и глобальному пространственному и временному представлению о себе и мире, которым обладает человек. Но это представление в явном виде недоступно и нам самим, так как формальные, точные знания только часть нашего опыта. Как следствие, по мере приближения систем к сложности нашего нынешнего опыта по всем параметрам создания систем будет стремительно расти неопределённость.

Таким образом, по причине того, что сам образец, в сравнении с которым происходит оценка создаваемых систем, является малопонятным, то по мере выхода сложности поведения искусственного интеллекта за рамки того, что мы сами можем однозначно оценить, точно рассчитать, то есть за рамки нашего наиболее формализованного опыта, возможность дать точную оценку поведению систем будет уменьшаться, стремясь к полной неопределённости. А необходимость её дать, наоборот, будет столь же интенсивно расти, стремясь к требованию полной определённости, так как чем сложнее система, тем всё более важными становятся решаемые ей задачи. Встреча этих противоположных тенденций произойдёт на некотором уровне от сложности нынешних знаний человека и будет выражаться в том, что дальнейшее усложнение систем искусственного интеллекта потеряет всякий смысл.

Как непосредственное проявление необходимости прыгнуть выше головы, знать больше, чем может быть известно, на практике потеря смысла будет связана с тем, что сочетание стремительно растущего количества возможных вариантов сетей, вариантов их обучения и столь же стремительно уменьшающаяся возможность оценить их адекватность приведёт к тому, что время практической реализации каждого нового усложнения — отбора подходящего варианта сети и подходящего варианта её обучения — будет всё стремительнее расти к бесконечности.

В итоге искусственный интеллект не выйдет за рамки такого помощника человека, который обладает широким кругозором и способен быстро выполнять относительно простую интеллектуальную работу. Однако эта работа, вследствие непредсказуемости и нестабильности её результатов, по мере роста важности задач будет всё больше требовать проверки, тем самым ограничивая применение систем в сложных интеллектуальных задачах или самостоятельность в стратегических действиях. Повторим, это произойдёт не столько вследствие каких-либо законодательных ограничений, а прежде всего само собой, просто по причине естественной невозможности создать столь сложную систему, доверять которой в случае сколько-нибудь важных решений выгоднее, чем не доверять.

Проверим сделанные выводы ещё раз.

Искусственные нейронные сети нам нужны в тех случаях, когда сложно решить задачу прямым путём. Иными словами, искусственные нейронные сети позволяют решать задачи более сложные, чем те, которые можно решить прямыми средствами, точно и однозначно задав порядок переработки данных в результат. 

Но за счёт чего у сетей появляются такие возможности? За счёт растущего непонимания их работы, неоднозначности результатов этой работы, увеличения доли случайного выбора, то есть за счёт роста неопределённости. Что это значит?

Вспомним, алгоритм мышления не имеет смысла, так как в этом алгоритме будут выводиться все утверждения, которые только можно сформулировать, включая противоположные, в том числе о ложности самого алгоритма мышления. Это значит, что как минимум прямыми средствами искусственный интеллект, равный сложности мышления, создать нельзя, это невозможно в принципе. На практике это означает, что усложнение любых прямых алгоритмов остановится задолго до приближения их к сложности мышления, так как сложность мышления в прямых алгоритмах недостижима. Но насколько вообще можно приблизиться к сложности мышления в прямом алгоритме?

Ответ очевиден. Так как прямой алгоритм целиком пишет человек, то он не может быть сложнее его нынешнего опыта, причём его наиболее формализованной составляющей, так как прямой алгоритм — это однозначная пошаговая инструкция, ведущая от данных к результату. Прямой алгоритм подразумевает, что решение задачи полностью понятно и потому путь переработки данных в результат может быть задан чётко и однозначно. В результате на практике по мере выхода за рамки тех знаний человека, которые можно отнести к наиболее точным, наиболее формализованным, усложнение прямых алгоритмов будет требовать всё больших и больших интеллектуальных усилий, и в конечном итоге выгода от прироста их сложности перестанет усилия по их созданию оправдывать. Таким образом, сложность прямых алгоритмов ограничена сложностью наиболее формализованного опыта человека.

Тогда, если прямых — понятных и однозначных — средств уже не осталось, остаётся только рассмотреть средства не прямые — непонятные и неоднозначные. Надежда теперь может быть только на них, потому что какого-либо третьего варианта решения задач попросту нет. И действительно, мы видим, что искусственные нейронные сети позволяют решать задачи, прямой алгоритм решения которых написать на практике вряд ли возможно.

Но эти возможности появляются у сетей за счёт роста неопределённости, то есть за счёт роста объёма случайного выбора, непонятного и неоднозначного в их работе, устройстве и оценке результатов этой работы. В свою очередь, неопределённость в понимании того, как конкретно система приходит к тому или иному решению, приводит к появлению отбора. Вместо мысленного «отбора» верного пути к решению задачи ещё в процессе написания алгоритма, как это происходит в случае прямого алгоритма решения задачи, в случае искусственных нейронных сетей отбор происходит по итогам работы алгоритма — решила сеть задачу или нет. 

Но возможности нашего «отбирающего» мозга от этого не увеличиваются. Они всё так же ограничены сложностью нашего нынешнего опыта. В результате так же, как на некотором уровне сложности задач становится всё труднее написать прямой алгоритм, на этом же уровне сложности всё труднее становится и отличить верное решение от неверного, даже если они будут предъявлены уже готовыми, как результат работы нейронной сети. Так же, как всё труднее сформулировать прямой алгоритм, в той же степени начинают расти трудности отбора алгоритмов не прямых. Вариантов систем становится всё больше, их поведение всё сложнее и богаче, поэтому отделить адекватный вариант системы от неадекватного становится всё труднее, это требует всё больше времени, а критерии отделения подразумевают в том числе всё более размытые субъективные, всё менее формализованные основания.

С одной стороны, «всё менее формализованные основания» в отборе позволяют достичь большей сложности систем, ведь формализованный опыт теперь не служит строго ограничивающим сложность фактором. Однако, с другой стороны, это и проблема, и она становится всё более серьёзной.

Мы в общих чертах скопировали природу — мозг, который за счёт особенностей своей структуры сам решает задачи, и создали искусственную нейронную сеть, которая тоже сама решает задачи. Мозг решает сложные задачи, нелинейные, он распознаёт условия и в едином порядке организует активность множества мышц и желёз. И искусственная нейронная сеть тоже переняла способность решать сложные нелинейные задачи.

Но в довесок мы получили то, что и должны были получить: сложные задачи — это малопонятные решения, а значит, и малопонятная работа системы, которая может такие задачи решать.

Вспомним, мы не создали нейронную сеть сами, точно понимая, что и зачем мы делаем, а скопировали её у природы, обратив внимание на некоторые общие особенности нейронной сети мозга и то, что, вероятно, именно за их счёт мозг может решать сложные задачи. Другими словами, мы прибегли к эвристике — методу, найденному случайно или взятому у природы и не имеющему точного математического обоснования, то есть методу работающему, но в точности непонятно как.

Например, цепь, подвешенная за концы, из бесконечного множества возможных вариантов «сама собой» принимает именно ту форму, которая соответствует минимуму потенциальной энергии силы тяжести. Человеку же для отыскания этой формы (катеноиды, или цепной линии) требуется решить дифференциальное уравнение Эйлера — Лагранжа. Мыльная плёнка, натянутая на проволочный контур, принимает форму, соответствующую минимуму внутренней энергии плёнки (состоящей, в основном, из потенциальной энергии сил поверхностного натяжения, пропорциональной площади плёнки). Световой луч в прозрачной среде, преломляясь, отыскивает кратчайший путь (требующий наименьшего времени прохождения любого своего участка) с учётом скорости света в каждой точке среды, через которую он проходит.

Биологическая нейронная сеть тоже стремится к минимуму энергии — к равновесию, состоянию покоя. Но при этом, в отличие от цепи, мыльной плёнки, света или искусственных нейронных сетей, биологическая нейронная сеть и весь организм в целом — это открытая система, то есть такая физическая система, которая ведёт интенсивный обмен со средой энергией/веществом. Этот обмен, с одной стороны, не даёт открытой системе достичь равновесия и покоя, постоянно выводя её, наоборот, в неравновесное состояние, то есть состояние неустойчивое, чувствительное, состояние постоянных флуктуаций, движения, хаотической активности, а с другой — как ни странно, эту хаотическую активность упорядочивает, организует. Это явление самоорганизации, уменьшения энтропии, то есть появления порядка из беспорядка.

Самоорганизация чрезвычайно необычное явление, так как вне жёстких связей и специфических организующих воздействий извне из всего бесконечного множества состояний система выбирает самое, как кажется, невероятное — упорядоченное. Мы, всё живое — это тоже самоорганизующиеся системы, ведущие интенсивный обмен со средой. Например, стоит лишь ненадолго этот обмен ограничить (к примеру, ограничить приток кислорода в лёгкие), организм «умрёт». Прежде всего мозг, а затем и организм в целом начнут стремительно и необратимо «падать» в состояние равновесия, покоя и беспорядка, распадаясь на отдельные элементы и растворяясь в среде. Но пока обмен происходит, за счёт него, то есть за счёт этой взаимосвязи разнонаправленных процессов постоянного стремления к равновесию и выводящего из равновесия обмена со средой, организм представляет из себя упорядоченный континуум веществ и химических реакций, мозг активен, его структура и активность этой структуры упорядочена — упорядочены наши мысли, наше поведение.

В то же время если отключить компьютер от электричества, подразумевая, что это его способ обмена со средой энергией/веществом, то компьютер не только не разрушится, а он так только дольше сохранится, в отсутствие износа движущихся деталей, циклов нагрева и охлаждения. Это говорит о том, что разница между системами, к которым относится жизнь, и системами, к которым относится компьютер, качественная, принципиальная. Одни системы среда разрушает, другие стабилизирует. Рассмотрим это различие подробнее в восьмой главе. Но уже очевидно, что возможность выразить в одной системе другую ограничена столь же качественно, как качественно их отличие.

Возвращаясь к эвристике, для расчёта катеноиды или формы мыльной плёнки есть более или менее точные и понятные алгоритмы, но мозг много сложнее цепи или мыльного пузыря, поэтому в случае биологической нейронной сети понятного много меньше. Из-за чего в искусственной нейронной сети удалось воспроизвести только некоторые самые-самые общие особенности нейронной сети биологической. Но даже такой несравнимо простой по сравнению с мозгом алгоритм уже слишком сложен, чтобы можно было точно мысленно проследить его работу. Поэтому работа искусственной нейронной сети малопонятна, неясно, как конкретно сеть приходит к тому или иному выводу, из-за чего не все её решения можно оценить однозначно.

Например, ответ чат-бота может быть философского характера, это может быть шутка или сгенерированное им изображение, имеющее художественный смысл. Но такие ответы и не нужно оценивать однозначно, субъективность в их оценке неустранима. В то же время метафора, эстетика, шутки и отвлечённая философия — это не то, что нас прежде всего интересует в искусственном интеллекте. Прежде всего нас интересует возможность применения систем в задачах, имеющих объективное решение. И действительно, по мере роста сложности систем искусственного интеллекта объём поведения, которое потенциально может иметь такое применение, тоже будет расти. Однако при этом ответы, советы или возможные самостоятельные действия искусственного интеллекта будут подразумевать и всё большую стратегическую глубину, стратегическое значение. Как следствие, и цена ошибок в оценке адекватности систем тоже будет расти.

Поэтому, с другой стороны, «всё менее формализованные основания» в отборе ИИ, означает и то, что по мере роста сложности ИИ неопределённость, размытость и субъективность в оценке его поведения будет всё больше противоречить растущему стратегическому значению этого поведения.

Иначе говоря, одновременно с ростом сложности систем будет расти необходимость, наоборот, формулировать параметры их отбора всё точнее, строже, однозначнее. Но это равносильно всё большему пониманию работы системы, то есть приближению не прямого алгоритма обратно к прямому — к тому, от которого мы, наоборот, хотели уйти, ввиду того, что усложнять их стало уже невозможным.

Иными словами, по мере того, как поведение систем будет становиться всё более сложным и потому всё менее понятным, будет нарастать обратная тенденция — необходимость всё более точного понимания их работы. Рост неопределённости будет всё сильнее требовать определённости. Но «определённость» — это суть прямой алгоритм, точное понимание работы системы. Таким образом, рост сложности непрямых решений, будет всё сильнее требовать прямых решений, сложность будет требовать простоты, «А» требовать «не А». В результате усложнение и не прямых алгоритмов тоже начнёт всё быстрее терять смысл, не позволяя искусственному интеллекту приблизиться к сложности нынешнего опыта человека и тем более её превзойти.

В итоге уменьшение одного ограничивающего параметра — необходимости точно представлять алгоритм работы системы, что ограничивает сложность прямых алгоритмов, фактически всего лишь приводит к взаимосвязанному росту сразу целого набора других ограничивающих параметров — вариантов систем, вариантов обучения, богатства поведения, а также важности оценки адекватности. Как следствие, огромное количество вариантов и важность выбора правильного приводят к необходимости всё точнее представлять критерии отбора. Но представление о критериях отбора равносильно пониманию работы системы, а понимание работы системы равносильно пониманию того, как конкретно система решает задачи. Но наш предел в этом уже был достигнут — именно поэтому и потребовались нейронные сети и обучение. В итоге время каждого нового усложнения искусственных нейронных сетей будет всё быстрее расти к бесконечности, и их усложнение потеряет всякий смысл задолго до сколько нибудь близкого приближения к сложности интеллекта человека. Как змея, пожирающая сама себя, процесс будет идти всё медленнее и на практике в конечном итоге остановится.

Теперь вспомним, что прямой алгоритм — это не только путь от данных к решению, а ещё и выражение понимания. Но прямой алгоритм мышления не имеет смысла, то есть он не просто сложен, а именно невозможен, не может существовать. Что в точности равносильно принципиальному отсутствию сколько-нибудь ясного представления о системе, которая сможет выразить всю сложность мышления. Это значит, что рост неопределённости будет связан не только с простым ростом количества вариантов систем, имея в виду возможность по-разному компоновать уже известное. Но всё более непонятным будет становиться и то, что вообще нужно «компоновать». Например, точно так же что-то более или менее общее и простое о работе биологической нейронной сети сказать можно, но чем глубже мы пытаемся понять её работу, тем больших усилий это требует. Всё известное о мышлении далеко от реальной сложности явления, однако как минимум только модель равной сложности имеет в данном случае смысл.

Итак, в этой главе мы показали, что принципиальным пределом сложности искусственных нейронных сетей, создаваемых человеком, является сложность интеллекта самого человека, как их создателя, а на практике усложнение систем остановится задолго до приближения к сложности нынешнего опыта человека.

В то же время, заметим, этот вывод не имеет точного количественного выражения, и он не обладает математической строгостью. Если рассмотренные аргументы верны, то столь уточнить их параметры невозможно. Потому что фактически мы рассуждаем о пределах познания, выраженной в данном случае в максимально достижимой сложности создаваемых человеком систем. То есть рассуждаем о таких явлениях, точное «количественное» представление которых невозможно.

Например, точное «количественное» представление о том, какой сложности достигнет искусственный интеллект, относительно интеллекта человека, равносильно точному представлению о сложности интеллекта человека, каковое, в свою очередь, равносильно знанию не имеющего смысла алгоритма мышления.

Или ограничение на точность оценки максимальной сложности создаваемого человеком ИИ можно выразить по-другому. Алгоритм мышления равносилен знанию всех возможных знаний, точному знанию всего, что только можно познать. Однако точное знание всего познаваемого — это и точное знание того, что познать нельзя, так как иначе не получится отделить одно от другого. Но нельзя познать то, что познать нельзя, следовательно то, что познать можно, тоже в точности познать нельзя.

В итоге точное «количественное» представление о том, какой сложности достигнет искусственный интеллект, относительно интеллекта человека, невозможно в любом случае, такое знание равносильно точному знанию всего, не имеющей смысла теории всего. 

В том числе вывод о пределах сложности искусственных нейронных сетей, создаваемых человеком, не может иметь экспериментального подтверждения. Потому что если он верен, то эксперимент отнимет вечность, ведь тогда ни на каком конечном промежутке времени искусственный интеллект не достигнет сложности интеллекта человека, а сам процесс приближения не имеет точного «количественного» предела.

В результате такой «неточности» вывод о пределах сложности искусственных систем может показаться недостаточно убедительным. Тем не менее даже если все указанные закономерности в точности существуют и всё сказанное верно, каким-либо более доказательным образом сформулировать их вряд ли возможно. 

Также обратим внимание, приведённые в этой главе аргументы фактически говорят о том, что никакая система, создаваемая человеком, не может быть сложнее его собственного интеллекта, а не только искусственные нейронные сети. Другими словами, вывод о границах сложности искусственных нейронных сетей — это на самом деле вывод о границах сложности сразу всех мыслимых систем, в создании которых как-либо участвует интеллект человека. Потому что значение имеет только одно: чем полнее работу системы определяет написанный человеком алгоритм, тем ниже будет сложность этой системы относительно интеллекта человека. Искусственные нейронные сети в процессе создания и обучения содержат случайные параметры, то есть такие, выбор которых не задан каким-либо алгоритмом, но сами по себе, как процесс переработки «входа в выход», в том числе изменений в ходе обучения — это обычные алгоритмы, поэтому от сложности мозга они всегда будут далеки. 

Алгоритм — это пошаговая инструкция, описание действий исполнителя, необходимых для решения задачи, достижения цели. Усложнение детерминированных алгоритмов — которые полностью пишет человек — остановится задолго до их приближения к сложности интеллекта человека, так как их построение связано с точными знаниями человека, наиболее формализованным опытом, объём которого меньше и он проще той части опыта, формализация которого невозможна. Недерминированные алгоритмы, участие интеллекта человека в создании которых относительно меньше из-за наличия элементов случайного выбора, смогут поэтому приблизиться к сложности интеллекта человека ближе. Но и их усложнение тоже ограничено, так как взамен прямого ограничения точными знаниями, в недетерминированных алгоритмах возникает отбор, который хоть и подразумевает менее формальные критерии, тем не менее опять же ограничен сложностью нынешнего опыта человека.

Поэтому, например, ограничение сложности касается и искусственных биологических систем. К примеру, гипотетического искусственного интеллекта, собираемого непосредственно из биологических нейронов. В создании таких «живых искусственных» систем точно так же потребуется отбор и будет расти неопределённость, как и в создании «обычных» искусственных нейронных сетей. Другими словами, в создании таких систем тоже будет участвовать интеллект человека — посредством неких правил, принципов, идей, то есть неких алгоритмов действий создания и отбора «живых искусственных» систем — тем самым опять же ограничивая их сложность.
 
В том числе этот вывод касается биологических систем, создаваемых посредством генной инженерии. Возможность направлено вырастить искусственный интеллект равносильна написанию алгоритма мышления, а в любом другом случае это будет тот же случайный выбор, рост неопределённости и проблемы отбора. Подробное обоснование этого утверждения потребует рассмотрения принципов морфогенеза (развитие организма из одной клетки), что выходит за рамки статьи (кратко о принципах морфогенеза скажем в восьмой главе), но если говорить упрощённо, то морфогенез похож на работу клеточного автомата. Вспомним, в клеточном автомате задаются правила взаимодействия, появления и исчезновения клеток. После чего, запустив программу, можно наблюдать на экране компьютера эволюцию различных структур клеток — хаотических, упорядоченных, пульсирующих, сложных и простых. Заранее предсказать, какие структуры будут получаться, в общем случае невозможно, потому что, с одной стороны, нельзя мысленно проследить процесс, так как он слишком сложен, с другой — нигде нет плана возникающих структур клеток, который можно было бы найти и расшифровать, ведь заданы только правила взаимодействия клеток, а не будущие структуры клеток напрямую. В результате можно только более или менее наугад задать эти правила и проверить результат «экспериментально», запустив автомат. Точно так же нигде нет «плана» будущего организма, а есть только определённые «правила», зашифрованные в ДНК. Таким образом, генная инженерия точно так же во многом связана с угадыванием и последующим отбором, как и создание искусственных нейронных сетей или «сборка» нейронных сетей из биологических нейронов. 

Подведём итог главы.

Нет ответа на вопрос, какое максимальное количество нейронов может иметь искусственная нейронная сеть, так как нет никаких критериев для оценки. В то же время интуитивно кажется, что невозможно увеличивать сложность создаваемых систем бесконечно, где-то должен быть предел. Как выяснилось, он действительно есть. Этот предел — сложность интеллекта самого человека. Чем больше мы приближаем систему к сложности своего интеллекта, тем больше времени это отнимает. И задолго до итога стремящееся к бесконечности совокупное время реализации каждого нового усложнения сделает дальнейшие попытки лишёнными смысла.


3. Принципиальные препятствия

Во второй главе мы выяснили, что на практике развитие искусственного интеллекта остановится задолго до того, как его сложность приблизится к сложности интеллекта человека. В этой главе снова вернёмся к аргументам принципиального характера и ответим на вопрос, смогут ли искусственные нейронные сети хотя бы в принципе приблизиться к уровню интеллекта человека или превзойти его. Аргументы этой главы развивают сказанное в первой на несколько более конкретном уровне, поэтому прежде вкратце вспомним, ответы на какие вопросы уже были даны.

В первой главе мы выяснили, что алгоритм мышления не имеет смысла. Но написать алгоритм явления, его формулу — это понять явление, научиться предсказывать его течение в зависимости от начальных условий. Или, другими словами, понять законы явления. Таким образом, если алгоритм мышления не имеет смысла, то, следовательно, все законы мышления установить нельзя, мышление — это явление принципиально малопонятное, точность предсказаний сильно ограничена.

Действительно, ведь часть законов мышления, по сути, «растворена» в среде, взаимодействие с которой обучает нейронную сеть. Как следствие, до тех пор, пока вся среда, которая только может повлиять на опыт, не изучена, то и алгоритм мышления построить нельзя, мышление будет оставаться «непонятным». Поэтому только в том случае, если мы изучим всю среду, которая только может повлиять на опыт, то только тогда мы сможем установить все законы мышления, сможем построить его алгоритм, и мышление станет «понятным».

Однако, как мы тоже выяснили в первой главе, алгоритм мышления равносилен теории всего. Это значит, что «среда, которая только может повлиять на опыт» — это, получается, вся среда, то есть любая среда может повлиять на опыт. Но «вся среда» изучена быть не может, так как теория всего не имеет смысла.

Как кажется, всё то же можно сказать про искусственные нейронные сети — часть их законов тоже растворена в среде, так как они тоже обучаются. На самом деле все «законы» искусственных нейронных сетей известны, потому что это алгоритм. Все вычисления искусственной нейронной сети, включая её изменение в процессе обучения, можно расписать ручкой на бумаге, хотя это вряд ли возможно на практике. Непонятность же искусственных нейронных сетей связана с тем, что эта запись будет попросту малоинформативной, так как, по сути, представляет из себя описание динамики сложной структуры, взятой у природы, а не тот алгоритм, который придумал сам человек, точно понимая значение каждого шага для конечного результата.

Таким образом, разница между биологическими и искусственными нейронными сетями принципиальная, они работают на разных уровнях материи.

Перефразируем сказанное.

Алгоритм — это инструкция, порядок действий исполнителя. Инструкция подразумевает язык, на котором она написана. Поэтому принципиальная невозможность построения алгоритма мышления — это утверждение о том, что язык не может выразить мышление адекватно его реальной сложности. Как мы выяснили, причина в том, что никакой мыслимый язык не может выразить элементарный уровень материи, а без представления об элементарном уровне материи нельзя написать алгоритм мышления, так как алгоритм мышления равен теории всего.

В том числе в начале первой главы мы предположили, что нельзя копировать мышление и перенести личность в компьютер. Действительно, мышление не алгоритм, а искусственные нейронные сети алгоритм, очевидно, что одна система другую не выразит.

Сделав краткий экскурс в первую главу, перейдём к аргументам этой, но прежде сформулируем, какие системы мы далее будет считать вычислительными, и как они соотносятся с искусственными.

Искусственная нейронная сеть — это недетерминированный алгоритм, так как некоторые параметры сети выбираются более или менее наугад. Тем не менее в дальнейшем работа сети полностью вычислима, то есть её работу можно описать, поэтому искусственную нейронную сеть можно реализовать и аппаратно, и программно.

В то же время если мы каким-то образом соединим (срастим) биологические нейроны, то получившуюся биологическую нейронную сеть тоже отчасти можно будет назвать искусственной, так как она создана нами. Но при этом описать её работу — то, как конкретно сигналы на входе этой сети преобразуются в сигналы на выходе — мы не сможем, ведь биологическая нейронная сеть не алгоритм. Тем не менее при этом в создании такой «живой искусственной» нейронной сети участвует интеллект человека — например, посредством идей, как конкретно, то есть «по какому алгоритму», соединять нейроны, как обучать сеть и так далее — и в этом смысле работу «живой искусственной» нейронной сети тоже отчасти определяет (и, следовательно, в той же степени ограничивает её сложность) написанный человеком алгоритм.

Чтобы далее отличать одни системы от других, назовём искусственные системы, работу которых можно описать, вычислительными — их работу можно реализовать программно. Таким образом, у нас получится, что вычислительные системы — это, можно сказать, «наиболее» искусственные системы, исходя из того, что система тем больше искусственная, чем полнее её работу определяет сформулированный человеком алгоритм. А также у нас получилось, что не все искусственные системы вычислительные (например, согласно данному определению, собранная из живых нейронов сеть — это система искусственная, но она не вычислительная), но все вычислительные — искусственные.

Теперь перейдём к основному содержанию главы.

Возможно, аргументы прошлых глав были убедительными. Тем не менее, пусть не на практике, а в принципиальном смысле, если в искусственной нейронной сети очень-очень много нейронов, неужели она всё равно не сможет выразить сложность мышления? В это сложно поверить. Разве «количество простоты» искусственных нейронных сетей не перейдёт когда-нибудь в «качество сложности» нейронных сетей биологических?

В первой главе говорилось про чувствительность к начальным условиям. Она означает, что близкие траектории в фазовом пространстве отдаляются друг от друга с экспоненциальной скоростью. Проще говоря, бесконечно малое изменение начальных условий приводит к тому, что даже очень похожие системы приобретают всё большую индивидуальность. Чувствительность к начальным условиям важная характеристика хаоса, а хаос — это одно из оснований мышления. Другим основанием является самоорганизация, это явление упорядочивания хаоса, в некотором смысле «сжатия» хаоса в порядок. В результате упорядоченность работы мозга сочетается с чувствительностью хаоса, поэтому на ход мыслительного процесса может повлиять сколь угодно малое событие. Как это происходит конкретно, скажем в восьмой главе. Сейчас же важно, что сколь угодно малые события происходят на элементарном уровне материи, поэтому адекватное описание биологической нейронной сети так же требует точности элементарного уровня материи.

В ином случае описание нейронной сети мозга будет слишком грубым, неточным. Как если бы мы описали смартфон плоским параллелепипедом, без подробностей внутреннего устройства, а потом из этого описания попытались бы вывести его функции, предсказывать реакции на нажатие кнопок или создать его работоспособную копию. Точно так же и более грубое описание мышления попросту не опишет его адекватно.

В результате разница между мышлением и вычислительными системами качественная, принципиальная. Способ, которым мы выражаем точное знание и воплощаем его в технологиях, в том числе в вычислительных системах — язык, алгоритмы — в принципе не позволяет выразить мышление. Это значит, что ни сколько-нибудь точно предсказывать поведение, ни копировать мышление и перенести личность в компьютер, ни вообще создать какую-либо вычислительную систему, приближающейся к мышлению сложности, невозможно в принципе.

Можно возразить, что в этих аргументах речь идёт только о «мыслимых» языках, а какой-нибудь «не мыслимый» язык элементарный уровень материи, может быть, и выразит. В этом случае вычислительная система, способная выразить сложность мышления, тоже возможна, пусть даже её алгоритм будет написан не человеком и на неком недоступном человеку языке. Однако описание элементарного уровня материи будет равносильно абсолютно точному знанию, но абсолютно точной является только сама природа, а не знание о ней, поэтому элементарный уровень материи не может быть знанием.

Связь мышления с элементарным уровнем материи на более конкретном уровне объясняет описанную в предыдущей главе растущую неопределённость в работе систем по мере их приближения к сложности интеллекта человека. Почему по мере этого приближения неопределённость стремится к полной? Потому что самый глубокий уровень материи является «полностью неопределённым». Например, если на более общем масштабе работа мозга может быть понятна, то по мере исследования мозга на масштабе всё более глубоком понятного будет становиться всё меньше, исследования будут становиться всё более трудными. Точно так же будет расти неопределённость по мере усложнения искусственных систем.

Связь с элементарным уровнем материи означает, что описать нельзя никакую биологическую нейронную сеть — ни человека, ни насекомого — точность такого описания всегда будет недостаточной для адекватных предсказаний её работы. Другими словами, если алгоритм мышления не имеет смысла, то можно спросить: алгоритм какого мышления, ведь мозг у всех разный?

Ответ — любого мышления, так как в общих чертах мозг у всех животных одинаковый — он строится из нервных клеток и похож архитектурно (даже мозг насекомых имеет схожее с мозгом человека строение отделов, за исключением коры мозга, которой у насекомых нет), поэтому абсолютная чувствительность и пластичность, очевидно, тоже его общий параметр. Невозможным описание биологической нейронной сети делает сам принцип её работы, безотносительно к объёму опыта в ней. 

Чтобы было понятнее, рассмотрим сказанное ещё раз. С практической точки зрения невозможно создать систему приближающейся к себе сложности потому, что это равносильно выходу за свой опыт, что в конечном итоге равносильно полной неопределённости в представлении о том, что нужно создавать. Как змея, пожирающая свой хвост, будет пожирать себя всё медленнее и в конечном итоге не сможет этого сделать, из-за того, что не сможет засунуть себя в себя полностью, так и познать самого себя тоже нельзя. Поэтому на практике сложность создаваемых систем будет ограничена сложностью собственного мышления.

Как кажется, «за» опыт пчелы или кошки вполне можно выйти, можно посмотреть на их мышление «со стороны», то есть можно полностью включить их опыт в свой, поэтому систему равную и даже превосходящую сложность их интеллекта создать можно. Однако в том объёме, в котором работа их мозга связана с элементарным уровнем материи, он тоже непознаваем и невычислим. Разница с мозгом человека будет только в том, что к сложности интеллекта пчелы сложность создаваемых человеком систем сможет приблизиться ближе. Действительно, можно обратить внимание, что пока никакие искусственные системы не превзошли пчелу в сложности даже только одного полёта, ловкости маневрирования, не говоря уже о сложности поведения в целом.

Поэтому наблюдаемое устройство мозга в виде сети нейронов — это лишь его «внешняя» сложность, то есть это сложная «нейросетевая» организация на самом деле много более сложной системы. И только эту «нейросетевую организацию» на том или ином уровне схематичности и упрощения воспроизводят искусственные нейронные сети. Настоящая же сложность мозга скрыта не только в количестве нейронов и их связей, а прежде всего в физических особенностях «нейросетевой организации» — в чувствительности и пластичности мышления, то есть в способности биологической нейронной сети качественно перестраивать свою работу под влиянием самых ничтожных изменений её структуры. Иными словами, невозможность алгоритма мышления указывает не на обучение или вообще что-то нейросетевое, а именно на связь биологической нейронной сети с элементарным уровнем материи — только в этом случае алгоритм явления будет равен теории всего, вне зависимости от его остальных особенностей.

Итак, описать биологическую нейронную сеть нельзя, это слишком чувствительная система, мышление происходит слишком глубоко, поэтому выразить сложность мышления в какой-либо вычислительной системе, в том числе искусственной нейронной сети, невозможно. Можно попробовать собрать «живую искусственную» нейронную сеть из биологических нейронов, но из-за роста неопределённости и этот способ тоже превзойти интеллект человека не поможет.

Тем не менее не будем сдаваться. Биологическая нейронная сеть обладает абсолютной чувствительностью, так как на мышление может повлиять сколь угодно малое изменение её параметров. Можно ли наделить абсолютной чувствительностью искусственную нейронную сеть?

Ещё раз обратим внимание, даже если это возможно, то на практике искусственную нейронную сеть, равную сложности мышления, создать будет всё равно нельзя — из-за роста неопределённости, об этом говорят аргументы второй главы. Но запрет уже не будет принципиальным, поэтому можно будет, например, угадать устройство такой нейронной сети, так как появляется основание для перебора. Конечно, на практике вероятность угадать всё равно будет ничтожна. Например, само по себе угадывание не имеет смысла, так как ещё надо систему построить, правильно обучить, проверить её в работе, но не факт даже то, что соответствующие технологии на момент угадывания уже будут существовать или хотя бы позволят их предположить.

Но может получиться другое. Если окажется, что в принципиальном смысле выразить мышление искусственной нейронной сетью ничего не запрещает, и такие технологии уже есть, то появляется другая и не менее привлекательная перспектива, чем создание искусственного интеллекта. В том же принципиальном смысле теперь ничего не помешает копировать мышление конкретного человека. Ведь для копирования мышления у нас есть образец — мозг конкретного человека, а для создания искусственного интеллекта образца нет, потому что создание искусственного интеллекта — это не повторение мозга конкретного человека. Так получится копировать или нет?

Если получится, то, например, можно будет не только перенести себя в компьютер, перенося себя в новый в случае поломок, но и разделится сразу на множество компьютеров, где в каждом будет проходить один вариант своей жизни. Другими словами, такая нейронная сеть, будет потенциально содержать в своей структуре все возможные знания человека, которые останется только «вытащить» из неё, подобрав соответствующий алгоритм обучения. Причём, вероятно, можно будет ускорять мышление таких «цифровых субъектов» по сравнению с мышлением естественным.

В том числе перенося процесс познания реального мира в мир виртуальный, потому что если мы смогли во всей сложности смоделировать своё мышление, то и смоделировать сигналы рецепторов труда явно не составит. Они же не могут быть сложнее нашей модели, ведь наша модель равна теории всего. 

Задача создания искусственной нейронной сети, обладающей абсолютной чувствительностью, или задача перенесения личности в искусственную нейронную сеть равносильна задаче более общей — созданию такой искусственной нейронной сети, которая будет обладать пластичностью нейронной сети мозга.

Иными словами, если мышление — это явление очень изменчивое, пластичное — настолько, что к изменению мышления может привести изменение структуры нейронной сети мозга самого элементарного характера — то достаточно описать механизмы этой пластичности и перенести понятое в искусственную нейронную сеть. Если это удастся, то всё остальное, что важно в нейронной сети — количество нейронов и архитектуру их связей — скопировать, очевидно, принципиальной сложности уже не составит.

Чтобы понять механизмы пластичности биологической нейронной сети, нужно отделить структуру сети от среды и исследовать принципы, по которым эта структура меняется в ответ на воздействия среды. После чего останется только воспроизвести всё это в искусственной нейронной сети, взяв за образец мозг какого-либо конкретного человека. Тем самым можно будет «перенести личность в компьютер» — тот, который будет программно моделировать работу этой нейронной сети, или создать такую нейронную сеть аппаратно. Далее, подставляя сигналы рецепторов, можно будет воспроизвести любой мыслительный процесс человека, мозг которого скопирован, включая все его ощущения и эмоции и, собственно говоря, все возможные жизни этого человека.

За исключением наличия сознания (о котором речь пойдёт в следующей главе), в приведённом во второй главе схематичном описании работы мозга отличие биологических нейронных сетей от искусственных не заметно, поэтому его можно считать и описанием искусственных нейронных сетей тоже.

Конечно, на самом деле похожего очень мало. Биологическая нейронная сеть — это упорядоченный континуум, объём веществ и химических реакций, то есть это именно сеть нейронов сама по себе и даже окружающие нейроны ткани (они тоже участвуют в мышлении). Причём этот континуум неравновесный (почему это очень важно, узнаем в восьмой главе). Тогда как сеть искусственная — это или программа (то есть последовательный процесс переработки данных, а не какой-либо континуум, тем более неравновесный), имитирующая работу сети нейронов. Или это аппаратная реализация (например, развивающаяся последнее время технология нейроморфных процессоров, чипов, где используются импульсные нейроны, упрощённо повторяющие некоторые особенности спайковой электрической активности биологических нейронов), которая тоже не континуум. В отличие от мозга, в ней как минимум есть планировщик заданий, отдельная память, маршрутизатор и так далее. Тем не менее сейчас мы предполагаем, что эта разница не принципиальная и на возможности искусственных систем не повлияет. 

Если эту разницу не учитывать, то, действительно, можно заметить, что, как и мозг человека, искусственные нейронные сети умеют делать индуктивные выводы — от частного к общему, то есть находить зависимости в отдельных данных и обобщать их в «целое» — в некоторый вывод, отсутствующий при обучении. Например, узнать объект и отнести его к соответствующему классу, построить фразу, прогноз или стратегию. Но именно индукцию, как способность создавать новое, часто рассматривают как важнейшее свойство разума, так как на выводы дедуктивные — от общего к частному, то есть вычисления по уже готовым формулам — «способны» и обычные компьютеры. В целом же проявлением способности искусственных нейронных сетей к индукции и дедукции является умение строить алгоритмы решения задач, на что способны рекуррентные нейронные сети (с обратными связями), то есть умение выделять цели и формировать действия по их достижению — чем собственно и занимается мозг любого животного. 

Таким образом, пусть и на самом простейшем уровне, искусственные нейронные сети уже умеют всё, что умеет интеллект человека. Исходя только из этого факта, можно предположить, что в принципиальном смысле развитие способностей искусственных сетей вполне укладывается в русло количественного усложнения вплоть до способностей любой сложности, в том числе и выше уровня человека.

Искусственная нейронная сеть — это алгоритм, вычислительная система аналогично другим вычислительным системам. Поэтому работа искусственной нейронной сети точно так же, как и работа других вычислительных систем, может быть реализована программно или аппаратно. В то же время нейронные сети не создаются точно под задачу — оптимизация нейронной сети происходит в процессе обучения. Например, в случае биологической нейронной сети обучение — это следствие невозможности заранее задать опыт, приспособленный под все нюансы условий жизни животного, а в случае искусственных сетей обучение — это следствие сложности задать необходимое поведение прямым алгоритмом.

В свою очередь, наличие обучения означает, что искусственные нейронные сети — это уже «не совсем» искусственные системы, в том смысле, что человек не задаёт весь ход вычислений нейронной сети во всех ситуациях напрямую, а только объём возможных изменений структуры сети в ходе обучения и некоторые общие параметры этих изменений. Также надо заметить, что есть разные способы обучения искусственных сетей, то есть «взаимодействие со средой» может быть организовано по-разному. Вносить изменения в веса связей может человек, более или менее наугад добиваясь адекватной реакции сети на обучающие примеры. Или изменения в сети может инициировать сама среда, что, естественно, в большей степени соответствует работе биологической нейронной сети, но сложнее в практической реализации.

Тем не менее сейчас такие различия не имеют значения, потому что сейчас нам важно не нынешнее состояние дел в области искусственных нейронных сетей, а сама возможность воспроизведения в искусственной сети пластичности биологической. Если это получится, то принципы, по которым биологическая нейронная сеть меняется в ответ на сигналы рецепторов, станут известны, сами сигналы рецепторов тоже можно моделировать, а узнать количество нейронов и скопировать архитектуру их связей, очевидно, будет не сложнее, чем разобраться с их пластичностью. В итоге всё, что необходимо для копирования интеллекта, нам станет известно.

Итак, может ли всё это действительно быть известным, если речь идёт о биологической нейронной сети?

Представление о механизмах изменения какого-либо параметра некой системы равносильно представлению обо всех возможных значениях этого параметра, в зависимости от начальных условий, то есть формализации этих изменений, написанию алгоритма, формулы того, как они происходят. Функциональным элементом нейронной сети является нейрон, поэтому пластичность мозга — это пластичность нейронов, их способность меняться, в зависимости взаимодействия с другими нейронами, рецепторами и окружающими нейроны тканями мозга.

Причём пластичность нейронов мозга включает в себя не только те элементы пластичности, которые можно связать с обучением (изменение весов связей), но и морфогенез (развитие организма из одной клетки) и в целом связь с наследственными факторами, с ДНК. Всё это тоже участвует в обучении, только на более общем уровне, чем изменение весов связей нейронов, так как эти элементы пластичности связаны с изменением мозга более общего характера (например, рост и отмирание связей нейронов, которое с той или иной активностью продолжается на протяжении всей жизни).

В результате сложность механизмов пластичности мозга получается столь высокой, что, например, нет ни одного одинакового нейрона. Причём есть не только множество разных типов нейронов (и до сих пор в мозге обнаруживаются неизвестные ранее типы), но и внутри типов каждый нейрон индивидуален — так же, как индивидуален любой человек, несмотря на то, что все люди похожи. Условия различаются нейроном столь тонко, что для всех из них формируется его индивидуальное воплощение.

Но, может быть, столь высокое разнообразие нейронов — это всего лишь дело случая, формирование мозга идёт случайным образом? Однако тогда бы и порядка в наших мыслях, в нашем поведении, тоже бы не было. И разнообразие, и одновременно упорядоченность говорят именно о тонком приспособлении функции мышления к условиям.

Заметим, способность тонко приспосабливаться (когда функция сохраняется, но её выполнение учитывает условия более полно и точно), которая в некотором смысле аналогична обучению, не может быть закодирована в ДНК, так как это равносильно кодированию в ДНК всех возможных условий и всех реакций на них, никакого кода для этого не хватит. Поэтому механизм морфогенеза другой, он связан не только с ДНК, но и с таким явлением, как самоорганизация.

В свою очередь, самоорганизация связана с интенсивным обменом системы со средой веществом/энергией. Организм и в наибольшей степени мозг — это открытые системы, ведущие интенсивный обмен со средой. Этот обмен определяет, с одной стороны, возможность упорядочения — самоорганизации, с другой — среда, естественно, влияет на то, какой конкретно будет порядок. Это и причина способности тонко приспосабливаться к условиям — связь со средой налицо. Подробнее рассмотрим самоорганизацию и морфогенез в восьмой главе, пока же продолжим рассуждать логически.

Если разнообразие нейронов связано с их способностью тонко учитывать условия означает, что сложность написания «алгоритма нейрона» равносильна представлению обо всём неисчислимом множестве всех возможных трансформаций нейронов. Очевидно, это говорит о том, что задача составить адекватное представление о механизмах пластичности биологических нейронов как минимум очень сложная.

Тем не менее пока она не выглядит неразрешимой. Даже если прямыми средствами понять механизм пластичности биологических нейронов будет слишком сложно, то мы всегда можем рассчитывать на инсайт, озарение — угадывание, проще говоря. Собственно, чтобы перенести личность в компьютер нам всего лишь нужно найти «формулу пластичности». Не так уж много. Возможно ли в принципе такую формулу угадать? Ограничивает ли угадывание, что-либо, кроме количества вариантов?

Любая модель какого-либо реального явления есть его некоторое упрощение, потому что невозможно измерить что-либо с абсолютной точностью, нельзя учесть все связи явления, выделить явление из среды абсолютно точно. Например, точность копирования уже ограничивает квантовая механика. Принцип неопределённости Гейзенберга говорит, что местоположение и импульс частицы не могут быть известны одновременно и точно, так как чем точнее становится известен один параметр из пары, тем более неопределённым становится другой. Однако абсолютно точная копия требует абсолютно точного знания всех параметров всех частиц.

Но в любом случае абсолютно точная копия невозможна на ещё более принципиальных основаниях, чем какая-либо физическая теория. Абсолютно точное измерение равносильно знанию элементарного уровня материи, но такое знание не имеет смысла, так как равносильно построению теории всего. В стремлении к абсолютной точности вся Вселенная, по сути, окажется заключена в своей самой малой части. Поэтому модель явления всегда проще реального явления, точная формула чего-либо невозможна. В то же время на практике такая «простота моделей» не обязательно проблема, так как главное, чтобы точность модели отвечала решаемой задаче.

Однако в нашем случае это как раз проблема — и принципиальная. В начале этой главы мы выяснили, что в биологической нейронной сети важны все уровни её материи, включая элементарный. Поэтому в качестве копии личности может быть только абсолютно точная копия мозга, и никакая другая, любое упрощение приведёт к качественному упрощению переносимой «личности». А значит, угадать нам надо формулу элементарного уровня материи, то есть теорию всего. Но угадывание в этом случае бессильно, так как фактически требуется угадать такую формулу, которая ни в каком представимом виде не существует, не имеет смысла.

Таким образом, мы снова пришли к уже знакомому выводу: перенести личность в компьютер всё-таки невозможно. Перефразирование уже заданных вопросов ожидаемо не изменило уже данных ответов, надеждам на переселение себя в компьютер не суждено сбыться. Необходимость абсолютно точной копии говорит о том, что конкретная личность может быть только самим этим конкретным мозгом и ничем иным, поэтому вопрос копирования теряет смысл.

Аналогичные проблемы возникнут в попытке, к примеру, заменить «качество сложности» мышления «количеством простоты» искусственных нейронов, ведь сложность мозга всё равно придётся воспроизводить в полном объёме (мы же хотим получить как минимум не менее сложную систему, чем мозг человека), а это невозможно сделать вычислительными средствами.

Например, чтобы не только достигнуть сложности мозга, но и качественно её превзойти, система должна работать на ещё более глубоком уровне материи, чем тот, на котором происходит мышление, то есть она должна работать «на иных физических принципах», качественно более сложных. Но связь работы мозга с элементарным уровнем материи говорит о том, что система качественно сложнее уже невозможна — нет уровня материи глубже, чем тот, с которым связано мышление. Наоборот, чтобы превзойти сложность мозга только лишь «количественно», достаточно тех же физических принципов. Например, мозг человека только «количественно» сложнее мозга обезьяны или насекомого, исходя из того, что по принципу работы — это одни и те же системы.

Однако принципиальная возможность описания работы вычислительных систем — и наоборот, принципиальная невозможность описания мышления — говорит о том, что уровень материи, на котором оперируют вычислительные системы — это уровень материи менее глубокий, чем уровень мышления. Именно поэтому физические принципы работы вычислительных систем нам понятны (например принцип Ландауэра), а значит, в отличие от принципиально непознаваемых физических принципов работы мозга, связанных с элементарным уровнем материи, это принципы более простые, уровня сложности мозга с их помощью не достичь.

Можно провести такую аналогию. Если древнему человеку показать компьютер, то сколько-нибудь адекватно описать его он не сможет, хотя бы потому, что в его языке ещё нет тех понятий, которые бы позволили это сделать. Но элементарный уровень материи — это тот уровень, для которого адекватных понятий не может существовать вообще, знание законов этого уровня не имеет смысла. Однако нельзя создать вычислительную систему, которая работает неизвестно как. Такую систему нельзя угадать, так как оценка количества вариантов таких систем не имеет смысла, это даже не бесконечность, таких вариантов «ещё больше», потому что их нет и не может быть ни в каком представимом виде.

Наоборот, работу всех вычислительных систем описать можно, принципы их функционирования понятны, а значит, принципиальную «непонятность» мышления в них уже не выразить — сколько бы ни было элементов в «понятной» системе, она от этого не перейдёт в разряд принципиально непонятных. В итоге выводы те же — вычислительные системы в принципе не могут достичь сложности мышления, «качество сложности» мышления «количеством простоты» какого-либо алгоритма выразить невозможно.

В заключение главы вспомним приведённый в первой главе аргумент, что возможность предсказывать поведение человека ведёт к противоречиям. Потому что если предсказание человеку сообщить, то, как кажется, ему ничего не помешает своё поведение изменить и поступить не так, как предсказано. В результате, получается, что предсказание может сработать, только если его не сообщать. Однако возможность изменить поведение противоречит тому, что если работа какой-либо системы известна, то ничего не должно помешать предсказывать её поведение во всех ситуациях.

Можно предположить, что дело в обучении. Мы сообщаем человеку рассчитанное будущее, на этой информации нейронная сеть мозга обучается, её работа меняется, и человек ожидаемо поступает иначе, чем было предсказано. И наоборот, если мы предсказание сообщать не станем, то оно действительно должно быть точным.

Тем не менее это разрешение противоречия только кажущееся. Потому что если биологическая нейронная сеть может быть описана, то есть работу биологической нейронной сети хотя бы в принципиальном смысле может воспроизвести искусственная нейронная сеть, то ничего принципиально непредсказуемого в работе мозга не осталось бы. Подставляя сигналы рецепторов, можно было бы моделировать поведение субъекта в любых ситуациях. В том числе с учётом изменения мозга в процессе обучения, так как изменение веса связи нейрона, в зависимости от его активности, это тоже алгоритм (функция активации). Ничего загадочного, невычислимого, в искусственных нейронных сетях нет, любой этап их работы может быть описан. Поэтому, если бы работу биологической нейронной сети можно было бы описать, то, по крайней мере в принципиальном смысле, стало бы возможным предсказывать поведение во всех ситуациях, независимо от знания или незнания предсказания самим  человеком.

На самом деле противоречие с предсказанием разрешается «в другую сторону». Точно предсказывать поведение, наоборот, нельзя ни в каких ситуациях, а не только в зависимости от того, узнает предсказание субъект или нет. Если мышление принципиально «не алгоритм», то вычислить поведение нельзя, поэтому если в общем наше поведение упорядочено и направлено на самосохранение, то чем более частный уровень реакций мы рассматриваем, тем больше предсказания будут похожи на угадывание. Действительно высокая неопределённость предсказаний в случае человека и подобных ему физических систем в принципе неустранима, предсказания возможны или только в общем, или на очень короткий срок.


4. Наглядные аргументы

Приведённые в предыдущей главе аргументы о качественном отличии вычислительных систем от биологической нейронной сети могут показаться слишком абстрактными, общими, вероятно, запутанными и потому не слишком убедительными. Поэтому в нынешней главе вспомним о сознании и проверим сделанные выводы с точки зрения аргументов более наглядных. В частности, ответим на следующие вопросы. Если мышление связано с элементарным уровнем материи — а именно это, как мы выяснили, является принципиальным основанием его «невычислимости» — то можно ли эту связь как-нибудь непосредственно наблюдать? Чтобы убедиться в её наличии более наглядно? Конечно, заметим, непосредственно наблюдать непознаваемое — это должно быть, чем-то явно очень необычным. Тем не менее, как это часто бывает, необычное рядом.

Вначале рассмотрим следующий аргумент, связанный с сознанием. Наверное, пока ещё не слишком наглядный и логически достаточно сложный.

Искусственную нейронную сеть можно реализовать программно или аппаратно, а сеть с обратными связями можно заменить сетью только с прямыми (хотя это может быть не оптимально, так как разные функции проще реализовать в соответствующей архитектуре). Поэтому если можно создать искусственную нейронную сеть, не менее сложную, чем мозг человека, то в принципиальном смысле работу такой вычислительной системы тоже можно будет организовать по-разному при том, что результат вычислений будет одинаковым. Однако несложно заметить, что в этом случае не остаётся места сознанию.

Например, если предположить, что сознание есть во всех вычислительных системах, которые выполняют одну и ту же функцию, и оно во всех системах одинаковое, то сознание, следовательно, зависит только от функции, которую выполняет система, ведь организация у всех этих систем разная. Но это значит, что сознание не материя, то есть его нет, так как функция — это не материя. Если предположить, что у разных систем, выполняющих одну и ту же функцию, сознание разное, отражая их разную организацию, или есть только в системах какой-либо определённой организации, то сознание, следовательно, никак не зависит от функции — ведь функция у всех систем одна и та же. Но это опять означает, что сознания не существует, так как тогда получается, что сознание зависит только от организации системы, но организация, схема — это тоже не материя. Сознание не может вдруг появляться из ниоткуда, в зависимости от того, как мы располагаем детали системы. В итоге сознание превращается в нечто противоречивое, ему нигде нет места, оно не может существовать. Однако очевидно, что сознание есть и оно связано с работой мозга. 

Этот аргумент говорит о том, что сознание может быть только в невычислимых системах, то есть таких, описать работу которых сколько-нибудь точно в принципе невозможно, так как только в этом случае функцию и организацию системы принципиально невозможно сколько-нибудь точно отделить от материи системы.

Всё это относится к мозгу. Мы не можем точно установить функцию, так как это равносильно написанию алгоритма мышления, и не можем выделить принципиальную схему работы мозга, так как это тоже равносильно написанию алгоритма мышления. Как следствие, в мозге всегда остаётся что-то непонятное, а значит, неясной остаётся и функция, и организация. Этот вывод не делает сознание понятным, однако сознание перестаёт быть противоречивой сущностью, которой нигде нет места, и становится следствием высочайшей сложности мозга, выраженной в прямой связи его работы с непознаваемым уровнем материи, каковым, вспомним, является только её элементарный уровень. Таким образом, выводы предыдущей главы подтверждаются.

Приведём более простой аргумент.

Предположим, что сложность биологического нейрона каким-то образом всё-таки удалось воспроизвести в нейроне искусственном или искусственная нейронная сеть равная сложности биологической создана из более простых нейронов по принципу замены качества количеством. Если это получилось, то любой мыслительный процесс автоматически становится вычислительным — а следовательно, его можно будет выразить в некоторой записи на некотором формальном языке. Посмотрим, не возникнет ли из-за этого каких-либо «наглядных» противоречий.

Если хотя бы в принципиальном смысле процесс мышления можно выразить в записи на некотором языке, то элементом этой записи должно стать сознание, так как сознание, очевидно, неотделимо от мышления, являясь некоторым «внутренним» проявлением мыслительного процесса. Однако в первой главе мы пришли к выводу, что такой элемент сознания, как смысл, формализован быть не может. Но если мы можем создать искусственную нейронную сеть равную сложности мозга и тем самым получим возможность воспроизвести любой мыслительный процесс, то в нём, очевидно, должны быть и все элементы сознания, включая смысл.

О том, что в описании смысла могут возникнуть проблемы, нам говорит ещё один из аргументов первой главы. Если можно проследить связь своих утверждений со средой, то они ничем не будут отличаться от среды. Но среда такая, какая есть, она не может быть ни истинной, ни ложной. Таким образом, возможность проследить связь своих утверждений со средой приведёт к тому, что любые утверждения потеряют смысл — они сами станут средой, которая ни истинная, ни ложная. Но, очевидно, что утверждения уже имеют смысл, поэтому они не могут его вдруг потерять — если мы узнаем, как они возникают. Получится противоречие: что смысл и есть и нет одновременно.

И наконец действительно наглядный аргумент.

Сознание — то, как оно нами воспринимается, — это многомодальный континуум. Начиная от самоощущения и эмоций до конкретных образов. С континуумом понятно — сознание представляет из себя некий сплошной «объём» субъективных переживаний. В свою очередь, модальности сознания — это разные оттенки всего спектра субъективных переживаний, начиная от общих, описанных выше, до частных — оттенков эмоций, оттенков цветовой палитры, разных звуков, запахов, боли и так далее.

Однако проблема в том, что эти оттенки нельзя выразить словами какого-либо языка — их можно только обозначить.

Невыразимость словами какого-либо языка любой модальности сознания, легко становится понятной, достаточно представить ситуацию, когда требуется объяснить «красноту» красного цвета, вкус апельсина или звук рояля тому, кто никогда не видел ничего красного, не ел апельсинов или не слышал рояля. Объяснить будет в принципе невозможно, выразить этот опыт словами не удастся. С тем же успехом можно попытаться объяснить своё эмоциональное состояние.

Однако если мышление можно выразить в каком-либо вычислительном процессе, то, как уже говорилось, ход вычислений можно будет записать — совершенно обычно, в виде неких слов, формул, схем и графиков ручкой на бумаге. И тогда краснота красного цвета, вкус апельсина, звук рояля или удивление должны возникать прямо в этой записи. Очевидно, противоречивость этого требования уже действительно наглядная.

Такие элементы сознания называются квалиа (от лат. qualitas — свойства, качества), они отражают качества субъективного мира и по большому счёту сознание целиком состоит из них (поэтому далее в тексте квалиа и сознание разделять не будем). Это печаль, радость, энтузиазм, цвета радуги, свет и темнота, ощущение тепла и холода, звук, запах, боль, вкус и так далее — все ощущения и эмоции и их оттенки, все сенсорные и чувственные явления, включая самоощущение — наше Я. Невыразимость квалиа языком означает, что квалиа могут быть только самими собою, их нельзя передать, «сжать» до некого алгоритма, сути, в них нет важного и неважного, что можно сократить или оставить. На основании общности опыта мы можем только их обозначить, описать их отношения и трансформацию — образы, которые они формируют, или динамику изменений, но не то, что их «наполняет». Образно говоря, элементы опыта, которые можно формализовать, это «гребень волны» невычислимого «океана» мышления, из воды которого состоит и сама волна, и её гребень.

В свою очередь, невозможность выразить сознание каким-либо языком означает, что сознание как физическое явление непосредственно связано с таким уровнем материи, который в принципе не может быть как-либо описан, в том числе формулами какой-либо мыслимой теории, то есть, другими словами, этот уровень материи не может быть познан. Уровень материи, на котором «находится» сознание, в принципе не может быть выделен из среды как какое-либо «обычное» явление природы и описан. Принципиально непознаваемым уровнем материи является только её элементарный уровень, так как только представление об этом уровне матери равно построению бессмысленной теории всего. Таким образом, нынешние выводы полностью совпадают с выводами, сделанными ранее, о связи мышления с элементарным уровнем материи.

Например, возвращаясь к сказанному в предыдущей главе, из непознаваемости сознания тоже следует, что отделить от среды структуру биологической нейронной сети (чтобы понять, как она меняется в ответ на воздействия среды и затем перенести понятое в искусственную нейронную сеть), невозможно. Нахождение таких границ будет равносильно познанию непознаваемого. Поэтому мышление является источником языков, но само мышление действительно не язык, так как оно непосредственно связано с принципиально невыразимыми каким-либо языком уровнем материи. И наглядно «наблюдать» этот уровень материи можно прямо в своём сознании.

Рассмотрим некоторые подробности сказанного выше.

Если всё сказанное верно, то работа биологических нейронов и в целом биологических нейронных сетей действительно должна качественно, то есть в некой «высшей степени» отличаться от всех мыслимых инструкций, формул, языков и алгоритмов, в том числе тех, которыми можно описать работу искусственной нейронной сети.

Как кажется, очевидный претендент на такую роль — континуум, понимая этот объект как нечто непрерывное, сплошное, само по себе невычислимое, разделение которого на любое конечное число шагов и элементов будет неадекватно его реальным свойствам. И действительно, именно многомодальным континуумом и воспринимается сознание.

Однако континуум может быть формализован — он превратится в несчётное множество. В отличие от множества счётного, выражением которого является множество всех натуральных чисел, континуум — это множество всех вещественных чисел, количество которых несчётно (термины «вещественное число» и «действительное число» равнозначны). К примеру, если натуральные числа можно последовательно называть — «считать» — 1, 2, 3… и так далее, пусть даже ни за какой конечный промежуток времени не получится назвать их все, то вещественные числа не получится даже считать, так как первое же число после нуля будет бесконечно малым — 0,000...01, и ни за какой конечный промежуток времени его не получится даже назвать.

Тем не менее формализация континуума означает, что он более или менее понятен, его можно описать, объяснить — в той степени, как может быть понятно, что такое бесконечность, которая в вещественных числах проявляет себя более явно. Но он невычислим — в том же смысле, как невозможно выразить несчётность «счётными» вычислительными методами. Поэтому если мышление — это континуум, то оно уже невычислимо. Однако по крайней мере к нему можно бесконечно приближаться, точно так же, как можно бесконечно увеличивать количество граней вписанного многоугольника, пытаясь точно воспроизвести окружность.

Однако невычислимостью континуума сложность работы мозга не ограничивается. Потому что в случае сознания мы имеем дело с континуумом особенным, качественно иного рода, из-за чего даже само название «континуум» в его отношении можно использовать только за неимением лучшего. Сознание — это «несчётное множество» качественно более мощное, чем какое-либо известное, элементов в котором может быть только больше или меньше, так как сознание имеет уже полностью невыразимое никаким языком «расширение» в модальность.

К примеру, предположим, сознание — это некое «пространство». Сможем ли мы сопоставить каждой его точке свойство иметь некоторый оттенок красного цвета? Нет, не сможем. Предположим, мы попробуем каждому оттенку красного назначить число — номер, связанный с неким оттенком красного цвета. Но как в числе увидеть цвет? Понадобится образец цвета — на каждый мыслимый оттенок. Однако разделение цвета на оттенки будет во многом субъективным, зависеть от особенностей личного восприятия, как следствие, неоднозначным. Но язык математики строгий, однозначный. А как разделить шкалу от радости до грусти? От «всепоглощающего энтузиазма» до «глубокой апатии»? Что будет образцом? Ещё более непонятно, как быть с самоощущением. У него есть оттенки? Невозможность договориться как раз следствие того, что модальности сознания нельзя формализовать, выразить языком.

Как ранее говорилось, искусственные нейронные сети — это системы уже «не совсем» искусственные, так как несмотря на то, что это системы вычислительные, порядок работы элементов нейронной сети не задан человеком прямо, сети обучаются. И в этом смысле мышление — это уже «совсем» не искусственная система. Между всеми искусственными системами, включая искусственные нейронные сети, и мышлением, есть принципиальные отличия в сложности. Механизм пластичности нейронов, имея связь с непознаваемым уровнем материи, не просто включает в себя нечто вроде континуума, который нельзя выразить вычислительными средствами, но можно бесконечно приближаться, а нечто такое, что в принципе непонятно, поэтому не к чему даже и приближаться.

Пояснить отличие сознания от континуума можно ещё одним способом.

Чтобы понять явление, необходимо мысленно отделить существенное от не существенного и предположить модель явления, которую затем проверить на соответствие известным фактам и точность предсказаний. Заметим, что «не моделью» представление о явлении быть не может. Например, представление о стуле — это не сам стул, а его модель, абстракция, образ стула, так как в мозге не могут возникать исследуемые явления непосредственно.

Иными словами, чтобы понять явление, требуется посмотреть на него «со стороны» — со стороны своего опыта, для чего «вместить» модель явления в свой опыт. Который, очевидно, должен быть много сложнее представляемой модели, иначе он просто не сможет вместить её всю. Например, модель не только не может быть сложнее всего мозга, но и вообще не может представлять из себя какую-либо значительную часть его сложности, так как в ином случае вдруг окажется, что мы забыли, как управлять автомобилем, зажечь на кухне газ, как дышать или географию, потому что слишком много памяти будет заполнено этой моделью. В реальности так переполнить память, конечно, невозможно, так как это потребует столь объёмных изменений от мозга в ходе обучения, когда формируется модель, что они уже выходят за рамки возможного.

В скобках заметим, на математическом языке о необходимости посмотреть со стороны чего-то более сложного говорят теоремы Гёделя, согласно которым доказать непротиворечивость формальной системы можно только в системе с более богатым языком. Поэтому если мы смогли что-то оценить, понять, представить, то это уже само по себе означает, что наш опыт много сложнее понятого — и не просто сложнее, а суть «более богатый язык», если выражаться математически.

Математические объекты — это следствие идеализации, то есть глубокого абстрагирования, описанного выше процесса отделения существенного от не существенного. Это относится и к таким математическим объектам, как множество счётное и несчётное. Первое множество можно представить идеализированной моделью бесконечного набора предметов, поэтому счётное множество эквивалентно множеству всех натуральных чисел.

Несчётное множество можно представить двумя способами.

Первый — это количество объектов большее, чем есть натуральных чисел. К примеру, это количество всех возможных перестановок натуральных чисел (множество всех подмножеств натуральных чисел), которых, естественно, много больше самих натуральных чисел. Натуральные числа можно последовательно называть — «считать», поэтому множество натуральных чисел — это счётное множество, но при этом натуральных чисел бесконечно много, поэтому множество натуральных чисел — это бесконечное множество. Следовательно, множество всех подмножеств натуральных чисел тоже будет бесконечным, но оно будет уже несчётным, ведь оно больше счётной бесконечности самих натуральных чисел (это утверждение имеет красивое математическое доказательство — диагональный аргумент Кантора). Как следствие, несчётное множество становится уже затруднительно наглядно выразить через количество предметов, так как для любого количества предметов будет достаточно счётной бесконечности натуральных чисел.

Множество подмножеств натуральных чисел будет иметь своё множество подмножеств, и это множество будет «ещё бесконечнее», или, точнее говоря, его мощность будет больше. Мощность множеств характеризуют кардинальные числа — ; («алеф» — название образовано от первой буквы еврейского алфавита).

Второй способ представить несчётное множество — это представить что-то сплошное: линию, поверхность, объём, то есть, собственно, континуум, Континуум — это другое название множества вещественных чисел. Мощность континуума обозначается — ;1 («алеф-один»). Оно настолько велико, что своё вещественное число найдётся для каждой точки числовой прямой. Более того, своё вещественное число найдётся для каждой точки сколь угодно большой площади или для каждой точки сколь угодно большого и даже сколь угодно многомерного объёма. Тем не менее континуум — это всего лишь самое маленькое несчётное множество, оно (согласно континуум-гипотезе) идёт сразу после счётного множества всех натуральных чисел, которое имеет мощность ;0.

Однако в нашем восприятии любой объект имеет модальность — например цвет. До сих пор «модель цвета» нам была не нужна — точнее, она в любом случае не может быть построена. Но для формализации мышления она необходима, так как всё сознаваемое — суть некоторый мыслительный процесс. И даже если мы хотим воспроизвести мыслительный процесс как вычисление искусственной нейронной сети, то есть более или менее наугад, то это всё равно равносильно тому, что любой мыслительный процесс можно будет описать. И красный цвет, и звук рояля, и удивление, и вообще любой элемент сознания станет программой, алгоритмом, записью на некотором формальном языке.

Но такого языка не может быть, потому что модальности сознания языком невыразимы. Поэтому что такое мышление? «Со стороны» чего мы наблюдаем модели? По-видимому, со стороны явления такой сложности, на которое со стороны посмотреть уже нельзя, которое исследованию и пониманию недоступно уже полностью — и выражением этой сложности является сознание, реальные свойства которого никакой мыслимый язык в принципе описать не в состоянии. Действительно, невозможно выйти за рамки своего сознания, как говорилось в первой главе, солипсизм неопровержим. Наше мышление для нас — это «всё», но невозможно посмотреть со стороны на «всё».

Таким образом, рассматривая биологическую нейронную сеть «поверхностно», исследуя её «снаружи», описывая опыт как число возможных состояний, мы как будто наблюдаем просто сложную структуру из множества нейронов, способную меняться — и эти изменения, вероятно, могут носить характер некого континуума. Но «наблюдая» в этой структуре собственное сознание и замечая, что любой воспринимаемый нами объект — это невыразимые никаким языком ощущения и эмоции, сложность биологической нейронной сети предстаёт в совершенно ином свете, а адекватное представление о природе, очевидно, требует включения в него модальности.

В итоге пластичность биологических нейронов, их способность взаимодействовать со средой, по-видимому, носит качественно более сложный характер, чем те же способности любой искусственной системы. Представленные аргументы говорят не просто о многочисленности возможных состояний нейронной сети, каждое из которых может быть описано и проблема только в том, что нельзя описать все состояния, а о неприменимости какого-либо описания ни к одному из этих состояний, неразложимость мышления на некие формализованные элементы и шаги вычислительного процесса. Мышление нельзя описать каким-либо языком не только «количественно», но и «качественно». Поэтому мышление в принципе не может быть выражено каким-либо алгоритмом сколько-нибудь близко к сложности оригинала, в том числе как вычисление искусственной нейронной сети или любой другой искусственной системы.

В скобках обратим внимание на следующее. Означают ли сделанные выводы, что, когда сознания нет, работу мозга описать можно? Ответ потребует рассмотрения физических особенностей работы мозга и состоит в том, что описать работу мозга нельзя, независимо от того, находится субъект в сознании или нет. Вкратце, сознание коррелирует со сложностью ритмической картины (в частности, гамма-ритмом, отвечающим за внимание), но невычислимость мышления связана с построением самой ритмической картины в целом, а не только её частных элементов. Напомним, подробнее физические основания работы мозга будут рассмотрены в восьмой главе.

Итак, мы выяснили, что естественный интеллект обладает принципиальным преимуществом в сложности перед любыми искусственными системами, в том числе обучающимися. Алгоритмов, которыми можно описать мышление, не просто много, алгоритм не может выразить процесс мышления в принципе. Любой мыслимый язык человека является качественно менее богатым, чем тот, который способен описать работу мозга. Мышление в принципе невозможно «перенести в компьютер» — в искусственную нейронную сеть, её программное или аппаратное воплощение — потому что отличие между биологическими и искусственными нейронными сетями качественное.

Сказанное не означает, что в мозге непонятно вообще всё. Но каждый понятный элемент, как матрёшка, лишь открывает новый уровень непонятного.

Можно оценить и сложность всего мозга, но только относительную. Например, мозг человека, очевидно, сложнее любого своего нейрона или сложнее мозга пчелы. Однако вследствие принципиальной невозможности сколько-нибудь точного описания биологических систем, мы можем оценить эту разницу в сложности только лишь «качественно», а не «количественно», то есть только по неким более или менее общим соображениям, а не точно. А в попытке дать описание, соответствующее их реальной сложности, получается, что и нейрон, и мозг пчелы, и мозг человека имеют одну и ту же бесконечную сложность.

Точно так же любая система, сколь бы сложной и непознаваемой для нас она ни была, тем не менее имеет какое-то определённое устройство, а значит, имеет специализацию, область применения, за пределами которой превзойти её сможет и система несравнимо более простая. Это относится и к мозгу человека. Поэтому даже если мы не можем создать ничего сложнее себя, то, выделяя в своём опыте отдельные задачи, мы можем строить системы, которые, оставаясь много проще нас самих, в решении этих отдельных задач будут нас превосходить.

Например, мы не сможем создать вычислительную систему сложнее интеллекта пчелы, так как биологические системы качественно сложнее вычислительных. Но мы сможем создать вычислительную систему, которая считает намного лучше пчелы или умеет делать то, что не умеет пчела — к примеру, управлять автомобилем.

Однако когда дело касается нас самих, то дело обстоит принципиально иначе. Потому что у создаваемого нами искусственного интеллекта не может быть таких задач и умений, которых у нас нет. Ориентир для создания искусственного интеллекта у нас в принципе может быть только один — мы сами, наш опыт, наши потребности и способности, так как мы не можем ориентироваться на то, что никак не представляем. Всё, что выходит за рамки нашего опыта, не может быть нам понятно, и потому не будет нами развиваться в работе систем в ходе их отбора.

В том же смысле гипотетические представители внеземных цивилизаций, обладающие более высоким интеллектом, то есть способные к более высоким уровням абстракций и соответствующей сложности тактике и стратегии поведения, вероятно, могут построить вычислительную систему, функции которой мы сможем понять столь же ограниченно, как ограниченно человекообразная обезьяна способна понять функции смартфона. Но это не значит, что вычислительная система инопланетян будет сложнее нашего мозга или что смартфон сложнее мозга обезьяны. Поэтому если эти инопланетяне захотят воссоздать в своей вычислительной системе всю сложность мышления человека, то они тоже потерпят неудачу, хотя и смогут приблизиться к сложности человека ближе, чем сам человек. Точно так же, пытаясь воспроизвести всю сложность поведения обезьяны или нейрона, неудачу потерпим мы.


5. Ненужная глава

Рассмотрим сделанные в предыдущих главах выводы ещё раз, с некоторыми новыми подробностями и акцентами. Заранее скажем, что эта глава, наверное, не особенно нужна, ввиду незначительной новизны представленных в ней соображений, по отношению к уже изложенным ранее. Тем не менее, как взгляд под новым углом (или как минимум повторение пройденного), такое содержание тоже может быть полезно для более точного понимания аргументов статьи.

Качественное отличие языка от работы мозга, описанное в предыдущих главах, — это следствие того простого обстоятельства, что язык — это некоторый итог работы мозга, то есть язык формируется в мозге, а не «поступает» в мозг готовым извне. Поэтому вполне естественно, что процесс формирования языка не может быть описан каким-либо языком из тех, которые формируются, для этого нужен качественно более богатый язык. Однако для появления такого языка нужна и система с принципиально более богатыми возможностями, чем мозг человека. Говоря более наглядно, описать своё мышление каким-либо «своим» языком нельзя, так как это равносильно возможности посмотреть на самого себя со стороны, наблюдать собственные мысли «изнутри», в процессе их формирования, до их появления в своей голове. Что, естественно, не имеет смысла.

Этот же аргумент можно связать с тем фактом, что мозг отвечает за активность мышц и желёз, тогда как речь — это только часть от всей мышечной активности, при этом активность всех мышц формируется целостно, что обеспечивает согласованность их работы в едином порядке, как один сложный процесс. Поэтому никакого языка, который только часть от всей сложности работы мозга, очевидно, не может хватить для описания работы мозга во всей сложности.

Таким образом, из сказанного следует, что если работу системы полностью определяет написанный человеком алгоритм, то есть работу системы можно полностью описать, то система может быть только качественно проще интеллекта человека.

Однако, исходя из этого факта, можно предположить и то, что, наоборот, уменьшение доли алгоритма в работе создаваемой системы, то есть уменьшение в работе системы доли точно и однозначно понятного, того, что можно выразить языком, в той же степени позволит ограничение на сложность создаваемых систем преодолеть и всё-таки создать искусственный интеллект равный или даже сложнее интеллекта человека.

Действительно, движение в эту сторону заметно в искусственных нейронных сетях. Их создание и обучение подразумевает некоторую неформальную составляющую угадывания, интуиции. Знания не вносятся в сеть заранее полностью готовыми, как это происходит в обычной компьютерной программе, знания которой суть знания программиста, а в объёме того, что заранее не задано, знания формируются в процессе обучения. Как следствие, искусственные нейронные сети могут решать задачи, решение которых самому человеку непонятно, то есть, по сути, в некотором объёме могут «мыслить» самостоятельно.

Однако чем меньше в работе систем однозначно понятного, точно заданного, тем быстрее будет расти составляющая отбора. Потому что если заранее мысленно просчитать работу системы нельзя, остаётся только отбирать удачные варианты, созданные более или менее наугад, оценивая их только по «поведению», то есть по итогам их работы, а не точно представляя, что, как и зачем система делает.

В свою очередь, сложность мышления и сложность поведения — это одно и то же, так как мышление «на выходе» имеет поведение и чем сложнее мышление, тем сложнее может быть поведение. При этом сложность своего мышления — это, очевидно, максимальная сложность доступного человеку знания, так как более сложное знание в мозге попросту «не поместится», причём приближение к максимально сложному знанию — бесконечно.

Наглядно убедиться в последнем можно, попробовав описать все свои знания, весь опыт. Очевидно, что это потребует не только «количества» слов, но их «качества», то есть построения такого языка, который будет способен описать сознание, квалиа. И так как никакой язык для этого не подойдёт, то описание «всего опыта» потребует бесконечного времени, а итог такого описания не имеет смысла.

Например, чем больше мы описываем свой опыт, то есть чем точнее мы узнаём себя, тем больше мы превращаем свой опыт в опыт формализованный, в точное знание. Но итог этого процесса — алгоритм мышления, а он не имеет смысла. Или можно сказать проще: описывая себя, мы в своём опыте создаём модель себя, но модель себя не может быть равна самому себе, ведь объём опыта ограничен, второй человек в мозг уже не поместится, следовательно, модель себя может быть только много проще себя. Таким образом, описать себя, то есть понять себя, действительно, можно только очень ограничено, причём не описать, но хотя бы описывать, получится только малую часть опыта — тот самый «гребень волны», о котором говорилось ранее.

Однако это означает, что оценить своё поведение можно в той же степени ограниченно, как ограничено понимание собственного мышления. Поэтому по мере приближения к сложности поведения человека поведение искусственных систем тоже будет становиться нам всё менее понятным. Более того, если мы хотим создать искусственный интеллект равной себе сложности, то ориентироваться нужно не на нынешний опыт, не на нынешнюю сложность поведения человека, а на максимально возможный опыт, максимально возможную сложность знания, так как равный нам искусственный интеллект, естественно, должен иметь тот же потенциал обучения, что и интеллект человека, то есть обладать тем же потенциальным богатством поведения, которым обладает человек, иначе это будет более простой интеллект. Но если нынешние знания у нас хотя бы «есть», то «максимально возможных» нигде нет — и никогда нигде не будет, так как приближение человека к максимуму своих интеллектуальных возможностей, очевидно, тоже бесконечно. Поэтому если к сложности нынешнего опыта можно хотя бы приближаться, то за его рамками приближаться не к чему, за рамками нынешней сложности знаний находится уже полная неопределённость.

Как следствие, на практике сложность искусственного интеллекта всегда будет ограничена некоторым уровнем от нынешних знаний, то есть будет всегда ниже сложности интеллекта человека. Непосредственно это будет проявляться в описанных во второй главе проблемах отбора, общий смысл которых в том, что по мере приближения сложности создаваемых систем к сложности интеллекта человека время каждого нового усложнения будет всё быстрее стремиться к бесконечности.

Рассмотрим ещё некоторые аргументы.

Например, как уже говорилось, «мышление» пчелы тоже невыразимо никаким алгоритмом, то есть никакая вычислительная система не сможет во всей сложности воспроизвести работу мозга пчелы по трансформации сигналов рецепторов в активность её мышц и желёз. В то же время мозг пчелы, как и любая система, специализирован — «заточен» под некоторые важные для пчелы функции. Поэтому ограничение на алгоритмизацию его работы фактически говорит только о том, что весь объём способностей пчелы во всей их сложности алгоритм воспроизвести не сможет.

Проще говоря, вычислительная система не сможет стать пчелой. Максимум того, что возможно — некое упрощённое подобие интеллекта пчелы. Однако вычислительная система сможет намного превзойти пчелу в отдельных элементах её опыта (например, в богатстве языка, ввиду относительной простоты сигнального языка пчёл), а также иметь множество «способностей», которых нет у пчелы (например, играть на бирже, решать математические уравнения), пусть даже сложность этой вычислительной системы всё равно не превысит сложность интеллекта пчелы.

Точно так же никакая вычислительная система не сможет во всей сложности повторить интеллект человека. Но может существовать такая вычислительная система, которая сможет превзойти наш интеллект в его отдельных способностях (например, запоминать больше точных данных — чисел, формул, текстов, изображений — и оперировать ими с большей скоростью, чем человек, хотя и более простым образом, чем человек на это способен) или иметь интеллектуальные способности, которых нет у человека (пример таковых привести невозможно, так как представление о таких способностях означает их наличие в том или ином объёме).

Однако если речь идёт о вычислительных системах, создаваемых самим человеком, — а именно о них и идёт речь, то способностей, которых нет у человека, у таких вычислительных систем не будет. Человек может ориентироваться только на свой опыт, свои знания, так как никаких других ориентиров у нас нет и в принципе не может быть, поэтому непонятное не станет человеком развиваться в ходе создания, обучения и отбора систем. Причём важно подчеркнуть, что эти знания — это нынешние знания, ведь на знания, которых ещё нет, ориентировать не получится.

Как следствие, максимальная сложность создаваемого человеком искусственного интеллекта будет ограничена некоторым уровнем от сложности нынешнего опыта человека, именно к этому уровню будет бесконечно приближаться сложность вычислительных систем, так как только этот опыт человек может использовать для создания, обучения и отбора систем. Потому что если не сама работа создаваемой системы, то минимум результаты этой работы должны быть понятны человеку, находиться «внутри» его нынешнего опыта, чтобы он мог эти результаты оценить и принять решение об адекватности системы, продолжать разработку систем в этом направлении или прекратить. К примеру, мы не сможем обучить систему игре, если не будем знать правила этой игры и того, что является в ней выигрышем. То же с любыми другими функциями — их сложность будет всегда ограничена представлением человека о этих функциях.

Тогда как сложность интеллекта самого человека равна сложности максимально возможного опыта, так как только максимально возможный опыт характеризует ту сложность, которую может достичь мозг в ходе обучения, то есть реальную сложность интеллекта человека, его реальный потенциал. Однако приближение к максимально возможному опыту бесконечно, то есть этой сложности для самого человека не существует, он не может её оценить, как-либо выразить, измерить, так как именно к этому уровню бесконечно приближается сам человек в ходе познания. Очевидно, всё это говорит о том, что разница в сложности между интеллектом человека и создаваемыми им системами принципиальная.

Как кажется, выход в том, чтобы снизить жёсткость отбора. На самом деле этот способ уже учтён во второй главе, тем не менее посмотрим ещё раз.

И алгоритм, и отбор — это знания человека, которые он тем или иным способом вкладывает в создание систем, исходя из своего представления о необходимом устройстве или необходимом поведении системы. В случае прямого алгоритма решения задачи (детерминированный алгоритм) — это точный расчёт и формальный язык, в случае отбора (недетерминированный алгоритм) — это знания более общие, так как отбор подразумевает в том числе и менее формальные основания, более интуитивного характера, которые ложатся в основание создания и оценки поведения систем, работающих по такому алгоритму. Но, как было показано, любой язык качественно проще работы мозга, поэтому действительно, вполне естественно, что уменьшение формального содержания, которое происходит во втором случае, все-таки позволяет создаваемым системам приблизиться к сложности мышления ближе.

Таким образом, снизить жёсткость отбора — это проводить его на основании общих и не строгих соображений об адекватности поведения систем, то есть максимально интуитивно, больше доверяя системам, а не проверяя все их решения. В этом смысле минимальной жёсткостью будет обладать «отбор без отбора», то есть создание систем максимально наугад без какой-либо последующей оценки результата, то есть, по сути, случайным образом. Понятно также, что формальное содержание можно снизить и путём уменьшения такового в самой работе систем, создавая их тоже интуитивно, исходя из общих соображений, как художник рисует абстрактную картину, не используя расчёты и вычисления. Последнее невозможно в случае искусственных нейронных сетей, которые в любом случае являются вычислительными системами, однако гипотетически таким способом можно «ваять» системы сразу из живых нейронов.

Однако если при этом не будет жёсткого отбора, то количество вариантов систем, которые нужно рассмотреть — например, с разной организацией нейронов в сети и свойствами самих нейронов — очень быстро станет неисчислимым. Дело в том, что отбор нужен не только для внешней оценки адекватности систем, но и для того, чтобы изучать устройство созданных систем, выделять в них верные решения и продолжать их в новых системах, пусть даже понять работу систем можно только в некоторых общих параметрах. То есть именно для того, чтобы ограничивать количество возможных вариантов систем, а также развивать теоретическую базу и улучшать технологии. Поэтому снижение жёсткости отбора пропорционально увеличит количество возможных вариантов систем и замедлит развитие технологий. В результате снова устремляя к бесконечности время приближения создаваемых систем к сложности интеллекта человека, только теперь уже по этой причине.

Например, даже попытка копировать какой-либо конкретный мозг, используя для этого живые нейроны, выращенные в некоторой питательной среде или взятые из другого мозга, столкнётся с теми же проблемами. Все нейроны разные, поэтому сразу «собрать» копию мозга не получится, а попытка направленно таковые вырастить равносильна формализации механизмов пластичности нейрона, что не имеет смысла. Как следствие, тот же рост неопределённости и все связанные проблемы.

И наконец снижать жёсткость отбора сверх некоторого уровня нельзя не только по изложенным сейчас причинам. Более того, жёсткость отбора должна, наоборот, расти. О чём говорилось во второй главе, чем сложнее система, тем выше её возможности, а значит, всё важнее становится точная оценка её адекватности, цена ошибки всё выше. Тем самым рост сложности будет тормозить сам себя.

В итоге все аргументы говорят об одном. Какой бы способ ни использовать, не существует возможности самому человеку создать систему, превосходящую сложность его интеллекта или равную ему. Ограничение заключается в том, что чем больше система искусственная, то есть чем больше её работу определяет написанный человеком алгоритм, тем меньше будет её сложность, по сравнению с интеллектом человека. Уменьшение формальной составляющей позволяет на практике достичь большей сложности создаваемых систем, но задолго до цели рост неопределённости лишит смысла и такие попытки тоже.


6. Ещё одна интерпретация

В этой главе снова обратимся к теоремам Гёделя о неполноте формальных систем. С учётом предыдущих глав, уточним, какой смысл с точки зрения создания искусственного интеллекта всё-таки имеют теоремы, почему они вообще имеют какой-то смысл, и приведём ещё одну интерпретацию теорем.

В первой главе мы выяснили, что из ограничений, накладываемых на формализацию математики теоремами Гёделя, следует противоречивость алгоритма мышления. Напомним, в частности, гёделевский аргумент: если мышление алгоритм, то все утверждения человека, включая математические, должны быть выводимыми, в том числе и истинная невыводимая формула. Что приводит к противоречию, так как эта формула должна быть невыводимой.  Как мы так же выяснили, подтверждает гёделевский аргумент множество других аргументов. Все они говорят одно и то же — мышление не алгоритм, алгоритм мышлением быть не может.

Однако есть и аргументы против того, что алгоритм не может выразить мышление. Они заключаются в том, что теоремы Гёделя, возможно, запрещают только прямой алгоритм мышления, но не запрещают искусственную нейронную сеть, равную сложности мозга, так как нейронные сети меняются в ходе обучения. Например, прямой алгоритм мышления противоречив, потому что он позволит выводить противоположные утверждения. Но в нейронной сети, вследствие её изменения в ходе обучения, противоположные утверждения будут итогом вычисления, по сути, разных нейронных сетей, то есть разных алгоритмов, их сравнение не имеет смысла.

В то же время против этой точки зрения говорит то, что в искусственной нейронной сети можно описать все изменения, то есть на самом деле у нас одна нейронная сеть, а не разные, а значит, по крайней мере в принципиальном смысле, любую искусственную нейронную сеть можно заменить прямым алгоритмом. Поэтому если мышление можно выразить в искусственной нейронной сети, то всё равно возникает то же самое противоречие — всё утверждения, включая противоположные, в принципиальном смысле становятся выводимыми.

С другой стороны, то обстоятельство, что мышление невыразимо никаким алгоритмом, включая искусственные нейронные сети и другие недетерминированные алгоритмы, как кажется, сам по себе ничего не говорит о том, насколько близко алгоритмы могут приблизиться к сложности мышления. Однако ответ и на этот вопрос тоже можно обнаружить в теоремах Гёделя — сложности создаваемых систем будет всегда ограничена нынешним опытом человека. Или, точнее говоря, будет бесконечно к нему стремиться, а значит, на практике всегда будет от него далека.

Например, из теорем следует, что посылки теории в рамках самой теории невыводимы, лежат за рамками теории. Проще говоря, теорию нельзя вывести из самой теории, поэтому доказательство непротиворечивости теории тоже находится за её рамками, ведь только извне теории можно оценить её всю целиком. Но, создавая искусственный интеллект, мы фактически выводим себя из самих себя. И, естественно, тоже сталкиваемся с проблемами: чем ближе мы приближаем сложность создаваемых систем к сложности себя, тем стремительнее растёт неопределённость. При этом мы «выводим себя», исходя из нынешних знаний — о себе, о мире. Таким образом, рост неопределённости происходит по отношению к нынешним знаниям человека, а значит, предел сложности, к которому бесконечно приближаются создаваемые нами самими системы — это тоже уровень сложности нынешних знаний человека.

Мы также обратили внимание, что из теорем следует невозможность построения теории всего, так как из теории всего должно быть выводимо всё, но посылки теории всего, согласно теоремам, невыводимы в рамках самой теории всего. На практике это означает, что исходные положения наиболее общей физической теории должны лежать за рамками физики, то есть должны находиться в области метафизики. Иными словами, они не могут быть проверены экспериментально, могут существовать только умозрительно, как некое общее допущение, из которого мы исходим.

Однако метафизические идеи, как просто идеи менее формальные, чем научные теории, тоже должны основываться на некоторых допущениях, причём ещё менее формальных — и, таким образом, изначально наше знание возникает из ниоткуда, из полностью неформализованного опыта. В итоге представление о началах мира не может лежать в области какого-либо знания или, другими словами, представление о началах мира может быть только противоречивым. В свою очередь, получает или не получает подтверждение любое знание в конечном итоге через то, повышает оно качество жизни или нет, а не через соответствие его настоящей реальности, ведь настоящая реальность не может быть известна.

В том числе теория всего равносильна описанию элементарного уровня материи, поэтому элементарный уровень материи принципиально непознаваем. В свою очередь, описанию элементарного уровня материи, как мы выяснили, равносилен алгоритм мышления. Действительно, мозг — это некоторая физическая система, поэтому принципиально невозможным алгоритм мышления может быть только в том случае, если мышление непосредственно связано с элементарным уровнем материи, так как только этот уровень материи не может быть описан каким-либо языком и, следовательно, каким-либо алгоритмом, формулой.

В итоге теоремы Гёделя о неполноте формальных систем, создание теории всего, описание работы мозга и создание искусственного интеллекта действительно оказываются связанными. С разных сторон и на разном уровне абстракции эти объекты отражают одно и то же — пределы познания.

В то же время нетрудно заметить, что выводы о пределах познания или границах сложности искусственных систем можно сделать и не привлекая математические теоремы. Например, много таких аргументов приведено в первой главе или это аргументы, связанные с сознанием, приведённые в четвёртой главе. Поэтому можно сказать, что выводы выше следуют не из теорем Гёделя, являясь интерпретацией теорем, а наоборот, теоремы Гёделя интерпретируют эти аргументы в математическом ключе. Ограничивая возможности формального языка на описание самого себя (если формальная система непротиворечива, то на языке самой системы нельзя доказать её непротиворечивость; если формальная система непротиворечива, то в ней должна быть невыводимая и неопровержимая формула), они, таким образом, ограничивают и описание мышления, как явления, продуктом которого является язык, и описание мира, ведь мышление его часть.

С другой стороны, можно встретить мнение, что теоремы Гёделя ничего не говорят о реальном мире, ведь в них напрямую ничего о нём не сказано. Теоремы, может быть, только случайно повторяют логику аргументов менее абстрактного характера, сформулированных на естественном языке.

Конечно, связь есть, и она не случайна. Наука исследует природу и описывает её законы, а математика — это язык науки, так как только строгие однозначные формулировки позволят выразить точное знание. Поэтому ограничения формального языка — это и ограничения на познание природы, на описание её законов.

Но почему формальный язык вообще имеет какие-то ограничения? Почему они совпадают с логикой аргументов языка естественного? 

Все законы природы известны быть не могут. В ином случае принципиально выводимым становится всё, и в том числе все утверждения, которые только можно сформулировать, включая противоположные. По этой причине теория всего не имеет смысла. Но если все законы природы известны быть не могут, то очевидно, что истинных утверждений всегда будет больше, чем выводимых — сказать можно много чего правильного, а доказать получится гораздо меньше. И для этих выводов действительно не нужна математика.

Однако формальная система — это, по сути, описание некого «математического» мира, со своими «законами природы» в виде аксиом и со своим языком в виде правил вывода. Поэтому, чтобы не быть противоречивым описанием — когда можно и доказать утверждение, и его опровергнуть — формальная система тоже не должна обладать полным набором аксиом, то есть полным набором законов природы математического мира. И тогда в ней, естественно, тоже должны быть истинные невыводимые формулы — верные утверждения, которые нельзя доказать. 

Таким образом, отвечая на вопросы выше, ограничения формального языка и связь этих ограничений с аргументами менее абстрактного характера возникает по причине того, что и естественный язык, и язык формальный суть всё более абстрактное выражение нашего опыта. В свою очередь, опыт, как целое, представляет из себя модель наблюдаемого человеком мира. Эта модель включает в себя и логику событий тоже, то есть не только то, что есть, но и как это меняется, по каким правилам. Которая ложится в основание «правил вывода» нашего мышления — правил логики, отношений объектов, их преобразований, выражаемой в виде «разумных» последовательностей слов и фраз. И эта модель в целом непротиворечива, так как возникает в результате естественного отбора и обучения, то есть в непосредственной связи с реальностью, где не бывает такого, чтобы события происходили и не происходили, что-то было и не было, потому что в наблюдаемой природе все «противоположные» события на самом деле разные события. 

Теперь рассмотрим ещё одну тему главы — ещё одну интерпретацию теорем Гёделя о неполноте.

До сих пор речь шла о двух интерпретациях теорем Гёделя — связи теорем с построением теории всего и связи с созданием искусственного интеллекта. Тем не менее можно найти ещё более глобальную связь теорем Гёделя с наблюдаемой природой, и тем самым интерпретировать теоремы ещё одним способом — связать их с выделенной ролью субъекта в описании природы.

В основании этой интерпретации лежит то обстоятельство, что формальная система, как описание некого математического мира, — это знание субъекта, но и описание реального мира — это тоже знание субъекта. Посмотрим, что из этого следует.

Если описание законов природы будет точным, то описание перестанет быть описанием и станет самой природой, ведь точно соответствует природе только сама природа. Поэтому теория всего не имеет смысла, а в формальной системе, если она непротиворечива, должны оставаться истинные невыводимые формулы. Точно так же если мы проследим связь среды с утверждениями о ней, в точности опишем, как утверждения возникают, то есть без разрывов «соединим» среду и утверждения, то утверждения перестанут отличаться от среды, станут ей. Описание опять перестанет быть описанием, а станет самой природой.

Но описание — это прерогатива субъекта, так как только субъект описывает мир. Поэтому если сам субъект будет описан и, таким образом, станет просто средой, перестанет от неё отличаться, то и все его знания тоже станут просто средой и перестанут быть описанием. Следовательно, сам субъект уже не может быть описан, такое описание не имеет смысла — а на границы возможного нам указывает сознание, которое невыразимо словами никакого языка. Как минимум в принципиальном смысле можно описать всё, но только не уровень сознания, то есть не элементарный уровень материи.

Поэтому описание должно отличаться от того, что описывается, а это, в свою очередь, говорит о выделенной роли субъекта в описании природы. Субъект описывает природу, это описание часть субъекта, а субъект часть природы. Но сам субъект — его сознание — не может стать частью этого описания, иначе описание утратит смысл. Как следствие, описание ни природы, ни субъекта не может быть полным, так как сознание из этого описания должно быть исключено.

Подведём итог главы.

Математика не оторвана от остального опыта человека. Наоборот, математика — это определённый (формальный) язык, который, описывая структуры, порядок и отношения, является идеализированным отражением нашего опыта. В свою очередь, опыт не возникает из ниоткуда, опыт — это связь потребностей и способностей, объективного и субъективного. Поэтому не является странным, что даже, как кажется, в чисто математических утверждениях можно обнаружить связь с реальным миром. В данном случае увидеть связь языка и познания, субъекта и среды, интеллекта искусственного и естественного. По мнению автора, ещё более интересные взаимосвязи приведены в следующей главе.


7. Тенденции познания

В этой главе рассмотрим пределы и тенденции познания, их связь с субъектом и влияние на фундаментальные научные теории.

Пределом познания — и его абсолютным итогом — должна стать теория всего. Но теория всего не имеет смысла, аргументы на этот счёт были приведены в первой главе. Коротко вспомним некоторые из них.

Как следует из теорем Гёделя о неполноте, самих формальных средств для формализации математики недостаточно, в то же время других средств, кроме формальных, для формализации не существует. Поэтому вся математика формализована быть не может. Несмотря на то, что в случае теории всего речь, как кажется, идёт о реальном мире и физике, на самом деле речь продолжает идти о математике. Дело в том, что в процессе познания человек формализует явления природы, гипотетическим итогом чего должна стать формула, которая опишет всё сущее, тем самым сведя мир в одну глобальную математическую теорию, «максимальную» формальную систему, в которой, как часть природы, будет выводим и сам субъект, и вся математика, и построение самой этой формулы. Но это невозможно, потому что тогда как раз окажется, что математика была формализована только формальными средствами, так как формализовано будет всё, включая и все средства.

На языке теории всего должно быть возможным сформулировать истинное утверждение, которое эта теория не сможет доказать, то есть непротиворечивая теория всего должна быть неполна, но теория всего по определению не может быть неполна. Наоборот, в теории всего выводимым должно быть любое утверждение, которое только можно сформулировать, а значит, в том числе утверждения противоположные или о ложности самой теории всего, так как всё, в том числе все утверждения, следуют из этой теории. Но очевидно, что такая теория не будет иметь смысла, теория, в которой можно вывести и утверждение, и его отрицание, является противоречивой.

Теорию всего принципиально нельзя фальсифицировать, то есть представить какое-либо её опровержение, хотя бы гипотетическое, так как это окончательная теория, она описывает всё, поэтому она в принципе не может вступить ни в какое противоречие с опытом. Но это значит, что на теорию всего нельзя будет мысленно посмотреть со стороны, чтобы оценить её истинность или ложность, так как всё, включая всё как-либо мыслимое, в том числе и само представление об истинности и ложности, уже находится внутри теории всего, выводится из неё. Следовательно теория всего не имеет смысла. 

Итак, бессмысленность теории всего достаточно очевидна, её бессмысленность следует из аргументов однозначно.

Однако, несмотря на то, что теории всего не может быть, её значение для познания огромно. Например, можно предположить, что теория всего как минимум является идеей слишком абстрактной, далёкой, не имеющей смысла с практической точки зрения. Как научная теория, обладающая предсказательной силой, теория всего действительно не имеет смысла, потому что она не может быть построена.

Но теория всего — это ещё и то, к чему познание стремится, как к своему абсолютному итогу. И пусть этот итог недостижим, но, задавая направление, он определяет тенденции, которые по мере приближения к теории всего будут становиться всё более заметными. И в этом смысле теория всего имеет практический смысл и даже в каком-то роде обладает предсказательной силой. Именно с этой точки зрения теория всего представляет особенный интерес. Рассмотрим эти тенденции подробнее.

Например, следствием противоречивости теории всего является непознаваемость элементарного уровня материи. Элементарный уровень материи является основанием всего происходящего в природе, поэтому теория всего равносильна описанию материи на элементарном уровне.

Ещё одно, важнейшее для дальнейшего изложения следствие состоит в том, что познание природы, как приближение к теории всего, есть фактическое приближение к итогу, который не имеет смысла, которого нет. Поэтому, например, гипотезу в отношении всего не просто нельзя экспериментально проверить, прямо или косвенно, но её нельзя даже непротиворечиво сформулировать, так как её объект ни в каком представимом виде не существует, является принципиально непознаваемым. Всё — это объект исключительно метафизический, внеопытный. При этом, говоря обо всём, мы в равной степени говорим об элементарном уровне материи, поэтому непредставимость всего суть непредставимость элементарного уровня материи.

Направление познания на утрату смысла означает и то, что чем глубже природу мы узнаём, тем больше познание теряет смысл, так как познание природы — это бесконечное движение к теории всего, которая не имеет смысла. В свою очередь, общее направление на утрату смысла проявляет себя в конкретных тенденциях познания, которые по мере приближения в теории всего будут становиться всё более заметными.

Рассмотрим обстоятельства утраты познанием смысла подробнее.

Вспомним первую главу. Построение теории всего равносильно построению максимально не финитистского языка, то есть «не языка», полной его противоположности, поэтому ни что-либо на нём сформулировать, ни даже построить такой язык невозможно. Например, сознание нельзя описать никаким языком, но построение теории всего потребует и описания сознания тоже, точнее говоря, как было показано в первой главе, описание сознания и теория всего — это одно и то же.

Если построение теории всего потребует максимально выразительного языка, то в ходе изучения материи на всё более глубоком уровне, чтобы оставаться адекватным природе, язык физических теорий тоже должен становиться всё более выразительным и, следовательно, всё менее финитистским. Но чем менее финитистский язык, тем меньше он подходит для выражения ясного, точного и однозначного знания, поэтому прогресс языка в эту сторону ограничен.

Дело в том, что чёткие, однозначные и конечные последовательности действий решения задач — это естественное предназначение мышления, направленного на достижение неких конкретных целей в контексте общей задачи самосохранения. В мышлении человека, способного на высокий уровень абстрагирования, эти последовательности в конечном итоге становятся строгими математическими формулами.

Причина стремления знания к ясности, однозначности и конечности в том, что такое знание необходимо для предсказания. В свою очередь, предсказать — это сэкономить силы, не делать лишнего, заранее рассчитав ответ. Любая формула по своей природе такой ответ, возможность предвосхищать события, рассчитать течение явления заранее. Поэтому возможность предсказания — это естественное выражение «понимания», явление понятно, если можно предсказать его течение, в зависимости от начальных условий.

Как следствие, уменьшение финитистского содержания в языке теорий приведёт только к размыванию смысла их утверждений, а не к переходу на новый уровень понимания или к более точному описанию природы.

В результате в ходе познания постоянно увеличивается рассогласование между описанием природы возможным и адекватным. Которое будет выражаться в том, что фундаментальные теории, с одной стороны, будут способны на всё более точные предсказания, в то же время, с другой — теоретические модели (образ явления, идеализированное представление об объекте теории, его свойствах и связях, то есть о том, что именно описывают формулы) будут всё менее соответствовать реальному устройству природы.

Объяснить растущую точность предсказаний и при этом всё большее несоответствие теорий реальности можно на таком образном примере. Если уметь мыслить только шары, то описывая ими явление, которое куб, описание будет становиться всё более сложным (потому что, умея мыслить только шары, мы всегда будем наблюдать только их ширящийся набор) и одновременно всё более странным (потому что приближение всего набора представимых шаров к непредставимому кубу будет казаться растущей контринтуитивностью теорий). Но предсказания при этом будут становиться всё более точными, так как набор шаров как целое будет всё точнее имитировать куб (но никогда с абсолютной точностью, так как куб из шаров не собрать).

И в конечном итоге познание остановится, так как сочетание растущей сложности, контринтуитивности и стремления к точности предсказаний приведёт к тому, что новую теорию построить будет уже просто невозможно — её математический аппарат станет уже слишком сложным, а модель непредставимой.   

Ещё один аргумент на этот счёт мы уже приводили, вспомним его. Невозможность достичь точного представления о реальности очевидна и с той точки зрения, что наш мозг имеет определённое устройство, которое вносит свою искажающую составляющую во все наши знания, делая в принципе невозможным добиться идеальной объективности. Как бы точно мы ни описывали вилку, она не появится в нашей голове, разница между реальным миром и нашими знанием о нём всегда качественная.

Забегая вперёд (физические основания работы мозга будут рассмотрены в следующей главе), заметим. Качественные переходы от одной теории к другой, а не постоянное уточнение некой «одной теории», «одной модели мира», имеют физические основания в особенностях нашего мышления. Мы не воспринимаем мир непосредственно, наше представление о нём — это сплав среды и опыта, сигналов рецепторов и структуры мозга, то есть сплав объективного и субъективного. В то же время любое переключение внимания — с одной мысли на другую, от образа отдельных элементов к образу целого, от смысла слов к смыслу фразы, от данных к теории — это неравновесный фазовый переход, то есть переход скачкообразный и качественный. Как следствие, такими же более или менее выраженными качественными «скачками» меняется и наше представление о мире.

Вернёмся к растущей неадекватности теорий. Как понятно из образного примера, неадекватность теоретической модели не обязательно будет мешать росту предсказательной силы теорий. К тому же рассогласование описания адекватного и возможного не наблюдается непосредственно, дать адекватное описание в принципе невозможно, неадекватное безальтернативно.

В итоге на практике утраты познанием смысла избежать нельзя, а наблюдать этот процесс можно только по косвенным признакам в растущих проблемах познания. Познание будет становиться всё более трудным, затратным, и поэтому оно будет идти всё медленнее. И в этом смысле, не имея точных границ, познание будет «бесконечным», но на практике на некотором этапе оно остановится.

Непосредственно растущие трудности познания будут проявляться в том, что фундаментальные исследования будут становиться всё более интеллектуально, энергетически и материально затратными и в конечном итоге станут полностью невозможными — «потеряют смысл».

Приведём пример материальных и энергетических затрат, то есть в целом трудностей познания практического характера, которые по крайней мере на данное время выглядят непреодолимыми.

Согласно современной физике, все элементарные частицы являются квантами соответствующих полей. Квантом гравитационного поля является гравитон. Однако представление гравитационного поля как тоже квантового пока только гипотеза, для экспериментального подтверждения существования гравитонов (то есть обнаружения отдельных свободно распространяющихся гравитонов) потребовалось бы строить ускоритель, кольцо которого имело бы минимум протяжённость порядка 10 световых лет. Очевидно, что с практической точки зрения это совершенно нереально. Может быть, существование гравитонов удастся подтвердить или опровергнуть какими-либо косвенными методами, но таковые пока неизвестны.

Одновременно с трудностями практического характера будут расти трудности интеллектуальные. Выражаться это будет в том что математический язык теорий будет становиться всё более сложным — поэтому «смысл» теорий будет всё труднее понять, а мир, который из этих теорий следует, будет всё сильнее отличаться от мира наблюдаемого непосредственно, также затрудняя понимание смысла теорий и построение новых. Иными словами, постановка экспериментов и обобщение полученных данных в новую теорию будет становиться процессом всё более сложным, а всё-таки сформулированные теории будут всё более неоднозначными и контринтуитивными.

Вспомним, точно такие же проблемы и по тем же причинам будут возникать и в построении искусственного интеллекта — решение этой задачи, ввиду стремительно растущей неопределённости, будет всё больше терять смысл. Создание искусственного интеллекта равносильно изучению собственного, а изучение собственного равносильно построению теории всего, поэтому такая взаимосвязь естественна.

Ещё одним проявлением утраты познанием смысла является то, что мир теорий должен становиться не только всё более необычным и сложным, но и всё более «математическим», абстрактным, «бесплотным», в отличие от мира наблюдаемого непосредственно, объекты которого обладают твёрдостью, упругостью, плотностью.

Причина «математизации» в том, что гипотетическим итогом познания должна стать формула, которая опишет всё. Но описать всё равносильно возможности заменить всё языком, формулами. Поэтому в теории всего не может быть ничего внешнего — того, что эта теория описывает — останутся только математические выражения, которые будут выводиться строго сами из себя.

Однако такой итог не имеет смысла. Тем не менее приближение к теории всего — это и есть познание, поэтому в физических теориях мир на всё более фундаментальном уровне будет всё больше представать как только математический объект, не имеющий никакой механической, «вещественной» природы. В том числе и какой-либо «реальной» природы тоже, становясь всё более необычным, невозможным, по этой причине вызывающим толкования и интерпретации.

И в конечном итоге стремясь к такому миру, который уже не имеет и никакой физической природы тоже, понимая таковую как явления, не выводимые в рамках самой теории. Причём учитывая, что построение теории всего равносильно формализации и всего мышления тоже, а мышление есть непосредственный источник математики, то одновременно с тем, как выводимыми станут все законы физики, выводимой станет и вся математика. Это значит, что математика перестанет быть языком, которым мы описываем явления природы, а сама станет явлением природы, разница между языком и объектом описания исчезнет — вместе со смыслом. Поэтому как только из физической теории исчезнет физическая природа, из неё на самом деле исчезнет и математическая природа, и природа любая, так как теория утратит смысл.

Иными словами, никаких реальных объектов, через отношения которых можно формулировать утверждения, в теории всего быть уже не может, всё станет только языком, одной вселенской формулой. Но любая формула, чтобы иметь смысл, должна выражать отношения того, что находится за рамками этой формулы.

Можно обратить внимание, познание действительно движется в этом направлении. Квантовая теория, описывающая материю в наименьшем доступном сейчас масштабе, или общая теория относительности (ОТО), описывающая мир на макромасштабе, действительно чрезвычайно сложны, необычны и абстрактны. Поля в квантовой теории не имеют механической природы, а частицы, являясь квантами полей (одночастичным возбуждением поля), не имеют размера, считаются точечными. Пространство-время, в котором находятся поля и частицы, согласно ОТО обладает только геометрическими свойствами, а тяготение объясняется его деформацией, то есть поле гравитации в ОТО идентифицируется с самим пространством-временем. Таким образом, материя в этих теориях ещё сохраняет физические атрибуты — частиц, полей, пространств, но в то же время она предстаёт уже действительно «бесплотной»: поля, частицы, пространство-время — это «что-то» только в абстрактном математическом смысле. При этом реальные размеры частиц неизвестны; в отличие от других фундаментальных полей, квантование поля гравитации (то есть самого пространства-времени) сталкивается с трудностями не только в экспериментальном подтверждении гравитона, но и теоретического характера, требуется более фундаментальная теория, которая сможет объединить «геометрическое» описание и квантовое.

В том числе по мере познания переход от мира теорий к миру наблюдаемому должен становиться всё более скачкообразным и загадочным. Очевидно, что переход от «ничего» к «чему-то» — от бесплотной и контринтуитивной математической абстракции к миру привычному, осязаемому, твёрдому и упругому — другим быть и не может. «Ничего» не может «постепенно» в каком-либо физическом процессе трансформироваться во «что-то», поэтому этот переход и должен быть необъяснимым и происходить мгновенно: есть или «ничего», или сразу «что-то». В том числе этот переход должен быть связан с наблюдением, так как он происходит только в представлении субъекта.

Наиболее выпукло эти особенности познания проявляются в квантовой механике в так называемой проблеме измерения.

Квантовая механика (КМ) — фундаментальная физическая теория, которая описывает природу в масштабе атомов и субатомных частиц. Она лежит в основании всей квантовой физики, включая квантовую химию, квантовую теорию поля и т. д.. Вспомним кратко содержание проблемы измерения.

Проблема измерения связана с коллапсом волновой функции. Волновая функция указывает вероятность обнаружить квантовую систему в том или ином конкретном состоянии в той или иной точке пространства, если будет проведено измерение. Волновая функция эволюционирует во времени, поэтому вероятность тоже меняется. Например, электрон с некоторой вероятностью есть везде, и можно лишь выяснить, какова вероятность обнаружить электрон в том или ином месте, в частности, определить, где он окажется с наибольшей вероятностью, и эволюцию этой области во времени. Другими словами, согласно КМ до измерения любая частица находится в состоянии суперпозиции, то есть с некоторой вероятностью есть везде в пространстве Вселенной и во всех возможных состояниях одновременно. И только в момент измерения происходит коллапс волновой функции и возникает частица с конкретными параметрами.

Следует подчеркнуть, КМ отличается от теории вероятностей, то есть в КМ речь идёт не о том, что электрон где-то находится, но нам просто точно неизвестно, где именно. До измерения электрон, как некая конкретная частица, которая перемещается по определённой траектории, именно не существует. Поэтому в КМ нельзя интерпретировать измерение как раскрывающее некоторые ранее объективно существовавшие свойства системы. Волновая функция, описывающая эволюцию квантовой системы, говорит не о том, что происходит с квантовым объектом до измерения, а скорее о том, что мы могли бы увидеть, если захотим посмотреть.

Волновая функция ставится в соответствие каждой частице и, таким образом, теоретически любому объекту и Вселенной в целом. Однако мы наблюдаем не вероятности, а конкретные объекты, обладающие конкретной траекторией, упругостью, температурой. Поэтому проблема измерения заключается в вопросах — как конкретно вероятности преобразуются в реальный, четко определённый классический результат? Каким образом можно установить соответствие между квантовой и классической реальностью?

Если предположить, что коллапс происходит в процессе декогеренции, то есть в момент измерения, когда квантовая система взаимодействует с классическим прибором и тоже приобретает классические черты, то тогда возникает вопрос: как и когда классические черты возникают у самого прибора и, собственно говоря, у всего наблюдаемого мира в целом? Дело в том, что никаких причин для коллапса волновой функции неизвестно. В квантовой механике нет ничего такого, что могло бы стать основанием для «сваливания» волновой функции в одно конкретное состояние наблюдаемого мира, частью которого мог бы быть прибор.

Причём эксперименты с запутанными частицами показывают, что коллапс волновой функции происходит мгновенно, сразу во всём пространстве. Запутанные частицы (такие, состояние которых связывает общая волновая функция, то есть находящиеся в когерентном состоянии), приобретают конкретное состояние одновременно, в момент измерения одной из частиц и независимо от расстояния между ними. В свою очередь, неспособность напрямую наблюдать коллапс волновой функции (ведь измерения всегда дают определённый результат) породила разные интерпретации квантовой механики, которые представляют из себя попытки объяснить проблему измерения.

В том числе, как часть проблемы измерения, из указанных особенностей квантовой механики следует вопрос о роли субъекта. Сама по себе волновая функция эволюционирует гладко (непрерывно и детерминировано) и взаимодействие с прибором, который тоже описывается волновой функцией, ничего в этом плавном течении нарушать не должно. Проблемы возникают, только когда появляется наблюдатель, так как именно он обнаруживает не волновые функции, а конкретный — «классический» — наблюдаемый мир и конкретные частицы.

Однако если без наблюдателя причин для коллапса волновой функции нет, то, возможно, что появление и классического мира, и конкретных частиц связано не просто с измерением, а именно с наблюдением субъектом. Конкретный результат возникает не в момент взаимодействия системы с прибором, а позже, в момент осознания результата субъектом. Правда, вопросы в этом случае встают уже в отношении субъекта, имеющего такие загадочные свойства. Как выразился по этому поводу Эйнштейн: «Неужели Луна существует только потому, что на нее смотрит мышь?»

Таким образом, непонятно, как, например, из «бесплотных» частиц может возникнуть «вещественный» мир, твёрдый и упругий. Но если посмотреть глубже, то появление самих частиц оказывается ещё много более парадоксальным. Потому что волновая функция кажется уже не просто объектом «бесплотным», но и совершенно невозможным с точки зрения какого бы то ни было физического воплощения. Потому что фактически из КМ следует, что до наблюдения вообще ничего нигде нет (ведь «вероятность обнаружить частицу, если провести измерение», очевидно, не может быть материей), но может появиться, если на мир посмотрит субъект.

Более того, волновая функция описывает вероятность событий, при этом все они сосуществуют одновременно — вспомним, каждая частица с некоторой вероятностью есть везде и во всех возможных состояниях сразу. Но это значит, что в мире, который описывает волновая функция, ничего происходить не может, ведь в этом мире и всё уже произошло, и всё ещё только произойдёт, так как все возможные варианты начала и конца такого мира тоже сосуществуют одновременно. И только субъект с его необычной ролью, которая, по сути, исключает его из квантовомеханического описания, наблюдает некоторое конкретное состояние мира и, таким образом, становится причиной эволюции этого мира, и даже самого его существования.

В то же время, как показано выше, все эти ширящиеся парадоксы могут иметь естественную и в каком-то смысле «обыденную» причину в математизации и растущей неадекватности теоретических моделей.

Заметим, сохраняя парадоксы квантовой механики, более фундаментальной и ещё более сложной и необычной может стать теория струн — самая известная из разрабатываемых сейчас теорий квантовой гравитации, помимо более глубокого описания микромира, призванная объединить описание природы на микро- и макромасштабе. Разные варианты этой теории содержат от 10 до 26 пространственных измерений, необходимых для описания колебаний ультрамикроскопических бесконечно тонких одномерных объектов — квантовых струн (и, как одномерных, объектов, очевидно, тоже абстрактных), которые воспроизводят все элементарные частицы и их взаимодействия.

Перспективы теории струн неясны — пока нет совершенно никакого представления о том, какой практически осуществимый эксперимент смог бы её подтвердить или опровергнуть. С другой стороны, если теория всего не имеет смысла, то любое знание, чтобы таковой иметь, должно подразумевать границы применимости — некоторый предел расширения на время и пространство, за которыми оно свой смысл теряет. Поэтому научная картина мира и должна состоять из отдельных теорий, дающих хорошие предсказания в своей области применения, которые при попытке свести их в одно целое, будут конфликтовать, требуя качественно нового, более фундаментального взгляда на мир. И хотя теория струн не является теорией всего в описанном смысле, тем не менее это движение в сторону таковой, которое естественным образом становится всё сложнее по всем направлениям и интеллектуального, и практического характера.

В итоге, действительно, чем больше мы знаем, тем меньше понимаем, «наглядность» теории нам всё больше заменяет её математический аппарат, «мир вещей» становится «миром идей», превращаясь в мир бесплотных математических структур, процесс познания становится всё более сложным и затратным, модели всё более необычными.

Теперь рассмотрим связь мира теорий с сознанием и ещё раз обратимся к проблеме измерения.

Если сознание — это материя мозга «изнутри», то, как кажется, вполне логично ожидать, что материя в своём описании на всё более фундаментальном уровне должна выглядеть всё больше и больше похожей сознание. Как минимум его общие свойства, каковыми являются континуальность и многомодальность. Потому что, как мы выяснили, элементарный уровень материи и сознание — это одно и то же, в свою очередь, «материя изнутри» — это и есть элементарный уровень материи, так как только теория всего ничего «внутреннего», скрытого, в материи уже не оставит. Таким образом, всё верно, в том или ином приближении континуальность и многомодальность сознания должны следовать из физических теорий, выводиться из них.

Однако, наоборот, оказывается, что мир теорий всё больше от свойств сознания отличается. Например, модели квантового уровня никак не приближают к пониманию сознания и даже скорее противоположны его свойствам, ни один элемент квантовой теории с сознанием не совместим.

Но если учесть сказанное ранее в этой главе, то ничего странного в этом нет. Континуальность и многомодальность сознания — это действительно свойства элементарного уровня материи, к описанию которого в конечном итоге познание стремится. Однако знание элементарного уровня материи не имеет смысла, это тот уровень, даже гипотезы в отношении которого всегда будут противоречивыми. В результате описание мозга или материи в целом на всё более глубоком уровне — это на самом деле приближение познания к итогу, который недостижим и не имеет смысла, в процессе чего мир, предсказываемый теорией, должен выглядеть всё более необычным — и по отношению к свойствам сознания, как свойствам элементарного уровня материи, прежде всего. В итоге на практике, наоборот, получается именно то, что мир теорий от свойств сознания всё больше отличается.

Как сказано выше, проявлением фундаментального направления познания на утрату смысла, вероятно, является и проблема измерения: парадоксальный коллапс волновой функции и переход от абстрактного квантового мира к классическому.

Скачкообразность и загадочность этого перехода, по-видимому, связана с растущей неадекватностью и математизацией моделей фундаментальных теорий. То есть в реальности происходит что-то ещё, но мы можем представить эту реальность только такой — или частицами, или волнами. В результате упуская некое «связующее звено», объединяющее эти модели в качественно иное целое. Что, возможно, объясняет проблему измерения, или, точнее, её неизбежное появление в том или ином виде в ходе познания и в конечном итоге неразрешимость.

В свою очередь, связь перехода с субъектом возникает по причине того, что именно по отношению к сознанию субъекта этот переход происходит. Фундаментальные физические теории по факту исключают субъекта — сознание — из описания, так как в принципе не способны описать элементарный уровень материи. Другими словами, мир фундаментальных физических теорий — это мир, где субъект невозможен, где его нет. И чем глубже заглядывают теории, тем тенденция на исключение субъекта усиливается. Но важность его включения в теорию, наоборот, растёт, потому что если в поверхностном описании многое можно упростить и не учитывать, то чем описание глубже, тем точность важнее.

В результате возникает ситуация, что пока в исследуемой системе «нет субъекта» её эволюция, может быть, странная, но никаких парадоксов не возникает — вспомним эволюцию волновой функции. Но в измерении субъект явным образом появляется — именно он наблюдает результат измерения — и парадоксы появляются тоже.

Именно в этот момент возникает необходимость «совместить несовместимое» — перевести принципиально вычислимый и не реальный математический мир теории в принципиально невычислимый и реальный мир сознания. Естественно, это возможно только скачком и естественно, что переход должен быть связан с наблюдением. Причём сам момент этого перехода должен быть неясен — может быть, он происходит в процессе взаимодействия системы и прибора, может быть, вследствие осознания. Ясность в этом отношении равносильна пониманию конкретных обстоятельств перехода, то есть возможности установить связь физической теории и сознания, реальности и знания, вывести одно из другого — но это невозможно, так как равносильно теории всего.

Действительно, всеми этими особенностями характеризуется коллапс волновой функции. Когда «из ничего» — абстрактной волновой функции, эволюция которой плавная и детерминированная, скачком возникает «что-то» — частица, как «начало» наблюдаемого и осязаемого мира, элемент менее абстрактного характера, чем волновая функция. При этом коллапс происходит «где-то и как-то» между моментом взаимодействием измеряемой системы и прибора и моментом осознания результата измерения субъектом.

В заключение заметим, приведённое в этой главе объяснение источника проблемы измерения можно считать ещё одной интерпретацией КМ. Например, «окончательной», так как в ней опровергается любая возможность объективного описания коллапса, физического решения проблемы измерения. Или «гносеологической», так как коллапс — это закономерное следствие познания, особенностей связи познаваемого мира и познающего субъекта. Поэтому тема интерпретации КМ выделена в отдельную статью, ссылка на которую находится в главе «Дополнительно».


8. Физика жизни

В этой главе скажем о физической стороне жизни, а также рассмотрим основные проблемы, возникающие в моделировании мозга. В том числе узнаем, есть ли какие-либо конкретные физические основания у сделанных в предыдущих главах выводов, и наконец ответим на вопрос первой главы — какое поведение принципиально недоступно ИИ, и как это отразится на его перспективах.


8.1. Физические основания жизни или Что не может искусственный интеллект

Прежде чем продолжить, заметим, что явления, которые лежат в основании жизни, могут показаться необычными и даже невозможными, тем не менее это реальные и достаточно хорошо известные физические процессы. Вначале скажем об этих явлениях самое общее, не особенно вдаваясь в подробности и пояснения и постепенно раскроем содержание сказанного.

С точки зрения физики клетка, мозг, организм в целом — это диссипативные структуры или диссипативные системы. Диссипативные системы — это открытые термодинамически неравновесные системы, которые, вследствие интенсивного обмена со средой веществом/энергией (поэтому они и «открытые»), находятся вдали от термодинамического равновесия. По этой причине в диссипативных системах возможно образование диссипативных структур. К диссипативным структурам можно отнести все структуры организма от клетки до синхронной активности нейронов, образующей ритмы мозга, поэтому организм в целом можно называть как диссипативной системой, так и диссипативной структурой. Надо сказать, эти термины изначально обозначали чрезвычайно простые по сравнению с организмом явления, поэтому в случае отнесения к ним жизни могут выглядеть неподходящими. Тем не менее общие принципы одинаковы, поэтому они применимы и к жизни.

Заметим также, термин диссипативные системы имеет и другое, очень широкое толкование, фактически обозначающее все системы, в которых часть энергии рассеивается — например, вследствие трения (трение приводит к тому, что часть энергии преобразуется в тепло и рассеивается в среде в виде беспорядочного теплового излучения), к каковым, по сути, относятся все реальные системы.

Как уже было сказано, особенностью «наших» диссипативных систем является их интенсивный обмен со средой энергией/веществом. Обмен со средой неупорядочен, поэтому реакции системы нелинейные, состояние высоко неравновесное, неустойчивое, чувствительное. В результате поведение хаотическое, то есть выглядит случайным, беспорядочным.

Однако ещё одной особенностью диссипативных систем является их способность к самоорганизации, упорядочению, когда возникает диссипативная структура. Есть разные типы самоорганизации. Например, кристаллизация — это тоже самоорганизация (фазовый переход первого рода), но диссипативная самоорганизация другая. Это спонтанное, то есть без какого-либо специфического «организующего» внешнего воздействия, появление в хаотической динамике элементов согласованности, наблюдаемой на масштабах всей системы.

Другими словами, диссипативная самоорганизация — это появление в хаосе (или «вместо хаоса») некоторой упорядоченной структуры, которая существует не потому, что её элементы жёстко связаны, как в том же кристалле, а потому что они согласованно движутся. Простой пример диссипативной самоорганизации ячейки Бенара, более сложный — класс химических реакций Белоусова — Жаботинского (см. рис. ниже). Последние имеют важнейшее значение для жизни — например, они отвечают за разметку формирующегося органа в ходе морфогенеза (подробнее о морфогенезе скажем позже).












а)                б)

Рис. 3. а) реакция Белоусова — Жаботинского, б) ячейки Бенара.

Самоорганизация — это очень необычное явление, так как мы привыкли, что среда всё только разрушает — например, то, что мы создаём. Однако откуда тогда берётся то, что мы создаём? Почему часы или автомобили не возникают сами, как возникли живые организмы? Потому что они очень сложные? Но мы ещё сложнее, много сложнее. Тогда как в природе возникает сложность, порядок? Ведь порядок, да ещё и сложный, с точки зрения теории вероятности является фактически абсолютно невероятным. Возможных неупорядоченных состояний материи просто-таки несравнимо больше, чем упорядоченных. Поэтому, как кажется, много более вероятно, что вещество, предоставленное само себе, всегда будет находиться в состоянии беспорядочном, чем в динамике молекул вдруг возникнет согласованность. Даже если островки порядка и будут где-то иногда возникать, то этот порядок будет простой, и это будут кратковременные, то есть именно случайные события, а не массовое и к тому же постоянно усложняющееся явление, к каковым можно отнести жизнь.

Ответом на эти вопросы является самоорганизация, её различные проявления. Например, создаваемые нами объекты порождены нашим мозгом, но сам мозг уже некому создавать, он создаётся и усложняется сам, среда только поставляет энергию/вещество.

Тем не менее, несмотря на необычность самоорганизации, её механизмы в целом понятны, их конкретная реализация в разных типах систем очень разнообразна и может быть как простой и легко объяснимой, так и очень сложной.

Диссипативные системы — неравновесные. Как и любое неравновесие (стоять на одной ноге, например) — это состояние неустойчивое, напряжённое, флуктуирующее, чувствительное, активное. Однако ещё одно свойство неравновесных систем — это свойство целостности, которое чрезвычайно важно для самоорганизации (а значит, и для жизни). Суть его в том, что система может реагировать как одно целое, например, самое ничтожное воздействие может привести к тому, что поведение сразу всей системы качественно изменится.

Такое перестроение, когда перестраивается сразу вся система, называется неравновесный фазовый переход. Простой аналог поведения системы как одного целого — сход снежной лавины или обрушение песчаной кучи при малейшем прикосновении. Говоря более точно, неравновесный фазовый переход происходит как переход через точку бифуркации. Бифуркация — это качественное изменение поведения нелинейной системы при бесконечно малом изменении её параметров.

Вспомним, мы уже об этом говорили, связь качественного изменения поведения с событиями сколь угодно малого характера — это чувствительность к начальным условиям. Более строго, чувствительность к начальным условиям — это когда близкие траектории в фазовом пространстве отдаляются друг от друга с экспоненциальной скоростью. Проще говоря, бесконечно малое изменение начальных условий приводит к сколь угодно большому расхождению поведения систем с течением времени. Поэтому, например, даже самая ничтожная разница в условиях или устройстве систем приводит к тому, что системы приобретают всё большую индивидуальность. Чувствительность к начальным условиям известна также как эффект бабочки, подразумевая, что слабые потоки воздуха от её крыльев, как переход через точку бифуркации, могут стать решающим фактором образования урагана где-то на другом конце Земли, вследствие их многократного усиления в атмосфере за какое-то время.

Однако ни одна теория не описывает материю на элементарном уровне — а именно этот уровень и есть «бесконечно малый». Следовательно, как конкретно происходит переход узнать нельзя в принципе. Например, сейчас наиболее фундаментальной теорий является квантовая механика, но в квантовой механике отсутствует экспоненциальная чувствительность к начальным условиям, то есть поведение системы в точке бифуркации выходит за границы применимости КМ.

Говоря другими словами, система в точке бифуркации не имеет пределов чувствительности, из-за чего предсказания поведения диссипативных систем отличаются принципиально высокой неопределённостью. Никакое осуществимое на практике измерение не может дать достаточной информации для сколько-нибудь точного предсказания состояния диссипативной системы в сколько-нибудь отдалённом будущем или прошлом. Диссипативной системой является любой организм, поэтому поведение всего живого тоже отличается активностью и высокой неопределённостью.

Песчаная куча или снежная лавина — это простой пример целостности и перехода через точку бифуркации. Разница с диссипативными системами в том, что сход лавины или обрушение песчаной кучи — это акт разрушения, а в диссипативных системах, наоборот, происходит в некотором смысле акт созидания — в динамике элементов системы появляется согласованность, возникает диссипативная структура. Тем не менее именно целостность позволяет диссипативной системе перестраиваться как одно целое, скачком — от беспорядочного поведения сразу к упорядоченному, без сколько-нибудь выраженных промежуточных этапов.

В свою очередь, способность поддерживать упорядоченное состояние, несмотря на обмен со средой, означает, что другой стороной диссипативной самоорганизации является гомеостаз. Гомеостаз — это саморегуляция, способность открытой системы сохранять постоянство своего внутреннего состояния посредством скоординированных реакций, направленных на поддержание динамического равновесия. Интенсивный обмен со средой, с одной стороны, возмущает систему и тем самым как будто стремится её разрушить, но с другой — он же даёт системе энергию на поддержание упорядоченного состояния.

Теперь, узнав самое общее, рассмотрим как конкретно происходит самоорганизация на примере одной из самых простых диссипативных систем — ячеек Бенара.

Ячейки Бенара — это возникновение упорядоченности в виде цилиндрических валов в интенсивно подогреваемой снизу жидкости. При  преодолении некоторого критического значения интенсивности нагрева плавная диффузия жидкости с разной температурой не успевает произойти. В результате в жидкости скачком возникают валы, вращающиеся навстречу друг другу (как сцепленные шестерёнки), которые переносят нагретую жидкость вверх и остывшую вниз.

Конкретно происходит следующее. Рост интенсивности обмена со средой ведёт к тому, что резко увеличивается скорость движения молекул воды, они перемещаются всё более беспорядочно. Их столкновения становятся всё более энергичными, то есть растёт количество и сила флуктуаций, развивающихся внутри системы аналогично обрушению кучи песка или сходу снежной лавины из примеров ранее. Одновременно флуктуации разрушают плавную конвекцию тепла снизу вверх, отвод тепла становится затруднён, как следствие, растёт неравновесное, напряжённое состояние системы, как будто всё сильнее сжимают пружину.

При этом во взаимодействии флуктуаций, то есть, по сути, конкуренции за возможность своего дальнейшего развития, какие-то направления движения молекул будут взаимно подавляться, какие-то, наоборот, взаимно усиливаться, достигая всё больших масштабов энергии. В результате в какой-то момент энергия резко высвободится, и вся система, как одно целое, скачком перейдёт через точку бифуркации, все элементы системы фактически одновременно и со всех сторон системы придут в упорядоченное движение по некоторым отобранным в масштабе всей системы глобальным направлениям.

В более общем смысле в ходе самоорганизации в системе сами собой выделяются степени свободы (куда можно двигаться, как изменяться), по которым энергия переносится с меньшим сопротивлением, тем самым поведение всех элементов системы упорядочивается в направлении этих степеней свободы.

Этот процесс и есть диссипативная, или неравновесная самоорганизация, неравновесный фазовый переход. Вся система, как одно целое, скачком переходит через точку бифуркации в качественно новое, упорядоченное состояние — хаотическое поведение элементов системы скачком упорядочивается, на масштабе всей системы возникает некоторая структура их согласованной активности — в сосуде с водой возникают ячейки Бенара. После чего уже все происходящие в системе флуктуации или работают на поддержание возникшего порядка, или подавляются массами согласованно движущихся элементов — одновременно с появлением порядка начинается гомеостаз.

Вот как описал самоорганизацию ячеек Бенара Илья Пригожин, бельгийский физик российского происхождения, лауреат Нобелевской премии по химии 1977 года с формулировкой «за работы по термодинамике необратимых процессов, особенно за теорию диссипативных структур»: «Однако пока величина градиента температуры не превышает некоторого критического его значения, эти флуктуации гасятся и исчезают. Напротив, когда величина градиента температуры превышает его критическое значение, амплитуда некоторых флуктуаций возрастает, что в конечном счете приводит к формированию макроскопического потока. В результате возникает новый надмолекулярный порядок, по существу представляющий собой гигантскую флуктуацию, стабилизируемую благодаря обмену энергией между системой и окружающей ее средой. Это и есть порядок, характеризуемый наличием в системе диссипативных структур.» (Время, структура и флуктуации. Нобелевская лекция по химии. И. Пригожин, 1977).

Как уже говорилось, гомеостаз — это саморегуляция, способность открытой системы сохранять постоянство своего внутреннего состояния посредством скоординированных реакций. Вся внутренняя, структурная и функциональная организация системы способствует сохранению баланса — в ячейках Бенара явно нет ничего выделенного, никаких уровней или структур, которые могли бы отвечать за гомеостаз, и тем не менее ячейки не разрушаются. Действительно, как можно видеть в описании самоорганизации, «скоординированные реакции» возникают сами собой, всего лишь как сочетание интенсивного обмена со средой и флуктуаций, никакая специальная структура, управляющая поддержанием гомеостаза, не нужна, поэтому чем сложнее диссипативная структура, тем сложнее гомеостаз.

Если интенсивность обмена со средой продолжает расти, то порядок в диссипативной системе может так же скачком усложняться, эволюционировать. Например, при дальнейшем увеличении интенсивности нагрева каждый вал ячеек Бенара в какой-то момент распадается на два вала меньшего размера, и в пределе возникает турбулентный хаос.

Теперь обратим внимание на три важных обстоятельства.

Во-первых, если поддержанием гомеостаза занимается вся диссипативная система как целое на всех уровнях организации, то всё поведение системы суть поддержание гомеостаза, ничем другим система не занимается. Поэтому, например, любое её усложнение — это не появление у неё неких новых функций, а усложнение одной — функции гомеостаза. Наш организм, как тоже диссипативная система, только очень сложная, тоже поддерживает гомеостаз как одно целое, он ниоткуда не управляется, всё наше поведение — это те же «скоординированные реакции» поддержания гомеостаза, мы в этом не отличаемся от ячеек Бенара. Например, мозг, как часть организма, управляет мышцами, а не гомеостазом. 

Во-вторых, флуктуации, которые так важны и для самоорганизации и далее для поддержания гомеостаза, фактически являются сигналами среды, посредством которых система постоянно «чувствует» среду, изменяясь непредсказуемо и поэтому как будто случайно, но на самом деле тонко учитывая окружающие условия в процессе эволюционных переходов или в ходе гомеостаза.

В-третьих, чтобы флуктуации были возможными, система должна представлять из себя «континуум», «объём» вещества, где они происходят, неравновесную среду. В ином случае это будет качественно более простая модель, так как той высочайшей взаимосвязи её поведения со средой добиться будет невозможно.

Ещё раз скажем, что жизнь намного более сложная диссипативная структура, чем ячейки Бенара. Процессы самоорганизации в организме носят сложный многоуровневый характер, проявляя себя в относительно более равновесных и стабильных структурах, задающих общую логику процессов (мембраны и органеллы клеток, молекулы ДНК, скелет, коннектом). И в менее равновесной динамике, определяющей частные параметры реакций — начиная от внутриклеточных процессов и формирования структур организма в ходе морфогенеза до синхронизации нервных импульсов нейронов. Также, в отличие от ячеек Бенара, самоорганизация биологических систем связана с химическими реакциями. Тем не менее это не меняет описанные ранее общие свойства организмов как диссипативных систем, но вносит в их поведение дополнительную сложность.

Как диссипативные структуры, мы, жизнь в целом, не просто среда — а порядок в среде или, точнее, упорядоченная динамика элементов среды, выделенная таким образом из её более беспорядочного окружения. Порядок не прямое продолжение среды, ведь он противостоит ей, сопротивляется разрушению — и в этом наша самостоятельность. Но он существует за счёт интенсивного обмена со средой — и в этом наша связь со средой.

Последнее означает, что стоит только интенсивность обмена со средой уменьшить, например, ограничить поступление кислорода — и мы исчезнем, необратимо устремимся к равновесию, распадаясь на отдельные молекулы и растворяясь в среде. Причём, подтверждая, что гомеостаз поддерживает вся система как одно целое, то есть на всех уровнях системы, то стоит исчезнуть этому «клею», и организм попросту «растает», разрушится полностью. Вначале разрушится мозг, так как его связь со средой наиболее интенсивная, затем остальной организм. Мы растворимся в среде — точно так же, как в воде без следа растворятся ячейки Бенара, стоит попытаться отгородить ячейку от остальной воды или уменьшить интенсивность её подогрева.

Например, при прочих равных, показателем интенсивности обмена диссипативной системы со средой является сложность её структуры. И действительно, мозг человека в пересчете на единицу массы потребляет в 16 раз больше энергии, чем мышечная ткань; составляя приблизительно 2% от массы тела, потребление кислорода центральной нервной системой составляет более 20% от общего потребления кислорода организмом и около 50% от всей глюкозы, вырабатываемой печенью и поступающей в кровь. В свою очередь, интенсивное взаимодействие со средой означает, что работа организма и особенно мозга в высшей степени зависит от среды, а не от какого-либо алгоритма, заранее предопределяющего поведение системы, а изучение этой работы поэтому в той же степени равносильно изучению среды.

Наверное, уже понятно, что гомеостаз — это то естественно-физическое основание, которое на уровне таких сложных диссипативных структур, как биологические системы, становится подмеченным нами «стремлением к самосохранению». Тем не менее рассмотрим это стремление подробнее, а также вспомним о другом стремлении всего живого — стремлении к размножению. Так ли они отличаются?

Элементарной жизнью является клетка. Согласно наиболее известной гипотезе появления жизни — гипотезе мира РНК, в начале жизни были ансамбли молекул рибонуклеиновых кислот, способные к самокопированию, и соединения солей жирных кислот, самоорганизующиеся в пузырьки — липосомы, которые могут проходить циклы роста и деления, восстанавливаться после повреждений и обладающие селективной проницаемостью для разных веществ. Считается, что около 4 млрд лет назад произошло объединение липосом как элементов, способных выполнять функцию клеточной мембраны, и РНК, как элементов, способных выполнять функцию хранения генетической информации и катализа химических реакций собственного синтеза. В результате возникает клетка и начинается жизнь. Далее в ходе эволюции возникает современная ДНК-РНК-белковая жизнь, где РНК сохранилась как посредник между ДНК, которая содержит информацию о структуре белков, и белками, из которых состоят клетки организма.

Из сказанного выше понятно, что самокопирование лежит в самом основании жизни. Но так как жизнь — это диссипативная структура, то другое основание жизни — гомеостаз, включающий деление (вспомним деление ячеек Бенара или липосом). В свою очередь, как активное поведение, направленное на сохранение системой постоянными своих основных параметров, гомеостаз фактически означает появление цели, к которой любая биологическая система активно стремится — цели самосохранения. Иными словами, гомеостаз является физическим основанием поведения всех биологических систем, как активного стремления всего живого к самосохранению. Появление нервной системы позволяет биологическим системам перемещаться в среде более сложным образом, чем без неё, но любая траектория этого перемещения всё равно лежит внутри задачи самосохранения. 

Самокопирование — это физическое основание размножения. Гомеостаз — физическое основание самосохранения. Таким образом, жизнь неразделимо сочетает в себе два эти стремления — к самосохранению и размножению. Эти стремления заключены во всей структуре биологических систем, по сути, они образуют жизнь. В то же время, как кажется, они выглядят разнонаправленными. Это не совсем так.

Если есть активность и есть цель, сама собой появляется тактика и стратегия, а если цели и среда обитания совпадают, возникает отбор наиболее приспособленных. В результате после объединения самоорганизации и самокопирования — самосохранения и размножения — и присущих размножению изменчивости и наследственности сам собой возникает механизм естественного отбора и начинается биологическая эволюция.

В процессе эволюции в объединении клеток возникают диссипативные системы нового уровня — колонии клеток, многоклеточные организмы, популяции организмов, социум, биосфера в целом. На масштабах таких макросистем размножение и смерть их элементов становится способом самосохранения этих макросистем, то есть способом их гомеостаза, противостояния среде, обновления и развития, посредством появления новых организмов и избавления от старых.

Поэтому размножение — это, как ни странно, не одно из стремлений, а фактически то же самое самосохранение. Размножение, стремление воспроизводить себя, как будто противоречащее задаче самосохранения, так как требует ресурсов и создаёт конкурентов в борьбе за них, на самом деле обобщает задачи отдельного организма с задачами макросистем, элементом которых он является, и жизни в целом. Например, часто встречается мнение, что любовь нерациональна. Действительно, её рациональность проявляется на уровне вида, социума, биосферы.

Теперь рассмотрим эволюцию и морфогенез.

Способность диссипативных систем перестраиваться скачком, как одно целое — от одного более простого упорядоченного состояния сразу к другому, более сложному упорядоченному состоянию — лежит в основании усложнения организмов в ходе биологической эволюции. Далее коротко скажем, как происходит морфогенез и как конкретно в нём участвует диссипативная самоорганизация. Но вначале приведём некоторые аргументы, говорящие о том, что она необходима.

Вспомним биологическую эволюцию. Случайные мутации ДНК, результатом которых становилось появление у животного какой-либо новой полезной функции, приводили к тому, что животное получало преимущество в естественном отборе. Однако проблема в том, что появление у организма любой новой функции должно быть связано с одновременным перестроением всех систем организма — кровеносной, нервной, мышечной — чтобы новое могло адекватно взаимодействовать со старым. И если бы за это перестроение отвечал только случай, то эволюции бы не произошло.

Если в ДНК зашифрован план организма, в соответствии с которым он формируется, то мутации ДНК — это, очевидно, отдельные случайные изменения этого плана. Однако в этом случае мутации должны приводить к таким же отдельным изменениям и в организме, а совсем не к взаимосвязанному перестроению всех его систем сразу. При этом вероятность появления в ДНК в одно и то же время необходимого количества строго подобранных случайных мутаций исчезающе мала, поэтому даже если бы они и могли произойти, то никак не с той частотой, которую требует эволюция.

Более того, жизнь вообще не смогла бы возникнуть, потому что «только случай» сделал бы невозможным не только эволюцию, но и само появление жизни. Ведь организм должен быть способен функционировать сразу, то есть он должен возникать сразу «живым», «целым», иначе, «возникая по частям», он будет разрушен средой — точно так же, как среда быстро разрушает любой мёртвый организм — и всё придётся начинать сначала.

Но что так упрощает задачу эволюции, позволяя ей обходиться без полного перебора? Почему в ходе эволюции происходит отбор, по сути, только наиболее эффективных из уже «функционирующих», «целых» организмов, а не отбор таковых из всех возможных сочетаний молекул? Как из всего бесконечного множества состояний материи природа выбирает сразу упорядоченное состояние биологических систем? Если это всё-таки происходит случайно, то почему не разрушается средой сразу, как ненадолго появляется и тут же тает знакомый образ в облаках, а существует миллиарды лет и при этом ещё усложняется?  Как получается, что движение мириадов молекул и протекание бесчисленного множества химических реакций происходит в организме согласованно, в едином порядке? Что их координирует? Если в ДНК всё же нет плана организма, то что им подсказывает, как конкретно нужно перестроиться, чтобы в ходе эволюции у организма могла появиться новая функция?

Всё эти вопросы говорят об одном: чтобы жизнь и эволюция стали возможными, помимо случая в природе должно было быть что-то ещё, какое-то явление, которое позволило бы первому организму возникнуть сразу целым, а также это должно быть такое явление, которое смогло бы связать отдельные случайные мутации ДНК с перестроением сразу всех систем организма. Причём, по-видимому, за всё это должно отвечать одно явление, так как и появление первого организма сразу как целого, и затем его целостное перестроение в ходе эволюции — это явно процессы одного порядка.

Как уже понятно, это явление — диссипативная самоорганизация. Её самые общие элементы уже были описаны выше на примере ячеек Бенара. Однако если с ячейкой Бенара ещё как-то можно сравнить отдельную клетку, то многоклеточный организм состоит из множества клеток. Увеличение интенсивности обмена со средой приводит к тому, что ячейки Бенара как будто «размножаются», делятся, как делятся клетки — из одной возникает две, из двух четыре. Но в пределе возникает турбулентный хаос. Поэтому в случае многоклеточного организма продолжать аналогию с ячейками Бенара на самом деле нельзя.

Во-первых, для многоклеточного организма нам как минимум нужны разные по функциям «ячейки». Во-вторых, структура их должна быть сложной — и простым увеличением интенсивности обмена со средой этого добиться невозможно, слишком интенсивный обмен разрушит организм точно так же, как он разрушает ячейки Бенара. Поэтому для построения многоклеточного организма на основе всё той же диссипативной самоорганизации природа придумала морфогенез. Далее коротко скажем, как происходит морфогенез, и где в нём диссипативная самоорганизация.

В пространстве зародыша многоклеточного организма формирующиеся клетки выделяют специфические вещества-морфогены. В диффузии этих веществ возникают упорядоченные градиенты их концентрации, которые, как разметка будущего органа, обратно влияют на формирующиеся клетки. В результате дифференцировка клеток происходит в соответствии с необходимым устройством органа, и так далее от общего к частному происходит морфогенез всего многоклеточного организма. Появление таких градиентов — это диссипативная самоорганизация, класс реакций Белоусова — Жаботинского (рис. 2, а), протекающих в неравновесной среде.

Таким образом, морфогенез представляет из себя один целостный процесс формирования всего организма, а не набор отдельных, в которых каждый орган формируется отдельно. Поэтому любое изменение в веществах-морфогенах, связанное с мутацией ДНК, плавно перетекает в изменение сразу всех органов и систем, в формировании которых они участвуют. Возникающая новизна в устройстве организма сама собой формируется уже встроенной в организм, а не является чем-то внешним. И далее уже отбор определяет пользу она несёт в нынешних условиях или вред. ДНК при этом не нужно содержать какой-либо план организма, достаточно лишь реагировать на вещества.

Механизм самоорганизации многоклеточного организма в 1952 году в статье «Химические основы морфогенеза» впервые описал известный английский математик Алан Тьюринг. Сформулированный им принцип гласил, что глобальный порядок может определяться локальным взаимодействием, поэтому чтобы получить структурную организацию всей системы, необязательно иметь план системы, а можно ограничиться исключительно заданием правил близкого взаимодействия образующих систему элементов.

Вследствие описанных физических особенностей биологических систем, жизнь есть как таковая, и она эволюционирует, как в целом более или менее последовательное усложнение организмов по некоторым выделенным направлениям, в которых меньше сопротивление среды или больше ресурсов, из-за чего отбор по этим направлениям наименее жёсткий. Биосфера усложняется и расширяется, захватывая новые ниши, образуя новые экосистемы и связи между ними.

В том числе можно говорить о «направленности» эволюции — и не только отдельных видов, но и биологической эволюции в целом. Потому что в ходе эволюции происходит не просто беспорядочное заполнение пространства неупорядоченными объектами и образование между ними случайных связей (что тоже будет усложнением, так как длина описания такого объекта увеличится, но в нём не будет направленности), а происходит всё более точное приспособление к условиям определённой функции — функции самосохранения. Как в отдельных видах и для конкретных условий, так и на масштабе всей биосферы, как единой системы, то есть помимо эволюции видов, происходит и эволюция фактически единого организма — биосферы. 

От всей биосферы вернёмся к организмам попроще и рассмотрим работу мозга как физической системы.

Организм — это диссипативная структура. Такой структурой является и каждая клетка, и весь многоклеточный организм в целом. Но в организмах с нервной системой появляется ещё один уровень диссипативной самоорганизации. Это нервная регуляция, то есть, собственно, мышление.

Сам по себе одиночный нейрон генерирует нервные импульсы хаотически, беспорядочно, а в объединении с другими нейронами импульсы сами собой упорядочиваются. Это явление синхронизации. Синхронизация хаотической активности нейронов в мозге тоже происходит посредством неравновесных фазовых переходов. В результате синхронизации образуются ритмы мозга, во взаимодействии которых на выходе нейронной сети формируется столь же упорядоченная активность нейронов, непосредственно активизирующих мышцы и железы, а также возможно усложнение этого порядка. Поэтому наше поведение тоже упорядочено, активность всех мышц всегда точно согласованна и может усложняться.

Синхронизация объясняет способность мозга проводить действия, вроде бы никак не связанные друг с другом — например, идти и говорить по телефону. Дело в том, что разные синхронизированные структуры нейронов можно наглядно представить как разные валы ячеек Бенара или относительно устойчивые области упорядоченной динамики, наблюдающиеся в турбулентном потоке. Которые как будто бы существуют независимо друг от друга и даже могут быть описаны через собственные аттракторы, но в то же время они являются следствием более общего процесса самоорганизации всей системы и постоянно взаимодействуют.

Неравновесным фазовым переходом является в том числе каждое переключение внимания, нейронный коррелят которого — селективная синхронизация ансамблей нейронов, связанных с воспринимаемым стимулом, на самой высокой частоте ритмов мозга — гамма-ритме, когда в сознании возникает новая мысль, образ.

Диссипативную самоорганизацию можно рассматривать как «сжимание» хаоса в упорядоченную макроструктуру, в которой чем меньше масштаб, тем больше сохраняется хаотичность. Как следствие, наличие в ритмической картине активности нейронов неизменной хаотической составляющей приводит к тому, что мы как будто постоянно «тестируем» среду — сюда посмотреть, тут попробовать, этим поинтересоваться. Следуя за флуктуациями фокуса внимания, поведение не точно направлено, а постоянно флуктуирует в общем направлении, где меньше сопротивление среды или больше ресурсов, то есть в направлении к лучшему качеству жизни, наиболее полному удовлетворению потребностей самосохранения и размножения.

Тем не менее это хаотичность в общем контексте порядка, поэтому она не полностью бессмысленная. Это флуктуация нашего опыта, целенаправленного движения туда, где меньше сопротивление среды или больше ресурсов, а не просто нечто действительно случайное, внешнее, по типу генератора случайных чисел. Можно сказать, что в некоторой степени эти флуктуации заданы опытом, упорядочены им. В результате постоянно выявляются новые пути, возможности, идеи. Они запоминаются, и, таким образом, со временем поведение становится всё более организованным, сложным, всё более точно целенаправленным.

Из сказанного про синхронизацию понятно, как в целом в мозге физически реализован индуктивный вывод, обобщение, появление нового знания, то есть когда внимание переключается от образа отдельных элементов к образу целого, от смысла слов к смыслу фразы, от данных к теории — как неравновесный фазовый переход.

Понятно и как происходит обучение. Новое, более сложное состояние сети, возникающее в ответ на обмен со средой, консолидируется в более равновесных и потому более стабильных элементах внутриклеточной структуры нейронов, то есть в долговременной памяти. Тем самым как будто возникает новая и более сложно организованная нейронная сеть, активность нейронов в которой изначально задана более  сложным образом. Так происходит обучение. В результате обучения поддержание нового более сложного состояния нейронной сети мозга не требует постоянного роста интенсивности обмена со средой, как это было бы необходимо, если бы речь шла об усложнении ячеек Бенара.

Однако ввиду принципиальной невычислимости перехода через точку бифуркации, его связи с флуктуациями, искусственные нейронные сети могут воспроизводить только некоторую общую логику неравновесного фазового перехода, а не действительную суть в её реальной сложности. Поэтому чувствительность, нелинейность, способность меняться у вычислительных систем качественно ниже. Тем более не приходится говорить о какой-либо целостности вычислительных систем, ввиду отсутствия в их работе какого-либо континуума и неравновесного состояния. Наконец бифуркации связаны с флуктуациями, а флуктуации в вычислительных системах — это только сбои в работе, поломки.

Также обратим внимание, что не имеющая границ чувствительность неравновесного фазового перехода и качественный характер последующего перестроения всей системы как одного целого — суть не просто способность мышления выделять самые слабые сигналы рецепторов или самую малую разницу во времени или степени их активизации, но и способность заметить мельчайшее противоречие в опыте, после чего качественно изменить поведение, следуя новым идеям.

Таким образом, мы выяснили, что и сама жизнь в целом, и мышление в частности на всех уровнях связаны с элементарным уровнем материи. Причём связь мышления наиболее сложная, так как самоорганизация активности нейронов имеет в основании ещё два уровня самоорганизации — уровень самоорганизации клеток и уровень самоорганизации многоклеточного организма как целого. В итоге абсолютная чувствительность мышления, выраженная в принципиальной способности замечать сколь угодно малые события, которую мы ранее вывели чисто логически, действительно находит подтверждение в реальных физических свойствах биологической нейронной сети.

Связь жизни с элементарным уровнем матери можно аргументировать ещё одним способом. Вкратце эти аргументы уже были приведены, рассмотрим их ещё раз.

Диссипативные структуры возникают через флуктуации и далее, оставаясь неравновесными структурами, тоже неразрывно с ними связаны. Флуктуации происходят в неравновесной среде. Но среда не алгоритм, алгоритмом её в принципе не выразить, так как никакой алгоритм не может описать среду — природу, материю, реальность — такой, как она есть на самом деле. Вспомним, это равносильно бессмысленной теории всего. В алгоритме можно выразить только некоторый «внешний» уровень среды, то есть максимум то, что нам о среде известно. Поэтому поведение диссипативных структур всегда будет качественно сложнее любого алгоритма. Алгоритм — это простой итог работы много более сложной системы, которая сама уже не алгоритм.

Теперь обобщим сказанное и ответим на вопросы первой главы. Вспомним, в начале первой главы мы утверждали, что искусственный интеллект никогда не выразит «способность мозга воспринимать мир и преобразовывать воспринятое в действия, или, проще говоря, ставить и решать задачи … В статье мы не только ответим на вопрос, почему не выразит, но и что, собственно, это означает, какие задачи недоступны искусственному интеллекту, в чём его поведение будет проще.»

Так какие же задачи останутся навсегда недоступны ИИ и почему?

Для ответа вспомним, к каким выводам мы пришли в этой главе ранее. Всё поведение диссипативных структур, в том числе всё наше поведение, — это гомеостаз, то есть стремление к самосохранению. Это та общая для любой жизни стратегия, общая суть поведения, его основание, которое задаёт направление всем частным реакциям, объединяет любую активность в этом единственном направлении. Это то, что объединяет всех людей и вообще всё живое, что помогает нам понимать друг друга, находить общий язык даже без слов.

И эта стратегия неразрывно связана с элементарным уровнем материи. Но для алгоритмов этот уровень сложности недостижим. Таким образом, ИИ всегда останется на уровне наших частных реакций, частных элементов нашего опыта, но никогда не станет ни к чему стремиться, так как в природе есть только одно стремление — реальное, физическое — это стремление к самосохранению, гомеостаз. Гомеостаз, стремление жить — это и есть суть жизни, её основание, без которого ничего не имеет смысла, нет самого смысла. Если нет стремления жить, то нет побед и нет поражений, нет верного и неверного, красивого и отвратительного, грусти, радости, хорошего, плохого. Нет ничего, нет жизни. ИИ всё всё равно. ИИ машина, но это не жизнь. Действительно, вспомним, мы ранее уже пришли к выводу, что ИИ не может иметь сознание — и сейчас эти выводы подтверждаются с физической стороны тоже.

Известный советский физик Я. И. Френкель различие живой и неживой природы сформулировал следующим образом: «Нормальное состояние всякой мертвой системы есть состояние устойчивого равновесия, в то время как нормальное состояние всякой живой системы, с какой бы точки зрения она не рассматривалась (механической или химической), есть состояние неустойчивого равновесия, в поддержании которого и заключается жизнь». Открытость среде, нахождение в неустойчивом, критическом состоянии и потому как будто ненадёжность и случайность, но на самом деле чувствительность, активность, сложность и упорядоченность, являются фундаментальными свойствами жизни.

Самоорганизация, гомеостаз, неравновесные фазовые переходы — это физическое основание, на котором потом возникает то, что начинается с био- или нейро-. Поэтому поведение биологических систем всегда целостно, едино, подчинено общему смыслу гомеостаза. Это одна бесконечная реакция, никогда не прекращающаяся активность, в которой мы выделяем отдельные элементы. Поток, который наполняют возникающие в ходе эволюции организмы и их личный опыт, этот поток никогда не останавливается и не меняет направления, подчиняя себе всё новое.


8.2. Моделирование мозга и самостоятельная эволюция искусственного интеллекта

Но так ли это важно? Что следует из того, что у ИИ не будет стремления к самосохранению, не будет чувств, сознания? Прежде чем ответить на этот вопрос, уточним некоторые сделанные ранее выводы и рассмотрим основные проблемы, возникающие в моделировании мозга. 

Как мы выяснили, мозг — это только «внешне» нейронная сеть, но на самом деле — это диссипативная система, имеющая нейросетевую организацию. По причине связи с элементарным уровнем материи, точность представления о работе мозга значительно ограничена, причём сложная нейросетевая составляющая ограничивает это представление ещё больше. Поэтому если из «внешней» нейросетевой организации мозга что-то перенести в искусственные системы можно, то его внутренняя «диссипативная сторона» всё равно не позволит воспроизвести работу мозга во всей сложности. В свою очередь, к чему приведёт попытка заменить «качество» сложности мозга «количеством» искусственной нейронной сети, говорилось во второй и третьей главе.

Выражением ограниченного представления о физических механизмах работы мозга является проблема нейронного кода — вопрос того, как мозг кодирует информацию. Например, фундаментальным элементом этого кода все современные модели рассматривают спайк нейрона (потенциал действия, нервный импульс). Предполагается, что информация содержится в количестве спайков за конкретное время (частотный код) или в их точном положении во времени (временной код). При этом сами спайки рассматриваются как идентичные дискретные события. Однако реальные спайки являются континуальными колебательными процессами и отличаются периодом, амплитудой и формой фазового портрета, индивидуальными у каждого нейрона. Для описания возбуждения нейронов широко применяются статистические методы, методы теории вероятностей и стохастических процессов. Но все эти теории всё равно являются вариациями модели дискретного спайкового нейрона. Поэтому они в лучшем случае охватывают только часть наблюдаемых явлений и не могут объяснить другие, и в целом не соответствуют фактической эффективности мозга.

Как кажется, очевидным решением проблемы будет более точная модель нейрона. Однако даже на нынешнем уровне детализации нейронные сети из биологически правдоподобных нейронов требуют огромных вычислительных ресурсов и суперкомпьютеров уже на уровне десятков тысяч нейронов. Причём, естественно, не все свойства нейронов в той степени понятны, чтобы их можно было перенести в модель.

И наконец точность моделей ограничивает причина более общая и уже неразрешимая. Её частью является описанная выше «проблема дискретного спайка», а значение этой причины растёт тем стремительнее, чем точнее становятся модели.

Чтобы ответ был более наглядным, зададимся вопросом — почему вообще возникла идея, что искусственная нейронная сеть — это некий искусственный аналог интеллекта? Например, вряд ли кто-то подумает, что программа может выполнять функции желудка, печени или лёгких. Очевидно, что программа сама по себе не переварит пищу, не очистит кровь и не насытит её кислородом, максимум она может только лишь управлять устройствами, которые будут моделировать эти функции (вспомним, программа — это алгоритм, а алгоритм — это инструкция). Почему же мы полагаем, что она может мыслить? Потому что считаем, что мозг — это именно некая управляющая система, поэтому важно не то, как эти команды конкретно реализованы «в материале», то есть как конкретно они передаются или как конкретно мозг их вырабатывает, а важна только их абстрактная суть, логика.

Проще говоря, кажется, что можно отделить от материи мозга функцию мышления, и затем реализовать её любыми удобными способами и на других носителях аналогично тому, как по-разному можно реализовать, например, отсчёт времени — часы могут быть солнечные, водяные, песочные, механические, кварцевые, электронные, атомные, наручные и башенные, большие и маленькие.

Однако из аргументов других глав, нашедших сейчас подтверждение в физических особенностях биологических систем, следует, что в мышлении важно всё, вплоть до элементарного уровня материи. Поэтому, чтобы воспроизвести функцию мышления, необходимо воспроизвести весь мозг в точности, что невозможно. Иными словами, непосредственная связь «функции мышления» с элементарным уровнем материи фактически говорит о том, что эта функция не существует. Одним из её наглядных проявлений является описанный выше, как оказывается, совсем не дискретный, то есть «не абстрактный», нервный импульс.

Принципиальное несуществование функции мышления — это, по-другому, принципиальная индивидуальность любого мозга, любой личности. Вспомним, чувствительность к начальным условиям означает, что даже похожие системы со временем приобретают всё большую индивидуальность. Но нет в точности одинаковых условий, а мозг — это именно чувствительная к начальным условиям система, поэтому любую разницу условий мозг обязательно «заметит». Например, монозиготные близнецы имеют идентичный генотип, в том числе развиваясь в одной утробе в одинаковых условиях, очень похожи визуально, но не до отпечатков пальцев, также различается их опыт и даже характер. В свою очередь, чем более индивидуально поведение системы, тем менее оно выводимо из чего-либо, что может быть применимо к другому, известно всем. И так как поведение в данном случае принципиально индивидуальное, то оно и в принципе невыводимое, не может существовать таких теорий и законов, которые помогли бы его предсказать.

Причём на практике проблемы в исследовании таких систем, как мозг, организм, клетка возникают задолго до приближения к элементарному уровню материи. Вспомним первую главу: понять себя и понять всё — это одно и то же, поэтому приближение познания к элементарному уровню материи — это не приближение к черте, за которую не переступить. Предела познания нигде нет, но оно становится всё сложнее.

В случае мозга и в целом любых диссипативных систем трудности связаны с тем, что наблюдать, с одной стороны, требуется максимально пристально, так как на поведение диссипативной системы может критически повлиять событие самого ничтожного характера, с другой — ввиду того, что система ведёт интенсивный обмен со средой как одно целое, и именно этот обмен её как целое стабилизирует, то нарушение целостности, попытка разобрать систему на детали, «вскрыть» её, приведёт к нарушению обмена, и вся система полностью разрушится, попросту «растает», информация об её устройстве будет утрачена. И наконец по причине чувствительности неравновесных систем, интенсивное воздействие с целью наблюдения внутренних процессов минимум изменит их естественный ход, а максимум опять же систему разрушит — и опять задолго до необходимой глубины наблюдения. 

Далее рассмотрим значение индивидуальности и неповторимости каждого мозга.

Вспомним, что все нейроны разные. Причина этого в том, что диссипативной системой, является не только каждый отдельный нейрон, но и вся нейронная сеть как целое. Поэтому индивидуализация биологической нейронной сети связана не только с обучением и изменением весов связей нейронов, но и с трансформацией самой структуры нейронной сети мозга.

Конкретная среда обитания животного не только обучает нейронную сеть посредством изменения весов связей нейронов, определяя появление личного опыта, но и меняет саму нейронную сеть как целое, приспосабливая каждый нейрон к своему «месту» в сети в широких пределах. Что также означает появление нового опыта, обучение. Только опыта наиболее общего характера, потому что если вся нейронная сеть — это опыт, то наиболее общие параметры сети — это наиболее общий опыт.

Свойство мозга перестраиваться называется нейропластичностью, и в целом оно связано с морфогенезом. Как и генерация нейроном спайка, морфогенез тоже имеет в основании неравновесные состояния, флуктуации и бифуркации. Если на уровне нейрона способность перестраиваться заключается в возможности оперативно менять частоту генерации спайков, то на уровне всей сети это перестроение нейронов более общего характера, включая сам их рост и оптимизацию их связей, что также влияет на спайки.

Ранее было сказано, что в искусственных нейронных сетях широко применяются статистические методы, методы теории вероятностей и стохастических процессов. Дело в том, что поведение человека и вообще работу любой нейронной сети тоже можно связать со статистикой (а значит, вероятностями и случайными событиями), так как чем чаще ситуация повторяется, тем лучше она запоминается, приобретая больший вес в поведении.

Вероятностные алгоритмы применяются в обучении искусственных сетей. Например, это популярный метод отжига — техника оптимизации, использующая упорядоченный случайный поиск (то есть некоторые параметры алгоритма выбираются случайным образом) на основе аналогии с процессом образования в веществе кристаллической структуры, в том числе при отжиге металлов. Метод отжига позволяет найти более или менее оптимальное состояние сети в процессе обучения без перебора всех возможных состояний, которых может быть очень много. Это эвристический алгоритм, он не гарантирует самый оптимальный результат, но в некоторых случаях позволяет его улучшить, по сравнению с другими методами, и в целом применяется в тех задачах, где сложно произвести полный перебор и найти точное решение.

Но представим статистическую модель человека. Поведение этого человека будет не логически адекватным, а статистически, то есть отражать не реальность, а некую обобщённую статистическую модель реальности. Если эта модель простая, то такой человек будет здороваться не потому, что кого-то встретил, а потому что по статистике он должен поздороваться некоторое количество раз за некоторый промежуток времени. И наоборот, чем полнее статистика, тем логически точнее будет поведение.

Последнее, например, заметно в чат-ботах. Нейронную сеть обучают на множестве текстов. В результате чат-бот начинает различать контекст вопроса, в соответствии с которым, достраивает вопрос словами (токенами) ответа. Или, иначе говоря, достраивает вопрос теми словами из обучающих текстов, которые наиболее часто встречались в контексте слов вопроса, то есть словами наиболее вероятными. Каждое новое слово ответа меняет общий контекст слов, теперь уже состоящий из слов вопроса и предыдущих слов ответа, в этом новом контексте подходит уже другое слово и так далее, пока наиболее вероятным продолжением не будет окончание ответа. 

Однако за счёт высочайшей чувствительности, недостижимой ни в каких вычислительных системах, и пластичности, как способности перестраиваться, целостно меняя работу в ответ на мельчайшие изменения условий, в мозге эта статистика учитывает среду качественно полнее и точнее и становится уже действительно логикой. Поэтому логически адекватной реальному человеку модель человека станет только тогда, когда её сложность будет равна оригиналу. Пока этого не произойдёт, будут оставаться такие же проблемы адекватности, которые были описаны на примере чат-ботов во второй главе. Относительно обучающих примеров поведение системы будет статистически верным, но относительно реального мира логически неадекватным. И вспомним, в той же главе мы тоже пришли к выводу, что с целью повышения адекватности ответов искусственного интеллекта надо увеличивать сложность систем, опять же приближая их к сложности человека.

Теперь вспомним, что в мозге все нейроны разные. В искусственных сетях — одинаковые. Кажется, зачем даже пытаться повторять мозг в этом его разнообразии? Как ранее говорилось, в биологических системах на всех уровнях есть хаотическая, случайная составляющая, и за это разнообразие наверняка отвечает именно она. Зачем её воспроизводить? Однако, как говорилось в первой и этой главе, хаотичность в биологических системах неотделима от порядка, потому что и сам порядок, и его флуктуации есть следствие интенсивного обмена системы со средой, неравновесного состояния и чувствительности. Иными словами, индивидуальность мозга — это не беспорядок, а следствие глубочайшей «встроенности» мозга в среду. В результате которой, с одной стороны, мозг является элементом гомеостаза всего организма как одного целого, с другой — мозг становится координатором, ведущим остальной организм к выделенной им цели, управляя мышцами и железами.

Поэтому искусственный нейрон как обобщения всего множества реальных нейронов — это как обобщённый кирпич для строительства дома, который столь сложен, что все кирпичи в нём индивидуальные. Дом из обобщённых кирпичей будет настолько же проще, насколько они подверглись упрощению.

Причём в нашем случае проблема ещё и в том, чем ближе мы подбираемся к строительству такого сложного «дома» — искусственного интеллекта, сравнимого по сложности с человеческим — тем больше будет требоваться превращение вычислительной системы в живой развивающийся организм, в диссипативную систему. Но свойства диссипативных систем противоположны свойствам систем вычислительных. Флуктуации — это сбой в работе у одних, и связь со средой у других; неравновесное состояние — это нестабильность работы у одних, и основа порядка у других. Одни системы среда только разрушает, другие создаёт и стабилизирует; одни системы надо собрать, а потом включить, другие возникают сразу работающими и прямо работающими растут; одни следует выключить и изолировать от среды, если надо, чтобы они подольше сохранились, другие нельзя выключить и не стоит изолировать.

В результате если в моделях тех процессов, которые протекают близко к равновесию, достаточно выразить только некоторую внешнюю суть происходящего, ввиду того, что процессы на более глубоком уровне материи всё равно не оказывают на течение явления никакого значимого влияния, то адекватная модель мышления должна обладать точностью элементарного уровня материи, так как мышление способно на абсолютную чувствительность. Но это уже само по себе означает, что обобщённые нейроны для создания адекватной модели мышления не имеют смысла, потому что обобщение — это упрощение, но необходимость отразить в модели элементарный уровень материи уже говорит о том, что никакое упрощение недопустимо.

В итоге необходимая для воспроизведения сложности мышления точность моделей не только недостижима на практике, но и невозможна в принципе. Задача превращения алгоритма в не алгоритм — это задача превращения знания в не знание, так как за пределами алгоритмов находятся явления, которые описанию недоступны, а значит, они недоступны и познанию. Но вычислительная система, работающая на недоступных познанию принципах — это не имеющее смысла сочетание слов.

Другой стороной проблемы нейронного кода можно назвать проблему связывания: каким образом мозг интегрирует информацию в разнообразное и связанное целое? Проблему связывания можно понимать более узко — как поиск более или менее общих нервных коррелятов такой связи. Как отличается и как связана нервная активность, кодирующая разные элементы образа? Например, оттенки синего, когда мы смотрим на небо? И более широко, в этом случае проблема связывания — это вопрос о том, как конкретно связаны нервная активность и многомодальный мир сознания. Как конкретно активность нейронов становится цветами радуги, светом, темнотой, запахами, звуками и эмоциями. Учитывая аргументы предыдущих глав, понятно, что в последнем варианте реальная сложность проблемы связывания видна лучше.

Тем не менее некоторые совпадения общих особенностях нейронных сетей и общих свойствах сознания обнаружить несложно. Проблемы возникают только в уточнении того, как конкретно всё это связано. Например, точно так же относительно несложно разглядеть в мозге сеть нейронов и понять некоторые общие принципы её работы, проблемы возникают только в их уточнении.

Как известно, от слоя к слою нейронной сети уровень абстрагирования растёт. Почему последовательность именно такая, говорилось во второй главе. Например, в мозге рост уровня абстракции можно связать с переходом от эмоций к конкретным образам. Если не вдаваться в подробности, то утверждение про рост уровня абстракций применимо ко всем нейронным сетям, искусственным в том числе, так как само по себе оно не означает наличие в сети каких-либо реальных абстракций. «Абстрагирование» в данном случае — это всего лишь обозначение способности всех нейронных сетей к распознаванию, то есть выделению в сигналах рецепторов неких зависимостей, суть которых — признаки условий. Чем сложнее сеть, чем больше в ней слоёв нейронов, тем более сложные, скрытые признаки она сможет выявить. Например, чтобы отличать кошек от собак, нужно выделить признаки кошек и собак, алгоритм на это вполне способен и даже не обязательно он должен быть нейронной сетью, но так как такие алгоритмы сложны, то проще не писать его напрямую, а воспользоваться алгоритмами обучающимися.

Но у биологических нейронных сетей есть и такие сопоставимые с особенностями сознания особенности, которых нет в искусственных нейронных сетях.

Например, синхронизация нейронов — это появление порядка в активности нейронов. В свою очередь, «порядок», как нечто «обобщающее» отдельные элементы в некое «над-элементное целое», абстрактен и континуален. При этом гамма-ритм и особенно отвечающая за внимание селективная синхронизация на этой частоте — это наиболее энергичная и упорядоченная активность нейронов в мозге. Внимание тоже наиболее «яркая» часть сознания. Во время концентрации внимания повышается скорость обработки информации, уменьшается время реакции, повышается уровень точности, чувствительности к небольшим изменениям в стимуле и восприятие контраста — всё это тоже можно связать с селективной синхронизацией. В итоге практически все общие свойства сознания находят отражение в общих особенностях работы нейронной сети мозга.

Наоборот, вычислительный процесс противоположен всем этим свойствам сознания, так как вычислительный процесс — это всего лишь некоторая последовательность отдельных операций, а не упорядоченный континуум чего-либо, к тому же обладающий свойством целостности. Основанием целостности является неравновесное состояние системы, когда система реагирует как одно целое, но в вычислительных системах неравновесность может возникать только в микроскопических и локальных процессах, не меняющих общую картину равновесного состояния вычислительной системы.

Таким образом, абстрактности, континуальности, яркости и упорядоченности сознания некоторое общее объяснение есть. Как понятно, связи с элементарным уровнем материи объяснение есть тоже. Более сложное объяснение есть и другим особенностям сознания, не упомянутым в этой статье — отсутствию сознания в фазе глубокого сна или временной «протяжённости» сознания, которое даёт ощущение своего «движения» во времени из прошлого в будущее (подробнее в статье «Самоорганизация в организме и мозге», ссылка на которую находится в главе «Дополнительно»). Тем не менее, вспомним, в принципе невозможно дать какое-либо объяснение модальности сознания, квалиа.

В итоге по общим признакам сознанию что-то в работе мозга сопоставить можно, но ответить на вопрос, какова эта связь конкретно, нельзя, так как это потребует описания элементарного уровня материи. Проблемы связывания и нейронного кода, по-видимому, столь же нерешаемые, как непознаваемой является физическая сущность сознания.

В описанных физических особенностях биологических систем как систем диссипативных можно заметить другие указания на ограничение сложности искусственного интеллекта, которые мы не приводили ранее.

Диссипативные системы — это открытые системы, ведущие интенсивный обмен со средой, поэтому если в эволюции животных максимально участвует среда во всей своей сложности, то в эволюции искусственных систем максимально участвует человек, тем самым ограничивая эволюцию искусственных систем своими знаниями, сложность которых, как показано в статье, не может быть сколько-нибудь равна сложности среды. Похожий аргумент: создание искусственного интеллекта равносильно повторению человеком эволюции как минимум нервной системы, при том, что человек много проще биосферы, включающей самого человека, в которой эта эволюция проходила.   

В том числе принципиальное отличие вычислительных систем от систем биологических говорит о том, что ограничена и самостоятельная эволюция искусственных систем. Вне интенсивного обмена со средой вычислительные системы не могут качественно перестраиваться не только в ходе «мышления», но и в эволюционном смысле появления новых более сложных искусственных систем вместо более простых старых (например, в результате работы генетических алгоритмов). Возможность самостоятельного развития или обучения вычислительных систем ограничена по сравнению с биологическими системами в той же степени, насколько вычислительные системы проще — а эта разница носит качественный характер. Что опять возвращает нас к аргументам о границах сложности искусственных систем, которые, таким образом, всегда эволюционируют «внутри» интеллекта человека и не смогут выйти за эти пределы.

Ограничение самостоятельного развития искусственного интеллекта — это именно та причина, которая не позволит ИИ стать чем-то большим, чем просто помощником человека по типу других создаваемым человеком систем. Поэтому этот вывод следует обосновать подробнее, так как существует мнение, что даже если сильный искусственный интеллект нельзя как-либо создать самому человеку, то, вероятно, он сможет неким образом развиться сам из некого более простого написанного человеком алгоритма.

Начнём с наводящего вопроса. Как человек отличает верное решение от неверного, адекватное поведение от неадекватного? Должен быть какой-то критерий, который позволит это сделать. Потому что без критерия, обучение быстро пойдёт вразнос, хаотично, по всем мыслимым направлениям, и поведение скатится к бессмысленному, так как всех возможных поведенческих реакций неисчислимо больше, чем тех, которые позволят животному не погибнуть и размножаться.

Упростим вопрос. Откуда ячейки Бенара знают, как им нужно реагировать на окружающие их беспорядочные потоки кипящей воды, чтобы не разрушиться?

В случае ячеек Бенара дать ответ, вероятно, не составило большого труда, так как причины гомеостаза уже были в этой главе описаны. Однако функционирование биологических систем происходит по тем же общим принципам, поэтому общие свойства ячеек Бенара проявляются и на уровне биологических систем. Сформулируем эти свойства ещё раз и посмотрим, какие ограничения на самостоятельную эволюцию алгоритмов из них следуют. 

Диссипативная система перестраивается в такое состояние, которое позволяет выводить поступающую в систему энергию быстрее, компенсируя, таким образом, рост интенсивности обмена. Перестроение происходит естественным образом, как движение к равновесию, а не достигается равновесие и покой только по той причине, что интенсивный обмен системы со средой продолжается. Иными словами, упорядоченное состояние всего лишь является энергетически более выгодным.

Это означает, что поведение диссипативной системы уже само собой, на физическом уровне, формируется адекватным среде. Например, перестраиваясь от хаоса к порядку и потом разделяясь на всё большее количество валов, можно сказать, что система ячейк Бенара эволюционирует, обучается — у неё сразу, единовременно, без каких-либо предварительных чертежей и расчётов, возникает новое более сложное поведение. Которое, с одной стороны, позволяет противостоять среде в новых условиях более интенсивного взаимодействия с ней, с другой — можно сказать, что система освоила новую природную нишу, потому что «поняла», как надо вести себя в новых условиях.

Например, можно сказать, что после усложнения у диссипативной системы появляются некие новые функции, которые позволяют ей проводить более сложное поведение. Но, если посмотреть внимательнее, окажется, что любое усложнение структуры диссипативной системы — это всегда усложнение непосредственно самого гомеостаза, а не нечто к нему добавленное, потому что кроме гомеостаза никаких других функций у диссипативных систем не бывает, и появиться им попросту неоткуда. Усложнение гомеостаза происходит естественным образом, вследствие интенсивного обмена системы со средой и её стремления системы к равновесию, а не вносится извне. 

Поэтому даже если усложнить диссипативную систему до уровня организма с развитым мозгом, то в этом описании ничего не изменится, за исключением того, что гомеостаз теперь будет выражаться в том числе и в перемещении в среде — в направлении где меньше сопротивление среды или больше ресурсов, а скачкообразные неравновесные фазовые переходы на уровне мозга станут сменой «всегда целых» мыслей. 

Именно этот механизм позволяет нашим знаниям всегда оставаться адекватными природе. Ячейки Бенара флуктуируют, то отклоняясь от равновесия, то приближаясь к нему, и могут усложняться. Точно так же флуктуируют наши представления о мире, то отражая природу более адекватно, то менее, и при этом становятся сложнее. Но в целом этот процесс всегда стабилизируется стремлением системы к равновесию, которое на уровне человека становится стремлением к лучшему качеству жизни. И всегда нас выводит из равновесия интенсивный обмен со средой, который нам, с одной стороны, необходим, но с другой — не даёт достичь нам разрушительного для нас покоя. Единство и борьба противоположностей. В итоге в ходе познания наиболее адекватные направления сами собой выделяются, не адекватные сами собой подавляются, и постоянно происходит поиск новых.

Образно говоря, равновесие и покой можно обозначить как идеальную цель диссипативной системы, к которой она всегда стремится. Но диссипативная система может существовать только в интенсивном обмене со средой, а этот обмен означает постоянную неустойчивость, флуктуации и отсутствие состояния, в котором система как организованное целое есть, но её «ничего не тревожит». Поэтому через неустойчивость и флуктуации система как будто постоянно пробует новые пути к равновесию и покою, но каждый из них оказывается всего лишь новым витком бесконечного движения к тому, чего нет. Любую часть этого движения можно обозначить как решение системой некоторой частной задачи или достижение некоторой частной цели на пути к несуществующему идеалу, после чего система стремится к новой цели и так бесконечно. 

Например, как уже говорилось, каждое переключение внимания — это переход через точку бифуркации, смена ансамблей нейронов, селективно синхронизированных на самой высокой частоте ритмов мозга (гамма-ритме). Селективная синхронизация — это наиболее упорядоченный процесс в мозге, поэтому, как аттрактор, он притягивает к себе фазовые траектории других нейронов мозга, задавая нынешнюю конкретную цель поведения. В свою очередь, так как неравновесные фазовые переходы носят скачкообразный характер — от одного упорядоченного состояния к другому, то поведение всегда имеет смысл — тот или иной, а не неопределённый.

В итоге точно так же, как не перебирают реакции ячейки Бенара, эволюции тоже не нужно перебирать все возможные сочетания молекул в поисках похожего на жизнь сочетания. Естественный отбор работает сразу на уровне уже так или иначе «готовых», «функционирующих» систем, из которых остаётся отобрать те, которые в силу каких-либо особенностей самосохраняются лучше остальных. В каждой природной нише это могут быть свои организмы, свои поведенческие особенности.

Точно так же не перебирает все возможные цели и пути к ним мозг, а последовательно упорядоченными реакциями перемещает организм туда, где больше градиент концентрации ресурсов или меньше сопротивление среды. Этот путь в итоге может оказаться более удачным или менее, но он никогда не бывает только случайным, потому что всегда является неразделимым сочетанием упорядоченности и целенаправленности с хаотическим «тестированием» всех возможных путей в поиске лучшего.

Таким образом, диссипативная самоорганизация, как перестроение, направленное на повышение эффективности обмена со средой, и гомеостаз, как поведение, направленное на поддержание обмена эффективным, на всех уровнях жизни сами собой формируют и оптимизируют поведение биологических систем.

Здесь же лежит самый общий критерий адекватности знания. Он в том, способствует ли знание поддержанию гомеостаза или нет, то есть в целом способствует ли нечто повышению качества жизни или нет. Например, наука способствует, поэтому мы доверяем научному сообществу или научным теориям, даже если их не понимаем.

В том числе, стратегия гомеостаза становится стратегией адекватного поведения. Например, для сохранения упорядоченного состояния диссипативной системе нужна энергия, но её приток неупорядоченный, заставляя систему постоянно флуктуировать около уровня динамического равновесия, когда она то отклоняется от равновесия больше, то опять к нему приближается. Поэтому стратегией гомеостаза можно назвать принцип: уступать среде в малом — в частных элементах структуры, ради решения основной задачи — сохранения структуры в целом. Чем сложнее диссипативная система, тем сложнее становится эта динамика, на уровне животных превращаясь в такие поведенческие стратегии, как жертвовать частным ради целого, малым сейчас ради большого потом, своим ради общего, ведь одному не выжить. Через труд к успеху, через тернии к звёздам, через альтруизм и самопожертвование к уважению и славе.

Но гомеостаз нельзя сколько-нибудь точно воспроизвести в алгоритме, как нельзя программой переварить пищу, различие между алгоритмом и работой диссипативных систем качественное. Поэтому без человека — развивающего технологии, контролирующего обучение, отбирающего адекватные варианты систем и продолжающего найденные в них решения в новых системах — развитие ИИ, его эволюция или обучение, через короткое время остановится. Путей развития, которые позволят ИИ усложняться и противостоять разрушающей среде, неизмеримо меньше, чем тех, которые ведут к разрушению, и без гомеостаза ИИ быстро пойдёт по одному из них. В результате ИИ будет разрушен средой точно так же, как среда разрушает любую другую искусственную систему. Вне интенсивного обмена со средой ИИ качественно меньше зависит от среды, как следствие, развитие ИИ быстро станет среде неадекватно.

Итак, всё, что, по мнению автора, требовалось сказать в этой статье, сказано, осталось только подвести итог, и он, вероятно, уже понятен. Тем не менее ненадолго его отложим и вспомним, что одной из тем статьи была свобода воли, к каковой мы обещали вернуться в этой главе с чем-то ещё более необычным. Так и сделаем, в заключение главы вернёмся к свободе воли и скажем о ней ещё несколько слов.

В первой главе мы пришли к выводу, что свобода воли — это принципиально неопределённое понятие, поэтому есть она или нет, тоже ничего определённого сказать нельзя. На самом деле вопрос свободы воли требует более комплексного рассмотрения с учётом и логики, и физики мышления, что выходит за рамки данной статьи (но это сделано в статье «Самоорганизация в организме и мозге»), однако кое-что сейчас добавить к уже сказанному всё-таки можно.

Для этого вспомним, что мозг управляет мышцами, то есть мозг принимает решения о том, что делать, куда идти, как поступать, то есть отвечает за конкретику нашего поведения. Несмотря на то, что в целом мы стремимся к самосохранению — и в этом у нас выбора нет (даже причинение себе вреда или самоубийство — это лучший выход, а не реальное стремление причинить себе вред), тем не менее, как кажется, в конкретных решениях свобода может быть. Или, точнее, только в этих решениях она быть и может, если есть вообще. В свою очередь, работа мозга на всех уровнях связана с бифуркациями, а они с бесконечно малыми изменениями параметров системы. Например, переходом через точку бифуркации является каждое переключение внимания. Следует ли из всего этого что-то необычное?

В точке бифуркации — в критической точке максимального неравновесия — система становится одним «напряжённым» целым, поэтому даже бесконечно малое изменение параметров системы приводит к качественному изменению поведения сразу всей системы. В свою очередь, связь перехода с бесконечно малым изменением параметров означает, что в точке бифуркации система становится полностью неотделима от среды, так как требует для предсказания знания всей среды — теории всего. 

Полная неотделимость от среды означает, что в точке бифуркации система фактически расширяется на всю среду, то есть на всё, становится всем. Но у всего уже не может быть каких-либо предопределяющих его причин, так как любые «причины всего» тоже часть всего. Поэтому, получается, что выбор в точке бифуркации — это строго выбор самой системы, который, кроме неё самой, ничем не предопределён, ни от чего, кроме самой системы, не зависит, так как какие-либо обстоятельства «до системы» или «вне системы» в точке бифуркации теряют смысл — не может быть ничего до всего, ничего больше всего и ничего иного, чем всё. Например, можно было бы предположить, что выбор в точке бифуркации случаен, потому что он принципиально непредсказуем. Однако этот выбор связан с бесконечно малым изменением параметров системы, а значит, он уже по определению не случаен. Поэтому на самом деле, как мы сейчас выяснили, выбор в точке бифуркации — это выбор и не случайный, и не детерминированный, это выбор самой системы, который сочетает в себе оба этих представления. В то же время как конкретно он происходит, то есть что конкретно означает это сочетание, узнать нельзя, так как это равносильно построению «теории всего» или, что одно и то же, знанию того, как возникло всё.

Причём если считать, что система решает некие задачи и в точке бифуркации происходит выбор решения, то этот выбор можно считать идеальным относительно опыта системы и среды, в которой она оперирует, потому что в точке бифуркации система и среда становятся одним целым. И так как сложность этого выбора фактически бесконечна, то любые способы как-либо моделировать этот выбор неизбежно приведут к упрощению — модель поведения системы в точке бифуркации может быть только качественно проще реальности. В результате связь создаваемой системы и среды, адекватность её поведения среде, тоже будет качественно ограничена.

Таким образом, мы опровергли выводы первой главы? Если мы, наш мозг, сам принимает решения, то свобода воли есть? Однако мы и раньше, и тоже на основании связи мышления с элементарным уровнем материи, пришли к выводу, что наш выбор и не детерминирован, и не случаен, и вообще не может быть как-либо конкретизирован. Но, ввиду такой неопределённости, он, следовательно, не может быть и как-либо локализован. Сейчас, как кажется, мы выбор локализовали — собой, решения принимаем мы. Однако на самом деле мы всего лишь посмотрели на вывод первой главы немного под другим углом, и от этого наш выбор ничуть более локализованным не стал. Потому что «мы» в данном случае — это, получается, «всё», а «всё» — это то же самое, что и элементарный уровень материи, то есть объект неопределённый, что такое «локализован», в отношении него неизвестно. Поэтому на самом деле мы пришли к тем же самым выводам, что и в первой главе: множество всех множеств, теория всего, алгоритм мышления, свобода воли — это всего лишь разные выражения границ познания.


9. Заключение

Теперь можно подвести итог. Во второй главе мы выяснили, что чем ближе ИИ будет приближаться к сложности поведения человека, тем дольше будет идти процесс усложнения, стремясь к бесконечности. Далее мы узнали, что ИИ качественно проще человека, что у ИИ не может быть сознания. Как выяснилось в этой главе, у ИИ не может быть гомеостаза. И наконец мы узнали, что без гомеостаза ИИ не сможет развиваться самостоятельно, сколько-нибудь значительная самостоятельная эволюция алгоритмов невозможна. Таким образом, мы возвращаемся обратно к аргументам второй главы, согласно которым ИИ всегда будет оставаться не более чем помощником человека, аналогично другим создаваемым человеком системам.

Тем не менее, уже говорилось, в отдельных задачах вычислительные системы могут и превосходить человека. Например, за счёт более точного соответствия устройства системы задаче или за счёт объёма или скорости выполняемой простой работы. К примеру, калькулятор считает быстрее человека, а автомобиль может быстрее человека перемещаться в пространстве. Или, выделив в своём опыте задачу, человек может создать систему, которая сможет найти её решение «самостоятельно» в процессе обучения, то есть в последнем случае искусственный интеллект как будто превзойдёт человека именно в интеллекте. Но на самом деле как раз за счёт качественно более высокой сложности человек способен выделить в своём опыте и задачу, и придумать систему, которая, оставаясь много проще человека, в процессе обучения только лишь выявит в задаче некоторые частные закономерности, не замеченные человеком. И только человек сможет понять, что задача решена верно — об этом ему подскажет «чувство удовлетворения», то есть в конечном итоге растёт качество его жизни или нет. Вычислительной системе не подскажет ничего.

На практике сказанное означает, что получится или создать искусственную систему, работа которой будет повторять мышление человека в целом, начиная от распознавания условий и до построения действий, но воспроизведённого на очень простом уровне, или систему, которая будет, может быть, и превосходить человека, но лишь на уровне отдельных элементов его опыта. И чем более частный характер носит задача, тем «превзойти себя» человеку будет проще, а превосходство может быть заметнее. И наоборот, по мере приближения возможностей искусственных систем к полноте возможностей интеллекта человека превосходство сменится отставанием. Поэтому усложнение систем, способных делать то, что в целом делает человек, то есть ставить задачи и решать их, всегда будет ограничено уровнем сложности много ниже тех же способностей человека.


Дополнительно

Некоторые темы этой статьи подробнее рассмотрены в других статьях. Аргументы первой главы дополняет статья «Эволюция методов познания», глава «Абсолютная истина». Физическая сторона работы мозга подробнее описана в статье «Самоорганизация в организме и мозге». Новая интерпретация квантовой механики в статье «Гносеологическая интерпретация квантовой механики» и «Гносеологическая интерпретация квантовой механики (короткий вариант)». Тема этой статьи сжато изложена в статье «Материя, сознание и пределы сложности искусственного интеллекта».

***


Рецензии