Гёделевский аргумент и вычислимость интеллекта

Нынешнее название: СИЛЬНЫЙ ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ (AGI) НЕ МОЖЕТ БЫТЬ СОЗДАН. ТЕОРИЯ ВСЕГО НЕ ИМЕЕТ СМЫСЛА. ЗНАЧЕНИЕ ПРОТИВОРЕЧИВОСТИ ТЕОРИИ ВСЕГО.

СОДЕРЖАНИЕ: В статье обоснована принципиальная невозможность создания человеком каких-либо искусственных систем, приближающихся к сложности интеллекта самого человека. Несмотря на очевидный прогресс искусственных нейронных сетей, в том числе связанный с чат-ботами, все нынешние системы от сложности интеллекта человека далеки и не достигнут этого уровня ни в какой перспективе. Вторая тема статьи — противоречивость теории всего. В широком контексте причин и следствий показано значение противоречивости теории всего.

Основная тема статьи — границы сложности искусственного интеллекта. В то же время, как будет показано, характер этих границ принципиальный, то есть они связаны не просто с созданием отдельных устройств, а имеют глобальный смысл пределов познания, каковые проявляются в том числе и в ограничении сложности создаваемых человеком систем. Как следствие этой глобальности, подтверждение того, что сложность создаваемых человеком систем всегда будет ограничена сложностью интеллекта самого человека, можно увидеть в аргументах логического, практического и физического характера, то есть наблюдать со всех возможных точек зрения. С каждой из них ограничения выглядят по-своему, но, как разные стороны одной проблемы, они взаимно дополняют и обосновывают друг друга. В том же порядке аргументы рассмотрены в статье — от логики к физике, от истоков и общих соображений к аргументам более конкретным.

В первой главе рассмотрены некоторые общие аргументы, касающиеся вычислимости (формализации, описания) мышления и связи этой задачи с построением теории всего, в частности, это теоремы Гёделя о неполноте и теорема Тарского о невыразимости истины. Во второй главе дано краткое описание работы мозга и показаны принципиальные препятствия, которые не позволят любым системам, создаваемым с участием интеллекта человека, включая искусственные нейронные сети и другие недетерминированные алгоритмы, приблизиться к сложности интеллекта человека. В третьей главе выводы второй главы уточнены. В четвёртой главе тема пределов сложности искусственного интеллекта дополнена более наглядными аргументами, связанными с сознанием. В пятой главе приведены некоторые подробности и аргументы, не получившие развития в предыдущих главах. В шестой главе уточнено значение теорем Гёделя с точки зрения перспектив создания искусственного интеллекта и построения теории всего и приведена ещё одна интерпретация теорем Гёделя. В седьмой главе рассмотрена связь противоречивости теории всего с тенденциями познания, в том числе с сознанием и проблемой измерения квантовой механики. В восьмой главе указаны физические основания жизни, рассмотрена их связь с мышлением и приведёнными ранее аргументами, а также сказано о принципиальных проблемах в моделировании мозга.

Есть ещё один аргумент, без которого перечисленный ранее набор точек зрения был бы неполным. Он состоит в том, что создание такого объекта, как сильный искусственный интеллект, выглядит невозможным и само по себе, так как неявно подразумевает, что усложнение создаваемых человеком систем линейно. Потому что если можно создать что-то сложнее себя, то, по-видимому, никаких принципиальных пределов сложности нет. Разве что это пределы физические, но сложность интеллекта человека явно не физический предел сложности, как минимум потому что эволюция продолжается, и нет оснований считать, что интеллект сложнее нынешнего уже физически невозможен. В то же время мир нелинеен, подавляющее большинство встречающихся в природе систем, в том числе мозг и вообще жизнь, принадлежат к нелинейной неравновесной термодинамике, это открытые системы, предсказание таких систем ограничено. Но тогда кажется странным, что линейным вдруг окажется усложнение создаваемых человеком систем, ведь по мере усложнения и приближения создаваемых систем к сложности биологических рост непредсказуемости должен сопровождать и их работу. В чём причина непредсказуемости, к чему она в итоге стремится, не помешает ли её рост? Это ощущение неполноты и противоречивости простых подходов в оценке перспектив искусственного интеллекта назовём аргументом интуитивного характера. Интуиция сама по себе, как аргумент самый общий, аргумент слабый. С интуиции все доказательства только начинаются, и в данном случае этот интуитивный аргумент тоже только предваряет другие аргументы статьи.
***

Статья является самостоятельным изложением, однако некоторые затрагиваемые в ней аргументы и явления имеют более подробное описание в книге «Пределы сложности искусственного интеллекта». Ссылки на статью и книгу в формате PDF находятся в разделе ссылок на другие ресурсы - http://proza.ru/avtor/laplas


Оглавление

1.     1
2.    13
3.    23
4.    32
5.    42
6.    45
7.    53
8.    63


1.

В 1930 году австрийским математиком Куртом Гёделем были доказаны теоремы о неполноте формальных систем. Появление теорем вызвало значительный резонанс, выходящий далеко за пределы математического сообщества. Со временем теоремы приобрели широкую известность.

Причиной известности теорем стала их очевидная связь с идеями более общего характера, чем только математические. Причём идеями столь же глобальными, сколь глобальным является значение теорем для математики. Источник этой связи понятен. Делая утверждения о математическом языке, теоремы Гёделя о неполноте должны иметь связь и с наукой, так как математика — это язык науки. А учитывая, что и наука, и её язык — это часть более широкого контекста форм познания и способов формулировки знаний, то связь должна быть и с познанием вообще, его особенностями и тенденциями. Другими словами, выяснилось, что, казалось бы, сугубо математические утверждения, по-видимому, можно интерпретировать как раскрывающие некоторые внутренние, принципиальные свойства познания — и даже самой познаваемой природы, так как познание её часть.

Эти свойства познания — наличие у него границ. Эти границы проявляют себя как непосредственно — в противоречивости теории всего, так и через границы сложности создаваемых человеком систем. Идеи о наличии у познания пределов высказывались и ранее, но теоремы Гёделя привлекли внимание тем, что дали этим идеям строгое математическое основание (или, по крайней мере, основание для новых дискуссий), так как из теорем следует наличие пределов познания у самой математики, то есть нельзя познать «всю» математику, сформулировать все математические истины, а значит, нельзя познать и «всё». Поэтому мы тоже начнём статью с рассмотрения теорем Гёделя о неполноте и связанных с ними аргументов. В целом этот тип аргументов называют интерпретациями теорем. Мы рассмотрим две самые известные интерпретации, это как раз те идеи, которые описаны выше, они же соответствуют заявленным в названии темам статьи.

Интерпретация — это истолкование, указание на связь явлений, их общность, когда содержание одного явления позволяет раскрыть содержание другого. Вначале рассмотрим, как теоремы связаны с созданием искусственного интеллекта, затем с построением теории всего. Как, должно быть, уже понятно, связь со столь, казалось бы, разными направлениями познания не случайна: создание сильного искусственного интеллекта и построение теории всего — это не такие разные задачи, они все связаны с познанием природы, прямо или косвенно.

Выводы, которые мы сделаем в отношении этих связей, подтверждаются в том числе и тем, что те же самые выводы следуют и из множества других аргументов, менее абстрактного характера, которые мы также приведём. В свою очередь, связь абстрактных математических теорем и аргументов менее абстрактного характера, которая, таким образом, тоже наблюдается, позволяет и наоборот — считать интерпретацией сами теоремы. Которые, как оказывается, только лишь на математическом языке описывают некоторые и без них достаточно очевидные особенности наблюдаемой природы, а не открывают что-либо скрытое сами по себе.

Итак, в первой интерпретации, из теорем Гёделя следует, что мышление «невычислимо», формализовать мыслительный процесс принципиально невозможно. Иными словами, работу мозга нельзя выразить в виде некоторой строгой формулы, точной пошаговой инструкции, алгоритма, используя который можно было бы предсказывать результаты мыслительного процесса, создавать «мыслящие» искусственные системы или написать программу конкретной личности и перенести личность в компьютер.

Сказанное означает, что естественный интеллект принципиально отличается от машинного, так как все системы искусственного интеллекта, наоборот, работают по некоторому алгоритму. Это отличие не случайно, как будет понятно, оно одно из проявлений того, что интеллект человека всегда будет сильнее искусственного. В целом же, как мы покажем, преимущество естественного интеллекта заключается конкретно в том, что сам человек не сможет создать такой алгоритм, который бы полноценно выразил способность его мозга вырабатывать алгоритмы. Проще говоря, сам мозг не сможет создать что-либо, равное себе сложности.

Обоснование этих утверждений, связанное с теоремами Гёделя, называют гёделевским аргументом, а сам термин впервые был представлен британским ученым Джоном Лукасом в 1961 году. По-видимому, именно это время можно считать тем периодом, когда дискуссии о возможностях машин и о том, что у этих возможностей, вероятно, есть границы, стали приобретать конкретное наполнение и популярность. Тем не менее и нейросетевая логика, и физическая сторона работы мозга в то время были понятны ещё чрезвычайно слабо, поэтому аргументы этой главы, отчасти повторяя исторический дискурс, тоже ничего из этого не учитывают и носят максимально общий характер.

Прежде чем перейти непосредственно к рассмотрению границ сложности искусственного интеллекта, вспомним, что такое алгоритм, и определимся, какую систему можно считать искусственной. Алгоритм — это точная пошаговая инструкция, например, компьютерная программа — это реализованный конкретными средствами алгоритм. «Искусственность» системы заключается в том, что чем полнее работу системы определяет написанный человеком алгоритм, тем больше её можно считать искусственной, целенаправленно созданной человеком, его интеллектом. Поэтому, обобщая сказанное выше, ограничение искусственного интеллекта можно сформулировать следующим образом. Чем полнее работу системы определяет написанный человеком алгоритм, тем ниже будет её сложность по сравнению с интеллектом человека. И наоборот, превзойти интеллект человека сможет только такая система, в создании которой интеллект человека не участвует.

Теперь рассмотрим теоремы Гёделя, их содержание и математическое значение.

Теоремы Гёделя о неполноте делают утверждения о формальных системах. «Формальная система» в самом общем смысле — это система заданных в качестве аксиом формул, используя которые можно получать новые формулы. Также можно сказать, что формальная система — это некоторый абстрактный язык, в котором по строгим правилам сочетаний букв и слов из одних утверждений можно выводить другие. И наконец формальная система (или формальная теория) — это, собственно говоря, и есть то, что называется математикой, конкретная математическая теория или математика в целом.

Теоремы Гёделя устанавливают принципиальные ограничения формальной арифметики и, как следствие, всякой достаточно богатой формальной системы, в которой можно определить основные арифметические понятия: натуральные числа, 0, 1, сложение и умножение. В свою очередь, без арифметики математика имеет достаточно узкую область применимости, потому что становится невозможно выразить точные количественные отношения.

Ограничения, накладываемые теоремами, носят следующий характер. Первая теорема о неполноте утверждает: если формальная система непротиворечива, то в ней существует невыводимая и неопровержимая формула. Вторая — если формальная система непротиворечива, то в ней невыводима формула, содержательно утверждающая непротиворечивость этой системы.

Таким образом, из первой теоремы следует, что если формальная система непротиворечива (то есть в системе нельзя одновременно и доказать утверждение, и его опровергнуть), то такая система будет неполна — в ней всегда можно будет построить истинное утверждение, истинность которого невозможно будет доказать в рамках выразительных средств формального языка системы. И даже если включать такие невыводимые и неопровержимые утверждения в состав аксиом системы, то набор аксиом не будет удовлетворять требованию полноты и в случае, если пополнить систему бесконечным множеством аксиом. Проще говоря, в непротиворечивой формальной системе множество истинных формул всегда будет больше множества доказуемых формул.

И как можно объяснить вторую теорему, если условием непротиворечивости является наличие невыводимой и неопровержимой формулы, то обосновать непротиворечивость системы средствами самой системы не получится, так как само «условие непротиворечивости» в системе невыводимо. Можно сказать, пока в системе остаётся что-то непонятное — невыводимая и неопровержимая формула — то окончательно утверждать ничего нельзя, так как наличие непонятного оставляет все вопросы открытыми.

В то же время непротиворечивость одной формальной системы может быть доказана средствами другой формальной системы с более выразительным языком. Однако если правила вывода этой системы будут сильнее логических средств арифметики, то уверенности в доказательстве не будет.

Причина отсутствия уверенности в следующем. Если арифметика непротиворечива, то более богатый язык позволит доказать её непротиворечивость. Но арифметика изучает числа, их свойства и отношения, а чисел бесконечно много. К примеру, нет самого большого натурального числа, множество всех натуральных чисел бесконечно. Поэтому язык, на котором можно будет доказать непротиворечивость сразу всей арифметики, потребует рассмотрения бесконечности не как только потенциального, а как актуального явления — как некоторого завершённого, обозримого объекта. Однако конструктивность такого подхода не очевидна, потому что кроме как «потенциально», то есть в некой недостижимой на практике перспективе, построить бесконечность невозможно.

Понять логические затруднения, которые возникают, если рассматривать бесконечность как завершённый объект, отчасти поможет такой пример. Если представить, что жизнь бесконечна и при этом рассматривать такую жизнь как целое, то получится, что количество минут, часов или дней этой жизни будет равно количеству лет, веков и т. д., так как и то и другое будет одинаково бесконечно. Ещё один пример — парадокс Галилея. Каждое натуральное число — 1, 2, 3, 4… — можно возвести в квадрат, поэтому квадратов натуральных чисел, очевидно, должно быть столько же, сколько самих натуральных чисел. Но при этом не из каждого натурального числа можно извлечь целый корень, поэтому получается, что количество квадратов натуральных чисел меньше количества натуральных чисел. Что противоречит первому выводу, что квадратов столько же. Эти парадоксальные ситуации говорят о том, что к бесконечным объектам не применима очевидная в иных обстоятельствах аксиома Евклида «целое больше своей части». Более строго, бесконечные множества характеризуются как множества, имеющие собственные подмножества той же мощности.

Таким образом, если правила вывода системы будут сильнее логических средств арифметики, то используемые в доказательстве методы не будут финитистскими, то есть методами конечными, наглядными, однозначно ясными.

Например, непротиворечивость формальной арифметики доказана в теории Генцена (где к логике первого порядка добавлен упрощённый вариант трансфинитной индукции — метода доказательства, обобщающего математическую индукцию на случай несчётного числа значений параметра), или в рамках теории множеств (посредством доказательства теоремы Гудстейна). Эти формальные системы сильнее арифметики, так как позволяют совершать операции над бесконечными совокупностями (множествами) элементов (элементы могут быть любые, что угодно), объединённых по некоторому признаку, и доказательства собственной непротиворечивости уже не имеют. Причём предполагая, что для доказательства непротиворечивости этих формальных систем потребуется система с ещё более выразительным языком, то методы этой системы, очевидно, должны быть «ещё менее финитистскими» и, как следствие, оставлять ещё больше вопросов. Более того, под вопросом находится даже сама принципиальная возможность такого доказательства.

Дело в том, что теория множеств изучает множества, но множество всех множеств — как кажется, естественный объект изучения теории множеств — это объект противоречивый. Например, рассмотрим такой аргумент. Множество всех множеств, очевидно, должно быть самым большим множеством теории множеств, так как включает в себя все множества. Однако множество всех подмножеств любого множества (то есть множество всех возможных перестановок элементов множества) будет всегда больше самого множества — количество всех возможных перестановок элементов множества, очевидно, больше, чем количество самих элементов множества. Но тогда, если мы включим в множество всех множеств множество всех его подмножеств, то множество всех множеств, естественно, тут же станет больше. Однако и множество подмножеств полученного множества всех множеств точно так же снова станет больше самого множества всех множеств, а значит, операцию по включению подмножеств нужно будет проделывать опять — и так бесконечно.

Таким образом, как только мы пытаемся обозначить границы объекта, который изучает теория множеств, они тут же расширяются. Например, такого не происходит с бесконечными множествами чисел, несмотря на то, что они тоже бесконечные. Поэтому, получается, что множество всех множеств не может быть объектом изучения теории множеств, так как множеством именно всех множеств оно на самом деле не является. Но и другого множества всех множеств, которое будет множеством именно всех множеств, определить нельзя. Но если объект теории не может быть определён, то и доказательство непротиворечивости этой теории построить невозможно. Больше того, наличие парадоксов, наоборот, говорит о противоречивости теории.

Тем не менее на нынешнем этапе развития теории множеств с помощью различных достаточно искусственных ограничений основные противоречия преодолены. В разных вариантах теории вместо множества всех множеств рассматриваются другие объекты: универсальный класс — класс всех множеств, который сам множеством не является, или универсальное множество, которое понимается более узко, как «множество, включающее все множества, участвующие в рассматриваемой задаче». Доказательство непротиворечивости таких теорий становится возможным, оно будет ограничено рассматриваемыми множествами.

И всё же, как кажется, множество всех множеств должно быть — если что-то мыслится, то должен существовать и объект «всё мыслимое», если существует что-то, то должно быть и «всё сущее», если есть язык, то должен быть и «самый богатый язык». Однако, как выясняется, с такими объектами не всё так однозначно — и не просто потому, что их нельзя построить «на практике», как нельзя построить бесконечность натуральных чисел, а потому что они противоречивые, бессмысленные. Можно сказать, что в попытке определить объект, который должна изучать теория множеств, мы сталкиваемся с такой бесконечностью, которая бесконечно бесконечнее какой-либо мыслимой бесконечности. Но такой объект не мыслим, то есть противоречив. Другими словами, может оказаться, что «всё мыслимое», «всё сущее» или «самый богатый язык» — это нечто большее, чем просто что-то мыслимое, что-то существующее или какой-либо язык. Но нельзя больше чем мыслить, существовать и говорить, поэтому для того, кто мыслит, существует и говорит, это объекты непознаваемые, недоступные осмыслению. 

Обобщим. Из теорем о неполноте следует, что так расширить аксиоматику любой достаточно богатой и непротиворечивой формальной системы, чтобы все утверждения без остатка распределились на истинные и ложные, невозможно, потому что если система непротиворечива, то в ней всегда должны оставаться истинные невыводимые формулы. Доказать непротиворечивость формальной системы можно в системе с более богатым языком, но для доказательства непротиворечивости уже этой формальной системы потребуется система с ещё более богатым языком — и так бесконечно, при этом каждый более богатый язык будет всё менее финитистским.

В итоге логико-математическое значение теорем Гёделя состоит в следующим. Никакая формализованная система логики не может быть адекватной базой математики, потому что если математика непротиворечива, то она не может быть целиком сведена к какому-либо конечному набору аксиом — их никогда не хватит, чтобы доказать все математические истины. Этот вывод можно сформулировать по-другому: чтобы доказать непротиворечивость математики, нужно выйти за рамки математики, но за рамками математики не может быть математических доказательств. Или: если математика непротиворечива, то она не может быть целиком сведена к каким-либо финитистским — ясным, конечным — построениям, полностью выражена с помощью каких-либо финитистских методов рассуждения.

В свою очередь, эти выводы можно интерпретировать как невозможность устранения из математики метафизики — неких невычислимых, непонятных оснований, которые невозможно выразить в виде каких-либо точных правил, строгих законов, то есть невозможно формализовать.

Историко-математическое значение теорем Гёделя о неполноте заключается в их радикальном влиянии на программу формализации оснований математики с последующим доказательством её непротиворечивости, проводимую знаменитым немецким математиком Давидом Гильбертом в 20-е годы прошлого века. Для осуществления этой программы Гильберт разработал строгую логическую теорию доказательств, с помощью которой непротиворечивость математики свелась бы к доказательству непротиворечивости арифметики. Как следует из теорем, программа оказалась невыполнимой.

Ещё раз скажем, выводы этой главы, которые касаются искусственного интеллекта, носят в некотором смысле предварительный характер. В них не учитываются особенности работы мозга и алгоритмов искусственного интеллекта. Речь о них пойдёт во второй главе и других главах. Но на этом «предварительном» уровне связать сделанные выводы с ограничением сложности искусственного интеллекта можно следующим образом.

«Понять» явление — это формализовать его, то есть изучить законы явления и написать его алгоритм, формулу явления, которая этот алгоритм содержит и позволит вычислять течение явления, в зависимости от начальных условий. Другими словами, «понять» явление — это научиться его предсказывать; чем дальше в прошлое и будущее можно заглянуть, тем глубже представление о происходящем. В свою очередь, алгоритм, как точная формула явления, подразумевает формальный язык, в котором по строгим правилам сочетаний букв и слов одни утверждения перерабатываются в другие — «дано» в «ответ», начальное состояние в конечное. Изменить здесь что-то невозможно, так как если неизвестен алгоритм, то нельзя говорить о понимании явления, потому что без знания того, как конкретно условия влияют на явление, течение явления можно будет только угадывать, а если язык не формальный, то есть не однозначный, не строгий, или слишком бедный, то он не позволит выразить точное знание. В итоге, чем меньше в описании явления формального языка, то есть чем «меньше алгоритма» и, следовательно, чем меньше в явлении понятного, тем больше предсказание такого явления будет связано с угадыванием, случайным выбором, иными словами, будет расти неопределённость.

Таким образом, из абзаца выше понятно, что ограничение на формализацию явления — это ограничение на понимание явления. Ограничение, накладываемые теоремами Гёделя, — это ограничение на формализацию математики, то есть на понимание математики. Математика есть некоторый итог мышления, которое, в свою очередь, есть некоторый физический процесс, явление природы. Следовательно ограничение на понимание математики может иметь связь как с ограничением на понимание работы мозга, так и природы в целом. Вероятно также, что эти ограничения могут иметь связь с созданием искусственного интеллекта. Рассмотрим, действительно ли это так.

Если предположить, что мышление человека — это некое «обычное» физическое явление (так ли это на самом деле, скажем во второй главе), то очевидно — для того, чтобы воссоздать мышление в искусственной системе не наугад, а целенаправленно, точно понимая что, как и зачем делается, мышление прежде следует понять, то есть формализовать. Другими словами, надо найти законы мышления, написать его алгоритм, то есть создать «теорию мышления», «теорию интеллекта» — формулу того, как мышление происходит. Однако, согласно теоремам Гёделя, в решении этой задачи возникнут принципиальные сложности.

Самый очевидный аргумент, говорящий о том, что сложности действительно возникнут, состоит в том, что непосредственным источником математики является мышление человека, поэтому если мышление будет формализовано, то формализована будет и вся математика. Но вся математика не может быть формализована, так как такая формальная система будет противоречивой. Следовательно не может быть формализовано и всё мышление. В итоге, как и говорилось в начале статьи, мышление «невычислимо», алгоритм мышления не имеет смысла, различие естественного интеллекта и машинного принципиальное.

Тем не менее рассмотрим ситуацию подробнее: в чём конкретно будет противоречие, другие аргументы и их следствия.

Если предположить, что мышление можно формализовать, то есть мышление имеет некоторые законы и их можно найти и выразить в виде строгих формул, то мы, таким образом, построим алгоритм мышления, который позволит вычислять любой мыслительный процесс, любой итог мышления, в том числе сами законы мышления, так как они тоже есть некоторый итог мышления. В свою очередь, поиск законов мышления в этом случае можно представить, как поиск субъектом своих аксиом.

Пока субъекту известны ещё не все свои аксиомы, то есть не все законы мышления, то понятно, что алгоритм мышления написать будет нельзя, поэтому строго разделять свои утверждения на истинные и ложные субъект не сможет. Не зная всех причин появления утверждений, не понимая, как конкретно мозг приходит к тому или иному выводу, что и как конкретно на этот вывод влияет, нет и оснований считать свои утверждения истинными или ложными. В конце концов даже само представление о том, что есть «ложь», а что «истина», тоже понятно ещё не полностью. Точнее говоря, субъект сможет разделить на истинные и ложные только часть своих утверждений — некоторое частное утверждение можно будет назвать истинным, но сама концепция, в которой это утверждение выведено как истинное, такого же строгого обоснования иметь уже не будет.

Тогда можно предположить, что если субъекту станут известны все свои аксиомы, то есть все законы мышления, алгоритм мышления написать будет можно, а значит, и строгая граница между истиной и ложью тоже может быть проведена. Основания всех своих утверждений станут в точности понятны, поэтому любое своё утверждение субъект сможет однозначно определить или как истинное, или как ложное, фантазию можно будет строго отделять от реальности.

Однако, наоборот, такая «полнота знания» будет означать, что субъект не знает абсолютно ничего, потому что именно так можно охарактеризовать противоречивость.

Согласно теореме Гёделя, если формальная система непротиворечива, то набор аксиом не может быть полон. Как следствие, в непротиворечивой системе множество истинных формул всегда будет больше множества доказуемых формул. Иными словами, то же, что говорилось выше в отношении мышления, можно сказать и в отношении непротиворечивой формальной системы: «некоторое частное утверждение можно будет назвать истинным, но сама концепция, в которой это утверждение выведено как истинное, такого же строгого обоснования иметь уже не будет». Самая общая «концепция» — это сама формальная система, в которой выводятся «частные» утверждения, и непротиворечивость которой нельзя доказать в рамках самой этой системы.

Но если мы смогли сформулировать алгоритм мышления, то мы, следовательно, сформулировали его на некотором формальном языке и в рамках некоторой формальной системы. И набор аксиом этой формальной системы должен быть полон, так как алгоритм мышления выводит сам себя (ведь алгоритм мышления — это продукт мышления, алгоритм которого и есть алгоритм мышления), а значит, за рамками алгоритма мышления ничего оставаться не может, никаких аксиом, вообще ничего мыслимого — алгоритм мышления выводит всё. Таким образом, алгоритм мышления будет полон и поэтому противоречив, то есть такой алгоритм не имеет смысла.

Опишем противоречие более наглядно. Для этого вспомним, в чём вообще причина противоречивости. Если можно сформулировать утверждение, то можно сформулировать и его отрицание, но в непротиворечивой формальной системе доказуемым может быть только что-то одно. Наоборот, в противоречивой системе выводиться будет и то и другое — «А» будет равно «не А».

Но именно это и произойдёт в случае формализации мышления. Всё мыслимое, включая все утверждения, которые субъект может как-либо сформулировать (произнести, представить), естественно, следует из законов мышления, поэтому знание всех законов мышления будет означать, что абсолютно все утверждения субъекта, в том числе утверждения противоположные или даже о ложности самих законов мышления, по которым эти утверждения получены, станут выводимыми, то есть абсолютно все утверждения станут истинными. Однако противоположные утверждения не могут быть истинными одновременно, поэтому на самом деле истинность всех утверждений, наоборот, будет означать, что ложь перестанет отличаться от истины, верное от неверного, всё станет одинаковым — и из знаний субъекта исчезнет какой-либо смысл. Но в отсутствие смысла нельзя вести речь и о каком-либо знании.

Посмотрим ещё раз. Если у нас есть верный алгоритм некого явления, то, естественно, что ничего «ложное» из него следовать не может. Алгоритм — это инструкция переработки входящих данных в исходящие. Поэтому если у нас есть такая инструкция, другими словами, если у нас есть верная «формула» явления, то мы всего лишь подставляем в неё начальные условия, в которых хотим явление исследовать, и получаем результатом то, что будет происходить с явлением в этих условиях. В случае алгоритма мышления, подставляя начальные условия — например сигналы рецепторов — мы, очевидно, можем найти такие условия, когда получим на выходе высказывание, что алгоритм мышления неверный. Ведь человек может при желании сказать, что что-то верное или неверное, независимо от того, как обстоят дела на самом деле, при этом желания не возникают без причины. Однако тогда, получается, из верного алгоритма следует неверное утверждение о том, что этот алгоритм неверный. Если алгоритм верный, то он неверный. Это и есть противоречивость, бессмысленность. Истина и ложь становятся неотличимы друг от друга, так как доказать можно всё, что можно сформулировать.

Противоречивость алгоритма мышления можно объяснить по-другому, может быть, ещё более наглядно. Знание законов мышления означает возможность предсказывать поведение любого субъекта, включая собственное поведение. Но, как кажется, если будущее известно, то его можно изменить и поступить иначе, чем предсказано. Получается, если субъект не знает о том, что его поведение предсказано, то предсказание будет точным, но если ему предсказание сообщить, то он сможет своё поведение изменить. Однако если верность предсказания зависит от его знания субъектом, то очевидно, что описаны минимум ещё не все законы мышления, так как, оказывается, их недостаточно, чтобы предсказывать поведение во всех ситуациях. Таким образом, идея, что можно найти все законы мышления, ведёт к противоречиям.

Невозможность найти все законы мышления означает также, что не может быть построена и теория всего — теория, из которой будут выводимо всё сущее — так как мышление из неё будет невыводимо. Точнее говоря, из сказанного в абзаце выше следует, что теория всего возможна, только если её никто не сможет узнать — но так и есть, природа существует, но узнать её полностью, то есть построить теорию всего, нельзя. 

Посмотрим на противоречивость законов мышления с несколько другой стороны. Окружающая нас среда сама по себе не может быть ложной — она такая, какая есть. Поэтому если мы в точности проследим связь среды со своими утверждениями, в точности установим, как утверждения возникают, то они перестанут отличаться от среды, станут ей. И тогда тоже, естественно, не смогут быть ложными. Но тогда они не смогут быть и истинными, так как в отсутствие ложных утверждений нет и истинных. Таким образом, возможность такую связь провести и с этой точки зрения ведёт к противоречиям.

Другой вывод из сказанного заключается в том, что смысл не может быть формализован. Смысл — это составляющая сознания, эмоционально воспринимаемая обобщённая перспектива ситуации, например, радость, печаль, удивление, то есть в целом оттенки состояния хорошо/плохо. При этом сознание, очевидно, неотделимо от мышления. Поэтому если мышление можно описать на некотором языке, то и смысл тоже станет обычным утверждением этого языка. Однако тогда разница между ложью и истиной исчезнет, так как смысл и истинного утверждения, и ложного станет истинным утверждением языка, на котором описано мышление. Следовательно, чтобы у утверждений был какой-либо смысл, он должен оставаться за рамками утверждений, то есть сам смысл нельзя выразить каким-либо языком, смысл должен отличаться от какого бы то ни было языка, язык сам по себе никакого смысла иметь не может.

Противоречивость законов мышления можно объяснить ещё одним способом. Формализовать явление — это описать его на некотором формальном языке. При этом формализация мышления, которое есть непосредственный источник всех языков, будет равносильна построению максимально выразительного языка. Но максимально выразительный язык должен быть языком и максимально «не финитистским», то есть абсолютно неясным, неоднозначным, попросту «не языком», полной его противоположностью. Поэтому ни что-либо на нём сформулировать, ни даже построить сам такой язык невозможно. Можно обратить внимание, как и в абзаце выше, из сказанного сейчас так же следует, что язык должен быть обусловлен чем-то от языка принципиально отличным.

Приведём ещё несколько аргументов.

Если пополнение непротиворечивой формальной системы аксиомами может продолжаться бесконечно и всё равно будут оставаться истинные недоказуемые утверждения, то и формализация мышления тоже процесс бесконечный. Если непротиворечивая формальная система не может быть представлена конечной совокупностью алгоритмов, то мышление тоже не может быть представлено конечной совокупностью алгоритмов.

Источником формальной системы, на языке которой формализовано мышление, является само мышление. Однако, формализуя свой источник, эта формальная система формализует и саму себя тоже. Поэтому такая формальная система должна быть полной, так как в формализованном мышлении не может быть ничего невыводимого. Но тогда эта формальная система должна быть противоречивой, потому что в непротиворечивой формальной системе должна существовать истинная невыводимая формула.

Теперь рассмотрим собственно сам гёделевский аргумент, для чего обратимся к сути доказательства важной в данном случае первой теоремы.

Вспомним, первая теорема о неполноте утверждает: если формальная система непротиворечива, то в ней существует невыводимая и неопровержимая формула. Поэтому идея доказательства, найденного Гёделем, заключалась в том, чтобы построить пример формулы, которая была бы и недоказуема, и одновременно содержательно истинна. Таковой Гёдель берёт формулу, которая содержательно утверждает свою собственную недоказуемость, то есть невыводимость из аксиом рассматриваемой формальной системы (так называемое гёделево предложение). Тогда, если эта формула в системе доказуема, то возникает противоречие, так как формула утверждает, что она недоказуема. Но если формула недоказуема, то она истинна, так как утверждает, что она недоказуема и на самом деле недоказуема. Таким образом, построенная формула является истинной недоказуемой формулой.

Для построения такой формулы и доказательства теоремы Гёдель приписал каждому символу, формуле или доказательству рассматриваемой системы номер — натуральное число (гёделева нумерация). Чем, по существу, задал специфический метаязык, который позволил «внутри» самой формальной системы высказывать суждения о её свойствах в форме суждений о числах. Например, невыводимость формулы означает, что в системе не может быть построено число с такими свойствами.

Однако помимо математических идей из этого доказательства следует и то, что человек способен распознавать истинные формулы, даже несмотря на их невыводимость из аксиом системы — иначе, например, истинную невыводимую формулу построить было бы невозможно. Но это значит, что мышление человека способно распознавать истину неким «не математическим» образом, так как в математике истинность определяется только посредством доказательства. Мышление не выводит формулы, будучи ограниченным формальными рамками аксиом системы, а находит их неким неформальным способом, имея возможность как будто наблюдать всю систему целиком, выделяя в ней интересные объекты, и уже только после этого проверяется их выводимость, исследуются пути к строгому доказательству. Поэтому можно предположить, что формальные утверждения — это действительно только некая «часть», некоторый «итог» принципиально неформализуемого, невычислимого явления, алгоритм которого написать невозможно.

С теоремами о неполноте перекликается теорема Тарского о невыразимости арифметической истины, доказанная выдающимся польско-американским математиком Альфредом Тарским в 1936 году.

Согласно этой теореме, множество истинных утверждений арифметики (множество их номеров в гёделевой нумерации) не является арифметическим множеством, то есть множество всех истинных утверждений арифметики не может быть выражено какой-либо формулой арифметики, тогда как множество доказуемых утверждений, наоборот, арифметично и даже перечислимо. Иное, например, означало бы, что истинной невыводимой формулы нет, арифметика противоречива. Таким образом, понятие арифметической истины не может быть выражено средствами самой арифметики. В то же время понятие арифметической истины может быть выражено в теории более сильной, чем арифметика, однако чтобы выразить понятие истины уже этой теории, потребуется теория с ещё более выразительным языком и так далее.

Далее тоже рассмотрим теорему Тарского с точки зрения возможности формализации мышления, но вначале обратим внимание на её значение применительно к другой идее, не менее глобальной — возможности построения теории всего. Как будет понятно, в том же смысле можно интерпретировать и терему Гёделя.

Представим, что мы поняли законы всего сущего и создали теорию всего, то есть написали формулу всего. Из этой формулы будет выводиться всё — все законы физики, алгоритмы всех явлений, в ней будут заключены ответы на все вопросы, всё прошлое и будущее. Теорема Тарского говорит о том, что такая теория не имеет смысла, потому что никакого языка для написания формулы всего недостаточно — всё, что есть, никаким языком выразить невозможно.

Проверим. Формула всего выражает всё, другими словами, формула всего выражает «множество всех истинных утверждений» обо всём. Однако, согласно теореме Тарского, формула, написанная на некотором языке, не может выразить множество всех истинных утверждений, которые можно на этом языке сформулировать, для построения такой формулы нужен более богатый язык. Возникает противоречие, так как, получается, что формула всего не может выразить всё.

Иными словами, как только у нас появляется язык, появляются и утверждения, которые можно на этом языке сформулировать — соответственно, истинные или ложные. И чтобы выразить множество всех истинных утверждений, самого этого языка уже не хватит, нужен более богатый язык — и так бесконечно. Чтобы написать формулу всего, тоже нужен некоторый язык, причём этот язык должен быть максимально богатым, так как формула всего должна выражать всё. Но всё — это в том числе и множество всех истинных утверждений языка, на котором она написана. Но тогда формула всего будет противоречивой. Таким образом, в случае построения теории всего мы пришли к пределу — более богатый язык существовать уже не может; и одновременно пришли к противоречию, так как преодолеть этот предел нужно — нужен ещё более богатый язык. Но преодолеть его нельзя, потому что наш язык самый богатый, и преодолевать его не нужно — ведь нам нужна «окончательная» теория, которая выразит всё.

Проще говоря, для построения теории всего нужно выйти за рамки бесконечности всё более богатых языков. Однако чем богаче язык, тем менее он финитистский, в свою очередь, чем язык менее финитистский, тем меньше в нём ясности, строгости, конечности, а чем меньше в языке этих качеств, тем меньше это язык. Таким образом, получается, чтобы построить теорию всего, нужно выйти за рамки любого мыслимого языка, но сформулировать что-либо можно только на языке. Например, учитывая, что на языке формулируются все задачи и все решения, то выйти за рамки языка означает выйти за рамки всех задач и всех решений, в том числе за рамки задачи построения теории всего и за рамки решения этой задачи — за рамки самой теории всего.

Теперь обратим внимание на свойства теории всего. Теория всего позволила бы точно отделять ложь от истины, фантазию от реальности, так как из теории всего выводится всё прошлое и будущее, она содержит ответы на все вопросы. Но вспомним, теми же свойствами обладает алгоритм мышления, то есть теория всего и алгоритм мышления — это одно и то же. Например, все утверждения, которые только можно сформулировать, следуют из теории всего, в том числе и утверждения о ложности самой теории всего. Точно так же все утверждения следуют из алгоритма мышления. Таким образом, теория всего и алгоритм мышления равносильны друг другу и одинаково противоречивы.

Проверим утверждение, что эти алгоритмы равносильны.

Мир дан нам в ощущениях — мы не воспринимаем мир непосредственно, а только через призму опыта, заключённого в структуре мозга. Поэтому в процессе познания мы фактически изучаем свои ощущения, которые делим на мир объективный и субъективный, явления физические и психические. Первые обусловлены законами физики, вторые законами мышления. Но так как на самом деле речь всегда идёт об одной и той же физической реальности, частью которой является субъект, то речь всегда идёт и об одних и тех же законах природы, лежащих в основании и объективного, и субъективного мира.

В результате ограничение на познание законов физики приведёт к невозможности понять и все законы мышления, так как о том, что ещё не все законы физики поняты, нам подскажет только невозможность непротиворечиво описать все свои ощущения. Наоборот, если станут известны все законы физики, то известны, естественно, станут и все законы мышления. Точно так же если понятны ещё не все законы мышления, то, очевидно, что понятны ещё не все законы физики. Наоборот, если все законы мышления станут понятны, то выводимыми становятся все ощущения и, следовательно, все законы физики. Таким образом, теория всего и алгоритм мышления — это действительно одно и то же. И теория всего, и алгоритм мышления должны объединить физическое и психическое в одной формальной структуре, в которой мир субъектов и объектов станет одним целым, одинаково выводимой будет и движение материи, и порывы чувств.

Проверим с точки зрения сложности. Равна ли она? Теория всего — это некоторый итог мышления, поэтому теория всего не может быть сложнее мышления. Но и мышление не может быть сложнее теории всего, так как теория всего описывает всё, включая само мышление. Таким образом, сложность алгоритма мышления и сложность теории всего равны, то есть и с этой точки зрения эти два гипотетических объекта равносильны друг другу.

Теперь вспомним теоремы Гёделя ещё раз. Ранее мы пришли к выводу, из теорем Гёделя следует, что написание алгоритма мышления равносильно построению максимально не финитистского языка, то есть языка максимально неясного, неоднозначного, не строгого, попросту «не языка». Как мы выяснили только что, то же самое следует и из теоремы Тарского — никакого языка для написания теории всего будет недостаточно, а теория всего и алгоритм мышления — это одно и то же.

Теория всего — это, видимо, физическая теория. Тогда что означает противоречивость теории всего с точки зрения физики? Теория всего описывает некие основания всего, то есть основания всей реальности, всего сущего. Следовательно никакой язык их описать не может. В основании реальности лежит что-то, что в принципе невыразимо никаким языком — и потому в основании мышления лежит, видимо, то же самое. Ещё вернёмся к этим вопросам в других главах, а пока посмотрим на связь теоремы Тарского с алгоритмом мышления с других позиций.

Подобно тому, как средствами самой системы нельзя доказать её непротиворечивость, если система действительно непротиворечива, невозможность выразить понятие истины в теореме Тарского — это невозможность выразить средствами самой теории некоторое утверждение о структуре этой теории. Иными словами, язык любой достаточно богатой и непротиворечивой формальной системы является ограниченно саморепрезентативным. Например, это значит, что никакая непротиворечивая математическая теория никогда не сможет выразить все математические истины, так как не сможет доказать некоторые истины о своей собственной структуре.

Поэтому с точки зрения формализации мышления интерпретировать теорему Тарского можно следующим образом. Возможность описать все законы мышления в терминах какого-либо языка означает, что этот язык возникает сам из себя, так как мышление является источником этого языка и он же мышление полностью описывает. Саморепрезентативность такого языка будет неограниченной, потому что всё, что мыслимо, будет и выводимым, так как все утверждения, которые только могут быть сформулированы, в этом описании уже предопределены, невыводимых утверждений попросту не останется.

Противоречивость такого итога можно заметить в самореференции. Неограниченно саморепрезентативный язык будет самореферентным. Все слова такого языка будут сами себя обосновывать — любое утверждение в конечном итоге будет иметь следствием само себя, так как нет никаких других оснований существования слов, кроме самих слов. Но слова сами по себе не имеют никакого смысла, поэтому язык не может иметь основанием только сам себя, не может описывать все правила, по которым сам возникает. Иначе истинность утверждений не будет обусловлена ничем, так как они не будут выражать ничего, кроме самих себя, никакого внешнего мира. Наглядно иллюстрирует это противоречие такой вид логической ошибки (или демагогического приёма), как порочный круг — когда определение предмета включает в себя свойства самого предмета или когда при доказательстве утверждения используется само это утверждение.

В итоге в интерпретации теорем Гёделя и Тарского, на первый взгляд имеющих только математическое значение, кажется, действительно можно сделать вывод, что описать все законы мышления невозможно, то есть формализация мышления не имеет смысла, алгоритм мышления не может быть построен. Причём так как законы мышления выводит само мышление, то сказанное означает, что какие-то законы мышления не могут быть самим мышлением поняты, найдены, то есть это законы непознаваемые, они должны всегда оставаться в природе нераскрытыми, являясь основанием невыводимой «части» мышления, которую нельзя как-либо описать.

Например, бессмысленность алгоритма мышления означает, что интеллект нельзя запрограммировать, то есть нельзя написать компьютерную программу интеллекта, так как компьютерная программа — это реализованный конкретными средствами алгоритм. Или не может быть такого алгоритма, который бы по условиям задачи выдавал параметры интеллекта, способного её решить. Точно так же бессмысленность алгоритма мышления, по-видимому, говорит и о том, что нельзя перенести личность в компьютер.

Далее, прежде чем перейти ко второй главе, которая тоже посвящена перспективам искусственного интеллекта и где сам интеллект предстанет в новом свете, рассмотрим некоторые общие замечания, касающиеся уже сказанного.

По крайней мере на некоторые из приведённых выше аргументов можно возразить, что в объективной реальности нет формальных систем, поэтому применимость математических теорем для выводов о теории всего или о мышления не ясна и доказательством служить не может. К примеру, если человек ничего не знает о числах, умножении и сложении, то есть его мыслительные процессы не организованы «математическим образом», то может быть, что и математические теоремы к его мышлению неприменимы.

Однако сколько-нибудь глубокое отличие мышления людей, знающих математику и не знающих, тоже не кажется возможным. При этом если считать, что математика имеет смысл только в голове математика, то это уже само по себе означает бессмысленность формализации чего-либо. И ставит вопросы о знании вообще, так как бессмысленность математики за границами математического мышления означает и бессмысленность науки по отношению к объективной реальности. Математика является языком науки — аппарат логики (алфавит, аксиоматика, правила вывода) используется при построении любой научной модели.

Похожее возражение. Как уже говорилось, теоремы о неполноте применимы только к формальным системам с достаточно богатым языком. Например, к арифметике Пресбургера, где нет умножения, или Евклидовой геометрии, где нельзя построить утверждения о натуральных числах, теоремы Гёделя не применимы, то есть эти системы являются и полными, и непротиворечивыми одновременно. Тогда если предположить, что математика некой цивилизации не знает, к примеру, умножения, то, может быть, и построение теории всего, и формализация мышления этой цивилизацией будет возможны?

Однако, ввиду того, что речь идёт о таком явлении как мышление, а оно, в свою очередь, часть природы, то очевидно, что язык этой теории должен быть достаточно богатым, чтобы включать в себя и натуральные числа, и умножение — просто по причине того, что такие формальные языки в принципе могут быть построены мышлением, даже если где-то они ещё и не известны. Поэтому выбор менее выразительного формального языка тоже не поможет формализовать мышление. Такой язык будет попросту ещё менее адекватен процессу мышления, чем язык выразительный. В то же время достаточно богатый язык уже позволит прийти к выводам Гёделя об ограничениях формальных систем, то есть, по сути, позволит формализовать представление о пределах формализации, неосуществимости ясного, конечного и одновременно полного и непротиворечивого описания законов природы. И наконец язык ещё более богатый будет уже слишком общим, не финитистским, допускать существование неконструктивных объектов, связанных с бесконечностью, построение которых «на практике» неосуществимо, то есть утверждения теории, использующей более выразительный язык, будут попросту не очевидными, не однозначными, допускающими толкования, приближаясь в этом к естественному языку.

Одновременно с этим цивилизация, к примеру, ещё не имеющая понятий «механизм», «электричество» или им подобных, очевидно, находится на очень низком уровне развития, потому что ещё не приступила к изучению сколько-нибудь сложных природных процессов. Но так же и цивилизация, математика которой не содержит умножения, очевидно, тоже знает о природе очень мало, ввиду того, что математика, как формальный язык, описывающий структуры, порядок и отношения, предоставляет языковые средства науке и потому напрямую связана с её развитием. Следовательно слишком простая математика будет означать в том числе и то, что знания такой цивилизации ещё слишком просты, чтобы сколько-нибудь близко подступиться к таким идеям, как исследование мозга, искусственный интеллект или теория всего.

Таким образом, несмотря на то, что в объективной реальности нет чисел или умножения, следует исходить из того, что математика по отношению к реальности имеет смысл. С другой стороны, из теорем Гёделя следует, что математика не является полностью адекватным средством описания мира, потому что математика не может формализовать сама себя, а значит, математика в принципе не способна описать всё. Это говорит о том, что математические построения сами по себе не могут служить единственным средством познания мира и требуют сверки с реальностью, а также, что познание мира, как его точного описания, ограничено.

Ограничения математики — это не проблема самой математики, а проявление более общих особенностей познания. Заключающихся в ограниченных возможностях языка в целом, который в принципе не способен описать свой источник и, таким образом, не способен описать весь мир целиком. В то же время лучших средств, кроме формальных, для точного описания мира неизвестно и их не может быть в принципе, так как только однозначный, строгий, ясный язык способен выразить точное знание.


2.

В этой главе рассмотрим перспективы создания сильного искусственного интеллекта с новыми аргументами. И начнём с того, что алгоритм мышления не имеет смысла — мы это только что выяснили. Вспомним, что ещё говорилось в первой главе: алгоритм — это естественное выражение «понимания». Явление понятно, если построен его алгоритм (или, что одно и то же, если явление формализовано, написана формула явления, создана теория, описывающая явление), так как только построение алгоритма позволяет предсказывать течение явления в зависимости от начальных условий, а именно возможность предсказывать и есть суть «понимания». Другими словами, алгоритм позволяет «вычислять» течение явления, последовательно преобразовывая данные в результат по некоторым правилам. И так как алгоритм мышления не имеет смысла, то мышление «непонятно», «невычислимо», возможность предсказывать результат мыслительного процесса ограничена принципиально, в отличие от тех явлений, алгоритм которых построить можно.

Надо подчеркнуть, что речь идёт именно о принципиальной невозможности выразить мышление алгоритмом, то есть понимание мышления ограничено принципиально, качественно, а не о том, что алгоритм мышления, к примеру, только лишь «очень сложен». Очевидно, что явление, которое в принципе «не алгоритм», отличается от явления, алгоритм которого «очень сложен». Например тем, что «очень сложный» алгоритм не равен теории всего, поэтому такой алгоритм в принципиальном смысле может быть построен, хотя это и может быть затруднительно или даже вообще невозможно на практике.

Вспомним первую главу ещё раз. В ней мы исходили из того, что мышление — это «обычное» явление. Но, как оказалось, в отличие от «обычных» явлений, алгоритм мышления не имеет смысла, а значит, мышление — это явление явно «не обычное», так как «обычные» явления по крайней мере в принципиальном смысле познанию доступны, их алгоритм может быть построен.

В чём конкретно заключается «необычность» мышления, почему мышление принципиально непонятно, почему оно в принципе «не алгоритм»? Чтобы приблизиться к ответу на эти вопросы, рассмотрим, как организовано мышление в мозге.

Как известно, мы мыслим сетью нейронов. Все нейроны нервной системы объединены в единую сеть, однако так как самым значительным их скоплением является головной мозг, то мыслим мы тоже в основном той частью нейронной сети, которая его образует. Поэтому дальше с мышлением будем связывать именно мозг и его особенности. Также, надо заметить, утверждение, что мы мыслим нейронной сетью головного мозга на самом деле тоже упрощает реальную картину, потому что за счёт перемещения биологически активных веществ, в том числе в пространстве между нейронами, мыслит сразу весь объём мозга, а не только сеть самих нейронов. Но пока об этом уровне мышления известно относительно немного, поэтому сейчас мы не будем заострять на нём внимание, на выводы это всё равно не повлияет.



Рис. 1. Схематичное изображение нейронной сети. Кружочками обозначены нейроны, стрелочками — их связи. В отличие от изображённой, реальная биологическая нейронная сеть во множестве содержит связи обратные (от нейронов ближе к выходу к нейронам ближе ко входу) и связи нелокальные (напрямую соединяющие отдалённые участки сети) и в целом имеет много более сложную неоднородную архитектуру, подразделённую на зоны и отделы, архитектура связей в которых отличается. В том числе выход в нейронной сети мозга в некотором смысле находится там же, где и вход, так как нервные волокна, передающие сигналы «вниз» к мышцам и железам, проходят через нижние отделы мозга и спинной мозг, где происходит первичная обработка сигналов рецепторов.

На входе сеть нейронов имеет рецепторы внешней и внутренней среды, а на выходе мышцы и железы. Это означает, что задача мышления — перевод чувствительности в двигательную активность. Нервная система организует работу мышц и посредством желёз координирует с работой мышц работу остального организма.

Иными словами, в общем контексте стремления всего живого к самосохранению и размножению нервная система ставит цели и формирует последовательности моторных действий по их достижению. По мере усложнения мозга в ходе эволюции и его усложнения в процессе обучения цели и последовательности действий становятся всё более сложными, так как по мере накопления опыта в их формировании внешняя и внутренняя среда учитываются всё более сложным образом, со всё большими подробностями.

Указанные свойства мозга позволяют сформулировать, что такое интеллект, мышление — это способность ставить задачи и решать их, поддержанная способностью обучаться, чтобы со временем ставить задачи точнее и решать их быстрее. Все задачи ставятся и решаются мозгом в контексте самой общей задачи любой жизни — задачи самосохранения и размножения, наиболее полного удовлетворения этих потребностей, то есть, обобщённо, в контексте стремления к лучшему качеству жизни. Иными словами, интеллект — это способность формировать тактику и стратегию поведенческих действий достижения целей. В свою очередь, сложность тактики и дальность стратегий связана со способностью предсказывать события, то есть с полнотой и точностью знаний о себе и окружающем мире. Поэтому силу интеллекта можно связать с объёмом и сложностью опыта.

Забегая вперёд, стремление организмов к самосохранению и размножению связано с теми физическими особенностями биологических систем, которые лежат в самом основании любой мыслимой жизни и начинаются ещё в неживой природе. Это неравновесность, нелинейность, хаос и самоорганизация. Другими словами, стремление к самосохранению и размножению не задано устройством какого-либо органа или системы организма, а есть физическая суть существования всех биологических систем на всех уровнях — от клетки или многоклеточного организма до социума и биосферы. Поэтому любое усложнение организмов в ходе эволюции, в том числе появление нервной системы и её усложнение в процессе обучения, — это усложнение функции самосохранения и размножения, возможность учитывать среду точнее и полнее и формировать всё более сложную тактику и всё более далёкую стратегию поведенческих действий в реализации этих стремлений, а не добавление к функции самосохранения и размножения чего-либо иного, нового, внешнего. Тем не менее пока только обратим внимание на эту принципиальную особенность жизни, немного больше скажем в конце главы и подробнее, как к аргументам, вернёмся к физическим основаниям жизни в восьмой главе.

Итак, нейронная сеть мозга — это единая система чрезвычайно сложным образом связанных между собой нейронов. Связывают нейроны их отростки (аксоны и дендриты). Они объединяют как близкие, так и удалённые друг от друга нейроны, могут быть обратными и прямыми. У каждого нейрона могут быть десятки тысяч связей с другими нейронами по всему пространству мозга, а также в мозге постоянно идёт более или менее активный процесс роста и отмирания связей.

В том числе связи нейронов разделяются на тормозные и возбуждающие, причём и тех и других приблизительно поровну. Тем самым в мозге реализован баланс возбуждения и торможения, когда возбуждение одних нейронов в пространстве сети приводит к взаимосвязанному торможению других и наоборот по принципу «если где-то отнимется, то в другом месте обязательно прибавится».

Заметим, по-другому быть и не может, так как если нервная система не будет представлять из себя единую систему, в которой всё в высшей степени взаимосвязано и взаимозависимо, то невозможна будет точно координированная активность всех мышц и желёз. Например, вследствие взаимозависимости, активность одних рецепторов и молчание других приведёт к тому, что одни нейроны в пространстве сети будут более активны, а другие — в точной координации с первыми — менее. Как следствие, такая же картина активности будет и на выходе нейронной сети. В результате, к примеру, сгибательные мышцы будут больше напряжены, разгибательные меньше — конечность будет сгибаться. Изменение в сигналах рецепторов вызовут соответствующее перераспределение активности мышц мышечного аппарата.

Очень упрощённо, суть мышления в том, что на входе у нейронной сети гораздо больше нейронов, чем на выходе, поэтому по мере прохождения по сети беспорядочные сигналы рецепторов перемешиваются и сами собой «сжимаются» в упорядоченную активность нейронов на выходе сети, управляющих мышцами и железами.

Более точно, афферентных нервных волокон — непосредственно проводящих нервные импульсы в головной мозг — около 3 млн. Два из которых связаны со зрительными рецепторами, а один несёт информацию от спинного мозга, в котором происходит первичная обработка сигналов от остальных рецепторов. В то же время эфферентных волокон, несущих нервные импульсы от головного мозга к мышцам и железам, всего около 200 тыс.. Например, указанное соотношение объясняет, почему именно зрение вносит наибольший вклад в сознание — потому что импульсов от зрительных рецепторов поступает в мозг больше, чем от других рецепторов.

Процесс «перемешивания и сжатия» сигналов рецепторов в нейронной сети по-другому можно назвать конкуренцией всего со всем, в результате чего остаётся самое важное. Точно так же можно сказать, что «перемешивание и сжатие» имеет смысл распознавания неких абстрактных признаков условий, их ключевых особенностей. От общих признаков на входе нейронной сети, где по причине большого количества входов «сжатие» минимально, ко всё более конкретным на выходе. Тем самым поток данных от рецепторов трансформируется в мозге в конкретный образ, цель действий. В результате поведение связано не просто с условиями, а с их важными для животного особенностями, так как то, какие признаки условий будут выделены, зависит не только от самих условий, но и от устройства нейронной сети, то есть от опыта животного. 

Распознавание происходит от общих признаков на входе нейронной сети ко всё более конкретным на выходе. Этот же процесс суть формирование мышечной активности от действий общего характера до учитывающих нюансы условий. Поэтому выходы к мышцам и железам тоже есть на разных уровнях нейронной сети мозга, и по мере прохождения нервного возбуждения по сети мышечная активность надстраивается элементами, всё более тонко учитывающими внутренние и внешние условия — от тонуса, вегетативных функций, объёмных мышечных синергий, рефлекторных и циклических движений к движениям пространственного поля, предметным действиям, речи, письму.

При этом наличие в нейронной сети мозга обратных связей приводит к тому, что её высокие уровни могут влиять на низкие. Значение этого влияния в том, что уже сформированное поведение может непосредственно влиять на поведение ещё только формирующееся, чтобы формирующееся по смыслу «продолжало» сформированное. В результате появляется возможность создавать связанные общим смыслом цепочки действий, то есть проводить последовательное целенаправленное поведение, в том числе фразы языка и алгоритмы решения задач.

Теперь обратим внимание на одно важное обстоятельство. В нашем описании выходит, что, с одной стороны, по мере прохождения по сети сигналы рецепторов «перемешиваются и сжимаются» в активность выходных нейронов, управляющих мышцами и железами, а с другой — в этом же процессе происходит распознавание условий, то есть тот же процесс «перемешивания и сжатия» приводит к формированию конкретного образа, цели действий. На самом деле всё это действительно один и тот же процесс прохождения сигналов рецепторов от входа к выходу нейронной сети. Способность одновременно и распознавать условия, и строить последовательности управляющих мышцами сигналов нейронной сети придают обратные связи.

Если убрать обратные связи, то любой этап описанной работы будет только распознаванием условий — «перемешиванием и сжатием», а активность нейронов на выходе сети будет кодировать отнесение рецепторного сигнала к некому классу условий. К примеру, сеть будет отличать изображения кошек от изображения собак — высокая активность одних нейронов на выходе будет означать кошку, других собаку.

Но если есть обратные связи, то появляется динамика, потому что возбуждение от рецепторов получает возможность циркулировать — теперь оно проходит не только от входа к выходу, но и обратно, влияя на нижележащие нейроны. Тем самым теперь не только вход влияет на выход, но и выход непосредственно влияет на вход, поэтому работа сети усложняется, а возможности растут.

Суть роста возможностей в том, что активность выходных нейронов теперь будет представлять из себя определённые последовательности нервных импульсов, связанных общим смыслом — и между собой, и с распознаваемыми условиями. У нейронной сети появляется новая функция — построение связанных последовательностей сигналов. Но функция распознавания при этом не исчезает, а лишь объединяется с новой в одно целое. В результате, если на выходе мышцы, то работа сети станет построением неких последовательностей действий, связанных с кошками и собаками.

Заметим также, высокая взаимозависимость нейронов в сети означает, что строгое разделение опыта/функций в пространстве сети не имеет смысла и ведёт к противоречиям. Поэтому можно говорить только о большей или меньшей концентрации того или иного опыта в том или ином отделе мозга, в зависимости от особенностей его архитектуры, то есть от того, что эти особенности архитектуры привносят в активность выходных нейронов сети. Проще говоря, в нейронах самих по себе нет какого-либо опыта, кроме «умения» принимать и передавать возбуждение, их иное функциональное значение возникает только в контексте всех остальных нейронов сети и потому не может быть от них строго отделено. К примеру, знаменитые «нейроны бабушки», «нейроны новизны» или иные другие нейроны «чего-то конкретного» — это не нейроны, в которых единолично сконцентрирован опыт бабушек, а всего лишь те нейроны, которые неизменно активны, когда человек думает о каких-либо бабушках или видит что-то новое. Естественно, в этот момент активны и множество других нейронов по всему мозгу (вспомним о балансе возбуждения и торможения), но их активность не связана с бабушками и новизной столь однозначно.

Как связанных с распознаванием общих признаков ситуации, работа низких уровней нейронной сети психически ощущается как эмоционально-мотивирующее самоощущение, в это время формируется моторика общего характера меняется тонус мышц, пульс, частота дыхания, поза. По мере приближения к коре распознаются всё более частные признаки условий и происходит их обобщение в целое, вследствие описанного «сжатия». Другими словами, по мере приближения к коре эмоционально-мотивирующее самоощущение «концентрируется» в конкретное направление действий, учитывающее условия всё более точно, и ощущается как конкретный целостный образ, фраза. От низкого уровня абстракций к высокому, от общего направления к конкретной цели. В результате в сознании одновременно есть и эмоционально-мотивирующее самоощущение, как восприятие смысла действий, и конкретное содержание, как восприятие нынешней цели действий.

Рост уровня абстракций по мере прохождения возбуждения от входа сети к выходу — это способность выделять всё более сложные признаки условий. Например, если мозг других животных может выделять в условиях более или менее сложные образы непосредственно окружающих их объектов, то человеку за счёт большей сложности его мозга (упрощённо говоря, за счёт большего количества слоёв в нейронной сети и связей нейронов) широко доступны уже и «образы образов», то есть понятия языка — абстракции более высокого уровня, чем образы конкретных объектов. К примеру, понятие «яблоко» обобщает все яблоки, которые как-либо известны человеку. Более того, человек способен распознавать в условиях в том числе такие сложные, глобальные и уже непосредственно не наблюдаемые «образы», как политика, физика, время, вселенная и т. д.. Как следствие, в отличие от более простых животных, поведение человека, тактика и стратегия его действий, формируется не только «здесь и сейчас», вне сколько-нибудь развёрнутого представления об окружающем мире, о его прошлом и будущем, но и на таких же сложных и глобальных пространственных и временных масштабах.

На полях заметим, возможно, что ещё более высокие уровни абстракций могут быть доступны гипотетическим представителям инопланетной жизни. Интеллект которых, таким образом, будет выше человеческого, а тактика и стратегия поведения будет ещё более сложной и глобальной — и непонятной человеку, так же, как человеческие действия непонятны, например, человекообразным обезьянам.

Все нейронные сети обучаются, то есть, взаимодействуя со средой, нейронная сеть меняется и после обучения обрабатывает сигналы рецепторов уже по-другому. Непосредственно обучение происходит за счёт изменения весов связей нейронов — чем активнее связь, тем всё больше становится её «вес» в торможении или возбуждении нейрона. Дело в том, что разные условия — это разная конфигурация активности рецепторов, а значит, и отличающаяся картина взаимозависимых процессов возбуждения/торможения внутри нейронной сети, то есть разные условия активизируют сеть по-разному. Причём больше всего активизируют сеть не просто условия, а то, что в них повторяется, их неизменно повторяющиеся признаки, характеризующие эти условия. Тем самым по мере повторения эти признаки всё больше меняют сеть «под себя». В результате разный опыт всё больше разделяется в пространстве сети, что, как следствие, приводит к активизации и разных выходных нейронов — нейронная сеть обучается, реакция на разные стимулы становится всё более индивидуальной, учитывающей их особенности всё более точно.

В свою очередь, после обучения распознавание даже минимума знакомых признаков (например, если стимул частично скрыт, зашумлён, искажён или только отчасти похож на ранее виденные) не помешает нейронной сети узнать ранее запомненное. Дело в том, что относительно большой вес активизированных знакомыми признаками связей приведёт к тому, что именно эти связи будут играть главную роль в активизации нейронов на выходе сети — сеть узнает в условиях знакомое, поэтому в целом реакция сети будет такой же, как на ранее многократно наблюдаемый объект.

Иными словами, в ходе обучения сеть учится распознавать логику происходящего, основные свойства окружающего мира, суть условий — то есть то, что неизменно повторяется, а значит, является в этих условиях важным, основным, определяющим, что характеризует эти условия, «сшивает» внешне разные условия некой внутренней общностью. Поэтому после обучения ответ сети происходит прежде всего в соответствии с сутью происходящего. В то же время реакция сети немного изменится под влиянием контекста остальных особенностей нынешней ситуации. В результате мы узнаем знакомый объект даже в новом ракурсе — и одновременно тонко скорректируем движения, чтобы им воспользоваться.

Скажем о кратковременной памяти. Как говорилось, возбуждение в мозге циркулирует. Кратковременная память представляет собой до некоторой степени выделенную и наиболее активную составляющую этой циркуляции (как поток в потоке), в который вовлечены ансамбли нейронов, связанные с тем, что попадает во внимание. Внимание отражает нынешнюю цель поведения, в контексте которой формируется реакция сети (наибольшая активность этих нейронов, как аттрактор, притягивает фазовые траектории других нейронов мозга). При этом то, что попало во внимание, не исчезает из кратковременной памяти сразу как только внимание переключится, а ещё некоторое время выделенная активность этих нейронов сохраняется, хотя и несколько менее энергичная. По этой причине запоминается прежде всего то, что ранее попало во внимание (вспомним, чем более активен нейрон, тем больший вес приобретают его связи в активизации других нейронов), в ином случае запоминалось бы много лишнего, маловажного, всё подряд.

«Нейросетевая» организация мышления очевидна: новый опыт — это новое поведение, новая последовательность поведенческих действий. При этом невозможно иметь в мозге хранилище опыта, заранее приспособленного под все возможные нюансы условий, которые только могут встретиться животному. Следовательно нужна такая система, которая будет способная сама собой усложняться, только по причине взаимодействия со средой. В результате в структуре этой системы сама собой будет формироваться картина мира, где представлены важные для животного признаки среды и реакция на них. И чем система изначально сложнее, тем большему животное сможет научиться, сложнее поведение построить. Таковой системой природа создала нейронную сеть, а её начальная сложность связана с наследственными факторами.

Итак, исходя из этого краткого описания работы мозга, можно предположить, что ответ на вопрос о причине «необычности» мышления состоит в том, что мышление изменчиво. Именно обучение — способность усложняться под воздействием среды — и отличает мышление от «обычных» явлений, алгоритм которых всегда остаётся неизменным.

Это же, вероятно, есть и ответ на второй вопрос из начала главы — о причине «непонятности» мышления, то есть о причине того, почему мышление «не алгоритм». Действительно, если построение алгоритма явления равносильно нахождению всех законов этого явления, то в мозге всего набора законов мышления нет, ведь часть законов мышления, по сути, «растворена» в среде, взаимодействие с которой обучает нейронную сеть. Как следствие, до тех пор, пока вся среда, которая только может повлиять на опыт, не изучена, то и алгоритм мышления построить нельзя, мышление будет оставаться «непонятным». Поэтому только в том случае, если мы изучим всю среду, которая только может повлиять на опыт, то только тогда мы сможем установить все законы мышления, сможем построить его алгоритм, и мышление станет «понятным».

Однако на самом деле, конечно, не станет. В первой главе мы выяснили, что алгоритм мышления равносилен теории всего, поэтому «среда, которая только может повлиять на опыт» — это, получается, вся среда, то есть любая среда может повлиять на опыт. Но «вся среда» изучена быть не может, так как теория всего не имеет смысла, соответственно и алгоритм мышления тоже не имеет смысла. Также можно вспомнить, что алгоритм мышления и сам по себе тоже не имеет смысла.

Тем не менее в итоге вроде бы всё сходится: «необычность» и принципиальная «непонятность» мышления есть следствие того, что мозг — это нейронная сеть, а она обучается. Ход мыслительных процессов постоянно меняется — становится сложнее, если человек учится новому, или упрощается, если он забывает то, чему обучился. Поэтому если именно подобная изменчивость, связанная с обучением, делает мышление «не алгоритмом», то алгоритм мышления действительно оказывается гипотетической и противоречивой сущностью, которой нигде нет.

Однако, если всё сказанное верно, то, похоже, это кардинально меняет ситуацию с созданием искусственного интеллекта. Ранее мы исходили из того, что все искусственные системы работают по некоторому алгоритму, но алгоритм мышления не имеет смысла, следовательно искусственная система воспроизвести мышление в принципе не способна. Но если мы мыслим нейронной сетью, а они уже по своей природе «не алгоритм», то ограничения на создание алгоритма мышления вроде бы не имеют значения, так как можно просто создать равную сложности мозга искусственную нейронную сеть. Или, например, в первой главе был сделан вывод о невозможности переноса личности в компьютер, так как алгоритм мышления не имеет смысла. Но что нам помешает попросту копировать нейронную сеть мозга? Правда, конечно, возникает вопрос — каким образом можно создать аналог принципиально непонятного явления? Как копировать то, что нельзя предсказывать?

Это вопросы одного порядка, тем не менее к вопросу переноса личности отдельно вернёмся в следующей главе. В этой же главе ответим на первый вопрос: возможно ли вообще создание человеком искусственной нейронной сети, сложность которой приближается к сложности его мышления? То есть фактически ответим на один из основных вопросов статьи: сможет ли человек создать искусственный интеллект, который приближается к сложности его собственного интеллекта или даже превосходит её?

Но прежде коротко скажем, что может произойти, если проблем в создании такого интеллекта не возникнет. Если искусственный интеллект, превосходящий человеческий, создать удастся, то он, в свою очередь, тоже сможет создать интеллект ещё более сложный, чем он сам, и сделать это быстрее человека. Тот ещё сложнее и ещё быстрее — и так искусственный интеллект, стремительно усложняясь, быстро достигнет максимально возможного физически уровня. С точки зрения человека, человечества, его будущего, это очень неоднозначная перспектива, но всё-таки вернёмся к вопросу о её потенциальной осуществимости.

Осуществимость сталкивается с проблемами ещё на старте. Дело в том, что искусственная нейронная сеть — это как раз алгоритм, вычислительная система. Все искусственные системы работают по некоторому алгоритму и искусственные нейронные сети тоже. Правда, искусственная нейронная сеть — это алгоритм не совсем обычный, обучающийся, однако любой обучающийся алгоритм может быть заменён обычным прямым, хотя это может быть сложно и даже неосуществимо на практике, тем не менее никаких принципиальных противоречий при этом не возникнет. Но мы установили, что алгоритм мышления не имеет смысла в принципе, то есть заменить работу биологической нейронной сети прямым алгоритмом в принципе невозможно. Это означает, что биологическая нейронная сеть, которая принципиально «не алгоритм», чем-то кардинально отличается от искусственных нейронных сетей, которые алгоритм.

Таким образом, уже становится понятно, что наши недавние выводы неверны — «не алгоритмом» биологическую нейронную сеть делает не обучение, а что-то другое, потому что искусственные нейронные сети обучаются, но от этого они не перестают быть алгоритмом.

Вспомним, ранее был приведён аргумент, что возможность предсказывать поведение человека ведёт к противоречиям. Потому что если предсказание человеку сообщить, то, как кажется, ему ничего не помешает своё поведение изменить и поступить не так, как предсказано. В результате, получается, что предсказание может сработать, только если его не сообщать. Однако возможность изменить поведение противоречит тому, что если работа какой-либо системы известна, то ничего не должно помешать предсказывать её поведение во всех ситуациях. В случае если бы можно было описать биологическую нейронную сеть, то её работа стала бы известна, но, как кажется, противоречия с предсказанием при этом не возникло бы. Мы сообщаем человеку рассчитанное будущее, на этой информации нейронная сеть мозга обучается, её работа меняется, и человек ожидаемо поступает иначе, чем было предсказано. И наоборот, если мы предсказание сообщать не станем, то оно действительно должно быть точным.

Тем не менее это разрешение противоречия кажущееся. Потому что если биологическая нейронная сеть может быть описана, то есть работу биологической нейронной сети хотя бы в принципиальном смысле может воспроизвести искусственная нейронная сеть, то ничего принципиально непредсказуемого в работе мозга не осталось бы. Подставляя сигналы рецепторов, можно было бы моделировать поведение субъекта в любых ситуациях, в том числе с учётом изменения мозга в процессе обучения. Поэтому, если бы биологическую нейронную сеть можно было бы описать, то, по крайней мере в принципиальном смысле, стало бы возможным предсказывать поведение во всех ситуациях, независимо от знания или незнания человеком предсказания. Но это значит, что противоречие действительно сохраняется, так как, с одной стороны, поведение вроде бы должно стать полностью предсказуемым, с другой — всё равно интуитивно кажется, что всегда есть возможность поступить иначе, чем предсказано, и никак не верится, что предсказание может этому помешать.

Интуиция в данном случае подсказывает верно. Например, если бы можно было построить теорию всего, то ничего непредсказуемого в природе не осталось, поэтому изменить поведение было бы уже невозможно ни при каких обстоятельствах, всё прошлое и будущее находилось бы «внутри» теории всего, в теории всего «все ходы записаны». Но теория всего не имеет смысла — и одновременно теория всего равносильна алгоритму мышления. Однако именно построению алгоритма мышления равносильно описание биологической нейронной сети. Повторим, почему: если биологическую нейронную сеть можно описать, то её можно заменить искусственной нейронной сетью, искусственная нейронная сеть — это алгоритм, который в принципиальном смысле можно заменить прямым алгоритмом, этот алгоритм будет алгоритм мышления, но алгоритм мышления и сам по себе не имеет смысла, и равносилен теории всего, которая тоже не имеет смысла. Таким образом, действительно, возможность предсказывать поведение является противоречивой. Более того, как оказывается, если описать работу биологической нейронной сети нельзя, то противоречивой является возможность предсказывать любое поведение субъекта, вне зависимости от того, известно предсказание или не известно.

То есть, как выясняется, противоречие с предсказанием разрешается «в другую сторону». Точно предсказывать поведение, наоборот, нельзя ни в каких ситуациях, а не только в зависимости от того, узнает предсказание субъект или нет. Действительно, если мышление принципиально «не алгоритм», то вполне естественно, что предсказывать поведение нельзя, ведь без знания алгоритма это невозможно, алгоритм — это выражение понимания явления, поэтому принципиальная невозможность построения алгоритма мышления — это принципиальное «непонимание» мышления и, соответственно, принципиальная непредсказуемость поведения, высокая неопределённость таких предсказаний, которая в принципе неустранима.

Однако тогда снова встаёт вопрос, что же делает биологическую нейронную сеть «не алгоритмом»? Что это, если не обучение, которое мы уже исключили? Тем не менее и этот вопрос тоже оставим на потом — для следующей главы. Потому что насчёт того, что искусственные нейронные сети не смогут ни превзойти, ни даже достичь уровня интеллекта человека, есть более простые аргументы, где предполагаемое отличие биологических и искусственных систем не имеет значения. Именно эти аргументы мы и рассмотрим далее в этой главе.

А чтобы они были ясны, вначале разберёмся с некоторыми особенностями искусственных нейронных сетей. В частности, ответим на вопрос, почему искусственные нейронные сети, являясь алгоритмом, тем не менее действительно являются «непонятными». Как такое возможно, если алгоритм — это выражение понимания?

Вспомним, ранее мы пришли к выводу, что «необычность» нейронных сетей в том, что они обучаются. Их «непонятность» мы тогда тоже связали с обучением: на основании того, что нейронные сети обучаются, мы предположили, что нейронная сеть «не алгоритм», а невозможность написать алгоритм явления — это и есть суть непонимания. Но сейчас выяснилось, что искусственные нейронные сети — это и алгоритм, и они же обучаются. Что же тогда делает их «непонятными»?

Короткий ответ дадим сразу. В начале главы говорилось, что алгоритм может быть очень сложным — и по этой причине он будет непонятным (или, скорее, малопонятным). А может быть так, что явление в принципе «не алгоритм», поэтому такое явление будет непонятным уже в принципе, ведь его алгоритм не просто сложен, а вообще не может существовать. Искусственная нейронная сеть — это именно тот алгоритм, который всего лишь сложен, а биологическая нейронная сеть — это не алгоритм в принципе. Далее подробнее рассмотрим, почему искусственная нейронная сеть — это алгоритм сложный, и главное — что из этого следует с точки зрения создания искусственного интеллекта.

Если животному обучение необходимо из-за того, что невозможно иметь в мозге хранилище опыта, заранее приспособленного под все возможные нюансы условий, которые только могут животному встретиться, то человеку, очевидно, проще было бы сразу написать прямой алгоритм решения задачи, а не тратить время на создание и обучение нейронных сетей. Тогда зачем нужны искусственные нейронные сети?

Алгоритм — это выражение понимания, но сам по себе алгоритм — это решение, то есть алгоритм — это инструкция, описывающая порядок действий исполнителя для решения задачи. Поэтому какая задача — сложная она или простая, таким же сложным или простым будет её решение, и таким же будет «понимание» этого решения — оно будет понятно меньше или больше. И на некотором уровне сложности задач прямой алгоритм решения написать становится делом на практике неосуществимым, так как он становится уже слишком сложным и потому слишком непонятным.

Таким образом, ответ на вопрос, зачем нужны нейронные сети, заключается в том, что искусственные нейронные сети используются в тех случаях, когда прямой алгоритм решения задачи написать очень сложно, например, ввиду множества данных и нелинейных отношений между ними, поэтому нужен какой-либо иной способ решения.

«Иной способ решения» в этом случае может быть только один — его суть в том, чтобы задача решалась «сама собой», то есть без прямого участия интеллекта человека, ведь человеческий интеллект затрудняется написать прямой алгоритм её решения. Другими словами, «иной способ решения» — это должен быть «непонятный процесс решения». И он же «непрямой процесс решения». Потому что был бы процесс решения понятен, мы бы и сами решили задачу, то есть написали прямой алгоритм решения.

Способ решения задач, который удовлетворяет этим особенностям, есть — это искусственная нейронная сеть и обучение. По аналогии с мозгом (который тоже никто заранее не программирует под решение различных конкретных задач, встающих перед животным, направленно внося изменения в его структуру) создаётся искусственная нейронная сеть, которая затем обучается предъявлением обучающих примеров. Точно так же, как и описано в этой части ранее в отношении мозга, искусственная нейронная сеть запоминает в них нечто неизменно повторяющееся, то есть их некие общие признаки, иначе говоря, суть наблюдаемого, логику происходящего, если сеть наблюдает события в динамике. После чего сможет узнать эти признаки в изображении, которого не было в обучающей выборке, верно отнеся его к соответствующему классу, сможет построить фразу или прогноз развития событий. То есть сеть решает задачу как будто «сама», в ходе обучения, без прямого задания пути к решению человеком. В свою очередь, так как алгоритм решения непонятной задачи нам, естественно, непонятен, а искусственная нейронная сеть — это и есть этот алгоритм решения, то он, соответственно, тоже должен быть нам непонятен.

В скобках заметим, получившие широкую известность чат-боты типа ChatGPT, построенные на основе нейронный сетей, обучаются по тому же общему принципу. Сети предъявляется выборка текстов, на основании которых она запоминает, как сочетаются слова. Точнее говоря, сеть выявляет логику построения фраз, статистику — то, какое слово «обычно», то есть чаще всего, следует за другим словом в контексте предыдущих слов фразы. Поэтому в дальнейшем сеть может сама последовательно слово за словом «достраивать» заданный вопрос наиболее вероятными — наиболее «логичными» — в его контексте словами, тем самым получается ответ (точнее говоря, речь идёт не о словах, а о токенах, токен в данном случае — это слово или словосочетание, которым можно продолжить фразу). Если пользователь что-то отвечает, например, не соглашается с ответом сети, то его слова, таким образом, дополняют контекст предыдущего диалога, и в этом новом контексте сеть даёт другой ответ — спорит с пользователем или соглашается, что ошиблась. Например, отчасти похожим образом добавление к предыдущему ответу калькулятора нового действия приведёт к изменению ответа. В нейронных сетях контекст — это, по сути, упрощённый аналог кратковременной памяти мозга. Её объём, то есть объём контекста, который может воспринимать сеть, ограничен — это приблизительно десятки страниц — и растёт в новых моделях. При этом так как после обучения такие системы ничего новое запомнить уже не могут (веса связей фиксируются), то запоминание предыдущего диалога с конкретным пользователем происходит посредством отдельной памяти, то есть предыдущие диалоги сама сеть не запоминает, они не меняют её опыт (не меняют веса связей), в отличие от мозга, который меняется постоянно — обучается или забывает. Интересно, что, регулируя параметры работы сети, можно сделать так, что сеть будет «достраивать» вопрос пользователя по-разному. Например, наиболее вероятными в его контексте словами ответа — и тогда ответ будет более «академичным», сухим, более точно следовать текстам обучающей выборки. Или менее вероятными — и тогда ответ будет более творческим, субъективным, но, возможно, менее адекватным.

Непосредственно «непонятность» вычислений искусственной нейронной сети заключается в множественности однотипных операций: поступающие в нейрон сигналы умножаются на коэффициент веса связи, получившиеся по всем связям значения суммируются, после чего в соответствии с функцией активации нейрона вычисляется его выходной сигнал — и так с каждым нейроном в слое, последовательно переходя от слоя к слою. Мысленно проследить эти вычисления невозможно, поэтому по факту они приобретают смысл только в конце процесса, когда активизируются выходные нейроны сети, обозначающие тот или иной ответ сети.

Таким образом, ответ на вопрос о причинах «непонятности» искусственных нейронных сетей заключается в том, что искусственные нейронные сети непонятны именно вследствие непонятности их вычислений, а не из-за наличия обучения. Сложность не позволяет написать нейронную сеть сразу готовой, не требующей обучения, как пишутся прямые алгоритмы. Поэтому обучение — это, наоборот, следствие непонятности, а не причина. Искусственная нейронная сеть до обучения — это фактически алгоритм-заготовка, которая станет алгоритмом решения конкретной задачи только после обучения, и чем изначально сложнее сеть, тем большему она сможет научиться, более сложные задачи сможет решать. Проще говоря, в ходе обучения посредством обучающих примеров нейронная сеть «подгоняется» под задачу — до тех пор, пока задача не будет решена. После этого веса связей фиксируются, обучаться сеть больше не может (различными модификациями опыта могут продолжать заниматься только разработчики сети, имеющие доступ к её настройкам, как, например, в случае ChatGPT), иначе новый опыт будет стирать старый (в чём заключается проблема пластичности/стабильности), замещая его опытом, всё менее зависимым от того, который предусматривался при создании сети.

Однако — и это важный вывод — если работа нейронной сети непонятна, то создавать нейронные сети можно только наугад. Это очевидно и с той точки зрения, что если решение задачи непонятно, то его можно только угадать, пользуясь какими-то общими соображениями о пути к решению. Точно так же по неким общим соображениям создаётся нейронная сеть, и так же более или менее наугад она затем обучается, из-за чего никогда заранее не известно, приведёт ли данная структура нейронной сети и данное обучение к удовлетворительному решению задачи.

Можно заметить, приблизительно так же «непонятен» алгоритм клеточного автомата, поэтому его тоже можно создавать только наугад. В клеточном автомате заданы правила взаимодействия клеток, их появления и исчезновения. Запустив клеточный автомат, можно наблюдать на экране появление, исчезновение и эволюцию различных структур клеток. Но необходимость запоминать состояние множества клеток приводит к тому, что проверить, к чему приведут те или иные особенности правил можно, только запустив автомат на компьютере, то есть вначале надо задать правила более или менее наугад, а только потом, запустив на компьютере, можно будет узнать, что получилось. Нейронная сеть точно так же более или менее наугад создаётся и более или менее наугад обучается.

Если посмотреть на создание искусственной нейронной сети с более общих позиций, то можно написать алгоритм, который, например, будет рассчитывать параметры деталей шкафа в зависимости от объёма вещей, но не имеет смысла такой алгоритм, который будет рассчитывать нейронную сеть в зависимости от условий задачи. В отличие от шкафов, задача у которых одна — вмещать вещи, поэтому и алгоритм их создания один на все шкафы, задача нейронных сетей состоит не в решении какой-то одной конкретной задачи, а в решении задач вообще. Каждая нейронная сеть — это новый алгоритм, возможно, подходящий для решения какой-либо неизвестной пока задачи. Поэтому алгоритм, который на входе будет иметь условия задачи, а на выходе алгоритм, который способен её решить, будет равносилен алгоритму решения всех задач, которые только могут решить алгоритмы, а значит, выходу за все эти задачи, так как задача построить алгоритм решения всех задач, которые только могут решить алгоритмы, очевидно, лежит снаружи задач, которые только могут решить алгоритмы. Естественно, это противоречие, так как алгоритм решения всех задач, которые только могут решить алгоритмы, получается, не может быть алгоритмом, ведь он должен решать задачу, которая не может быть решена алгоритмами. Другими словами, построение такого алгоритма точно так же не имеет смысла, как построение теории всего, которая равносильна выходу за всё, или алгоритма мышления, который равносилен выходу за мышление, за опыт. Можно обратить внимание на соответствие этих выводов рассуждениям из начала первой главы о том, что всё мыслимое, всё сущее или самый богатый язык — это уже не что-либо сущее, что-либо мыслимое или какой-либо язык.

И действительно, работа искусственных нейронных сетей не задаётся заранее в точности. Ввиду сложной структуры нейросетевого алгоритма, проследить ход вычислений мысленно невозможно, поэтому конкретные параметры создаваемой сети выбираются более или менее наугад на основании прошлого опыта решения сетями похожих задач и других общих соображений о целесообразности того или иного выбора. После чего сеть обучается. В процессе обучения сеть оптимизируется под решение поставленной задачи — можно сказать, что «грубый» процесс создания нейросетевого алгоритма сменяется «тонкой» подгонкой его под задачу. Процесс обучения тоже во многом интуитивен и результат не гарантирует. Дело обстоит практически точно так же, как и в отношении человека — устройство мозга непонятно, поэтому и верный подход к обучению неясен, и результат не гарантирован. Но, повторим, с тем важным отличием, что работа мозга невычислима в принципе, в отличие от просто сложных вычислений искусственных нейронных сетей.

На полях заметим, по описанным причинам прямой алгоритм — это, по-другому, детерминированный алгоритм. В таком алгоритме путь от данных к результату понятен и потому сформулирован ясно и однозначно — «детерминирован» точным знанием этого пути. Однако искусственные нейронные сети относятся к недетерминированным алгоритмам. Ввиду того, что путь от данных к результату в задачах, которые решают нейронные сети, непонятен — «не детерминирован» точным знанием, то его формулировка подразумевает варианты, полезность которых заранее неизвестна, из-за чего выбор между ними случаен. Например, это разные начальные параметры сети или разные параметры обучения, которые, как сказано выше, выбираются более или менее наугад на основании различных общих соображений. В результате разные варианты нейронной сети могут решать задачу по-разному, будучи точнее в одном её параметре или в другом.

Однако если работа вычислительной системы непонятна, то оценить решения такой системы, естественно, можно только «снаружи», по самим решениям, а не в точности понимая, как они возникают. Искусственной нейронной сети приходится или «верить на слово», или прежде проверять адекватность её решений. Образно говоря, как и в случае человека, мы больше судим нейронную сеть «по делам», чем проверяя ход её «мыслей».

В результате в создании нейронных сетей возникает такая составляющая, как отбор. Аналогично естественному отбору искусственные нейронные сети создаются и обучаются более или менее наугад, в процессе чего среда — в данном случае человек, как создатель нейронной сети — оставляет те, которые отвечают его нуждам.

При этом, создавая искусственный интеллект, мы так или иначе воссоздаём своё представление о том, что мы хотим от искусственного интеллекта — очевидно, что другого представления у нас нет и быть не может, любая идея, как бы мы её ни восприняли, становится нашей. Также очевидно, что сложность этого представления ограничена нашими нынешними знаниями. Таким образом, наша способность «отбирать», то есть отделять адекватные системы от не адекватных, всегда ограничена нашими нынешними знаниями. 

Но не менее очевидно и то, что наши нынешние знания — это далеко не все потенциально возможные знания, на которые способен наш интеллект. Однако создать при этом мы должны нейронную сеть, которая потенциально может знать всё, что потенциально можем знать мы. Получается, чтобы создать искусственный интеллект, сложность которого всего лишь равна сложности интеллекта человека, уже нужно знать больше, чем известно. Потому что в ином случае создание искусственного интеллекта будет тормозить наша неспособность отличить более умную систему от более глупой, адекватную от неадекватной, ведь все возможные критерии отбора, естественно, лежат в рамках сложности наших нынешних знаний. Образно говоря, создание искусственного интеллекта ещё только равной себе сложности уже становится равносильно вытягиванию себя самого за волосы из болота, попытке прыгнуть выше головы, создать то, неизвестно что. 

Однако искусственному интеллекту не достичь даже сложности нынешних знаний.

Сложность опыта можно сопоставить со сложностью поведения, богатством поведенческих реакций. Поэтому создать искусственный интеллект, который будет равен по сложности человеческому, — это создать такую систему, возможное богатство поведения которой равно возможному богатству поведения человека. При этом наш опыт можно условно разделить на формализованную составляющую и составляющую интуиции, неявных соображений и различных идей общего характера. Иными словами, что-то мы делаем на основании точных знаний, а что-то больше интуитивно, исходя из различных представлений неформального характера.

Эти составляющие опыта несводимы друг к другу, нельзя полностью выразить одно через другое.

Например, в окружающей нас природе нет цифр или формул, они возникают только в мозге, в процессе мышления, как его некоторый итог. Следовательно весь процесс мышления к математике не сводим. То же можно сказать и в отношении естественного языка: слова, фразы, речь — это некоторый итог мышления, поэтому весь процесс мышления к языку не сводим. Можно сформулировать более абстрактно: описать всё мышление равносильно созданию алгоритма мышления, но алгоритм мышления не имеет смысла.

Однако речь шла об опыте — что это опыт имеет формализованную и неформализованную составляющие, и они несводимы друг к другу. Причём же здесь мышление?
 
Мы мыслим нейронной сетью, а в нейронной сети нет отдельных, выражаясь компьютерным языком, памяти и процессора, то есть некого отдельного хранилища опыта и некой отдельной мыслящей структуры, перерабатывающей опыт в поведение. Функции опыта и мышления в нейронной сети не разделены, потому что сама структура сети, как целое, определяет то, как активность нейронов на входе нейронной сети будет преобразована в активность нейронов на выходе из неё. Другими словами, вся нейронная сеть целиком — это одновременно и опыт, и мышление. Следовательно, противоречия нет: если невозможно описать «всё мышление», то невозможно описать и «весь опыт».

Тогда обратим внимание на другое, кажется, тоже странное обстоятельство. Несколькими абзацами выше было сказано, что деление опыта на формализованную и не формализованную составляющие «условно», и в то же время из последних аргументов следует, что это деление как будто вполне реально, так как такие составляющие есть и они даже несводимы друг к другу. Есть ли здесь противоречие?

Условность деления имеет в основании тот факт, что никакой опыт в пространстве сети не имеет точного адреса — не разделён на тот или иной, из-за чего вызывается не по адресу, как в обычных компьютерах (например, путём считывания данных с конкретного места на жёстком диске), а по содержанию. Это означает, что если в обычных компьютерах «опыт», то есть некие данные, файлы, программы, существует явным образом, поэтому его можно стереть, изменить, добавить новый, то в нейронных сетях всё не так однозначно.

Например, то, как активность нейронов на входе нейронной сети будет преобразована в активность нейронов на выходе из неё, зависит от всей структуры сети. Как уже говорилось, причина этого в том, что, ввиду высокой связности нейронов в сети и, как следствие, взаимозависимости процессов торможения/возбуждения, какой-либо конкретный опыт не берётся из какой-либо конкретной части сети, а «вызывается» сразу из всей сети. Другими словами, какой-либо конкретный опыт — это конкретная динамика торможения/возбуждения нейронов всей нейронной сети, которую «вызывает» то или иное сочетание активности рецепторов. По этой причине разница в расположении опыта в сети может быть только в большей или меньшей «концентрации» того или иного опыта в её пространстве. В свою очередь, больше где-то в сети концентрация какого-то опыта или меньше, зависит от того, какую составляющую вносит особенность архитектуры этого участка сети в активность выходных нейронов.

Таким образом, какой-либо конкретный опыт, будь то опыт формализованный или нет, — это не то, что в принципе можно найти где-то в нейронной сети, а это процесс — динамика сразу всей сети. Прекратится динамика — и весь опыт снова станет одним целым, или, попросту говоря, исчезнет, ведь «весь опыт, как одно целое» — это не опыт, это просто структура сети. Поэтому формализованный опыт есть, но выделить его в пространстве сети нельзя, и в этом смысле деление опыта на формализованную и неформализованную составляющие может быть только условным.

Но, может быть, разницу между формализованным и неформализованным опытом можно обнаружить в том, что первый вычислим, представляя из себя некую «вычислимую часть» работы нейронной сети?

Однако мышление не алгоритм, работа биологической нейронной сети невычислима, и это касается любой «части» её работы. Например, исходя из общности опыта, наблюдая за поведением человека и замечая в нём знакомую последовательность шагов решения математической задачи, можно предположить, каким будет его следующий шаг. Однако в любой момент человек может отвлечься, передумать или ошибиться. И даже наблюдая за его мозгом, сколько-нибудь точно вычислить этот шаг тоже будет невозможно. Точность предсказания в обоих случаях будет ограничена или только общим направлением поведения, или очень коротким сроком.

Другими словами, работа мозга — это не работа часового механизма, поэтому после часа не всегда следует два. Например, слова в мозге не сцеплены со словами, как шестерёнки в часах, и потому не тянут за собой друг друга с однозначностью. Мы воспринимаем речь в контексте всех остальных сигналов рецепторов, и точно так же слова растворены во всём опыте, то есть каждое слово находится во всём пространстве сети, причём в какой-то области сети его больше, в какой-то меньше. И вызываются слова из сети, каждый раз формируясь более или менее заново в невычислимом процессе работы мозга — как с учётом распознаваемой нейронной сетью общей сути условий, так и с учётом частных особенностей ситуации. В результате, с одной стороны, в общем слова столь же похожи, сколь нынешние условия похожи на те, в которых человек привык эти слова слышать, с другой — речь одновременно отражает конкретику нынешней ситуации, приобретая личный характер. Например, точно так же всегда заново формируются воспоминания, из-за чего со временем, без обратной связи и под влиянием контекста нового опыта, они искажаются.

В итоге формализованный опыт есть, но в сети он никак от неформализованного опыта не отделён. И точно так же он невычислим — математические формулы возникают в мозге столь же невычислимым образом, что и любые другие мысли и действия. Как гребень океанской волны, любое слово — это тоже только «гребень волны» невычислимого «океана» мышления. Причём формализованный опыт только малая часть всего опыта, ввиду того, что основной объём наших действий — это не следование неким конкретным формализованным правилам, формулам и инструкциям. И это наиболее простая часть опыта, ведь формализовать суть понять, то есть формальный опыт — это то, что понятно, формальные средства — это понятные средства, и если понятными средствами весь опыт не выразить, понятным его не сделать, то, следовательно, формальные средства слишком просты, формальный опыт — это относительно простая часть опыта.

Таким образом, рассмотрев деление опыта на формализованный и неформализованный, можно утверждать ещё и то, что неформализованная часть опыта в нашем мозге является наиболее объёмной и сложной.

Однако, возвращаясь к отбору адекватных систем, проблема в том, что точные критерии отбора можно сформулировать только на уровне формальных знаний. Поэтому по мере того, как сложность поведения искусственного интеллекта будет приближаться к сложности нашего поведения и, таким образом, выходить за рамки того, что мы можем в его работе точно и однозначно оценить, оценивать станет всё сложнее и сложнее. Оценка адекватности будет становиться всё более и более неопределённой, и в конечном итоге, ввиду того, что отличить адекватную систему от неадекватной станет на практике делом уже слишком сложным, дальнейшее усложнение искусственного интеллекта потеряет смысл задолго до достижения им сложности даже нынешнего опыта человека. 

Посмотрим на сказанное с другого ракурса.

Исследуя мозг, мы выдвигаем гипотезу в отношении работы мозга, и проверяем её, наблюдая за его работой, то есть наблюдая за поведением самих себя. Создавая искусственные нейронные сети, мы выдвигаем гипотезу в отношении устройства и обучения сети, и проверяем её, опять же сравнивая поведение создаваемой системы со своим поведением, со своими задачами и их решениями. Таким образом, и изучение естественного интеллекта, и создание интеллекта искусственного одинаково требует всё более глубокого понимания своего поведения.

Но понимание своего поведения равносильно пониманию своего мышления, которое как минимум сейчас понятно далеко не полностью, а на самом деле сколько-нибудь точно понять его невозможно вообще, исходя из того, что алгоритм мышления не просто сложный, а не имеет смысла. Поэтому поведение в той же степени непонятное, как и мышление. Следовательно приближение сложности поведения создаваемых систем к сложности поведения человека равносильно всё более глубокому познанию того, что ни за какой конечный промежуток времени познано быть не может — мышления человека, всей сложности его поведения. Это значит, что для создания искусственного интеллекта всего лишь только равного интеллекту человека действительно потребуется не просто выйти за рамки известного сейчас, что уже невозможно, а выйти за рамки познаваемого вообще. Но ни за первыми рамками, ни тем более за вторыми, оценить ничего нельзя, никакой «отбор» за этими рамками невозможен, адекватные системы будет невозможно отделить от не адекватных.

В итоге по мере приближения создаваемых систем к сложности интеллекта человека их усложнение будет идти всё медленнее и в конечном итоге оно будет ограничено некоторым уровнем от сложности нынешних знаний человека. Сложность создаваемого искусственного интеллекта всегда будет ограничивать непознаваемость явления, которое в нём предполагается воплотить — мышления человека.

Представленные выше аргументы, вероятно, выглядят довольно абстрактными. Чтобы сделать их более наглядными, посмотрим, как ограничение на сложность создаваемых систем будет проявлять себя на практике. По каким конкретно направлениям будут расти проблемы по мере приближения сложности искусственного интеллекта к сложности интеллекта человека.

Наиболее близкое нынешнее приближение искусственных систем к «интеллекту» — это уже упоминавшиеся чат-боты ChatGPT или аналогичные диалоговые системы, созданные на основе нейронных сетей. Такие системы отвечают на вопросы из разных областей знания, могут что-то посоветовать, решить математическую задачу. Однако очень часто их ответы носят неверный и попросту неадекватный характер. Предсказать появление неадекватных ответов невозможно, они могут быть и в простых темах, и в сложных, а выглядеть при этом вполне правдоподобно. Поэтому за рамками проверенных разработчиками вопросов и ответов такие системы могут посоветовать пользователю что-то опасное, ложное, ввести в заблуждение, так как не каждый сможет неадекватность ответа распознать и не все вопросы можно задать и проверить заранее. Это уже реальная и серьёзная проблема, возникающая в использовании таких систем. 

Понятно, откуда берётся неадекватность.

Чат-боты обучаются на огромных массивах различных текстов, размеченных приблизительно в том же смысле, как подбирают тексты для обучения детей, — от простых к сложным, от текстов с ясными и «правильными» посылами к идеям неоднозначным. Но, как говорилось выше, составляющая формализованного опыта, то есть те же тексты, формулы, не адекватна всему опыту человека — ни по объёму, ни по сложности. Тексты, будь то математический язык или естественный, — это малая и простая часть опыта. Поэтому вполне естественно, что искусственный интеллект, обученный только на текстах, адекватным нашему опыту не станет. Среди ответов, которые он генерирует только на основании других текстов, всегда будет высокая составляющая таких, которые в контексте нашего опыта будут неадекватными, неверными.

То же можно сказать по-другому. Описание природы не равно описываемой природе. Абсолютная адекватность описания равносильна теории всего, но теория всего не имеет смысла. Например, любой мир для нас — это наш опыт, мир доступен нам через призму опыта, поэтому вполне естественно, что невозможность описать всё мышление — это и невозможность описать весь мир, каковой вывод и был сделан в предыдущей главе. Однако применительно к созданию искусственного интеллекта это означает, что тексты, которые генерирует искусственный интеллект, обученный только на текстах, будут ещё менее адекватны реальному миру, чем наши тексты, потому что если мы живём в реальном мире, который, естественно, сам себе адекватен, то мир искусственного интеллекта — это наши тексты, а они уже изначально реальному миру более или менее неадекватны. Таким образом, и с этой точки зрения поведение искусственного интеллекта, обученного только на текстах, всегда будет относительно более неадекватным, чем поведение человека.

Например, если бы чат-бот всегда цитировал в тексте ответа какой-либо конкретный источник дословно, то в этом случае неадекватность могла бы быть только в неверном выборе источника или цитаты для ответа. Но чат-бот, то есть нейронная сеть, формирует ответ «самостоятельно», последовательно подставляя в ответ те слова и фразы, которые в контексте слов вопроса встречаются в текстах обучающей выборки наиболее часто. То есть, собственно говоря, подставляя те слова и фразы, которые соответствуют распознаваемой сетью логике ситуации, её сути, ведь именно логику происходящего и учится распознавать нейронная сеть в процессе обучения. К примеру, если рассматривать работу мозга в самых общих чертах (то есть не учитывая особенности работы мозга, как определённой физической системы), то ответ чат-бота формируется практически так же, как это делает наш мозг. За исключением того, что у нас в голове тексты формируются не только на основании других текстов, а в этом участвует и весь другой опыт человека, ввиду того, что нейронные сети работают как целое.

Поэтому если у человека речь формируется в широком контексте в том числе и другого опыта — неформального, воспринятого из окружающей природы различными типами рецепторов, причём этого опыта много больше и он сложнее, — то чат-боты по сравнению с человеком уже изначально оперируют чрезвычайно неполной информацией о нашем мире, взятой только из текстов. Поэтому они в принципе не могут быть столь же адекватными нашему миру, как сам человек. Например, как более наглядный аргумент, то, что человек говорит, характеризует его, однако если при этом судить о человеке только на основании его слов, можно в этой характеристике сильно ошибиться. Тем более если на основании только слов пытаться построить представление о мире в целом. Как следствие, вполне естественно, что на практике рост объёма знаний нейронной сети или эксперименты с разметкой обучающих текстов не сопровождаются аналогичным уменьшением объёма неадекватных ответов.

Можно сказать иначе. Человек понимает смысл слов более или менее в контексте сразу всего опыта, так как в работе биологической нейронной сети всё в высшей степени взаимосвязано. В искусственных нейронных сетях связь не является такой же высокой, но, если не вдаваться в подробности отличий искусственного и естественного интеллекта, то и про искусственные нейронные сети можно сказать то же самое. Однако опыт человека много богаче, чем тексты, речь. Поэтому естественно, что один и тот же текст, «пропущенный» через призму нашего многогранного опыта, мы будем понимать более или менее не по-другому, чем его поймёт искусственная нейронная сеть, обученная только на текстах. И в той же степени разницы в опыте сеть будет менее адекватна окружающей среде и опыту человека.

Как кажется, очевидный выход в этом случае — это дальнейшее усложнение нейронных сетей, то есть дальнейшее приближение их к сложности мозга, в том числе к нашему разнообразию рецепторов, а также ещё более точная разметка обучающих примеров. Тогда искусственный интеллект сможет воспринимать мир в большем многообразии причин и следствий, обучить его можно будет точнее, а значит, адекватность ответов вырастет.

Однако чем сложнее становятся создаваемые системы, тем сложнее становятся и решаемые ими задачи. Но сложные задачи — это и важные задачи, а значит, чем сложнее система, тем больше возможный вред от её ошибок. Одновременно, чем сложнее становятся системы искусственного интеллекта, тем потенциально шире становится и область их возможного применения. Как следствие, растёт важность их тестирования во всех условиях, где сеть потенциально может быть использована, так как за рамками проверенных её решения всегда могут быть опасны. Причём ввиду того, что речь идёт о системах обучающихся, то в идеале проверять нейронную сеть требуется не только во всех возможных условиях, но и по-разному обученные.

Но, уменьшая возможности такой проверки, чем сложнее становятся нейронные сети, тем больше становится вариантов сетей и больше вариантов их обучения, ведь больше становится и параметров, которые выбираются наугад. При этом, ещё более усложняя возможности тестирования, богаче становится поведение этих вариантов — аналогично богатству поведения человека. В том числе богаче стратегическими решениями, которые уже в принципе невозможно оценить сколько-нибудь быстро.

Например, поведение человека — это реализация глобальной и, по сути, бесконечной стратегии самосохранения и размножения. Эта стратегия реализуется в чрезвычайно сложной и постоянно меняющейся природной и социальной среде, где все частные решения увязаны между собой, представляя из себя на самом деле тактику этой общей стратегии, а не отдельные поступки, из-за чего никакой поступок нельзя оценить однозначно ни на каком конечном промежутке времени. При этом важность точной оценки становится тем выше, чем более отдалённые последствия рассматривать. К примеру, даже оценка того, что съесть на завтрак, будет меняться и становиться всё сложнее и важнее, если рассматривать завтрак не просто с точки зрения насыщения здесь и сейчас, а в контексте всё более многоплановых и далёких последствий завтрака для решения задач наступающего дня, его влияния на своё здоровье, связь с будущим семьи, как пример для детей и так далее. Ещё быстрее важность точной оценки будет расти, если это план лечения тяжёлой болезни, эпидемии, управленческие, социальные, экономические или политические решения различного уровня, непосредственно влияющие на жизнь сразу множества людей.

Таким образом, уже понятно, что усложнение сетей — это как минимум палка о двух концах. Нельзя создать сразу сложную и адекватную нейронную сеть, а последовательный путь к ней проходит через стремительно ширящиеся проблемы: растёт количество вариантов сетей, вариантов обучения, сложность поведения сети, важность точной оценки адекватности — и потому стремительно усложняется весь процесс создания, обучения и тестирования сетей. В итоге на практике, чем сложнее поведение сети, тем ко всё более неопределённой будет стремиться оценка адекватности, поэтому каждое новое усложнение искусственного интеллекта станет требовать всё больше времени.

И тем не менее сказанное не раскрывает всей глубины растущих проблем и той реальной скорости, с которой они на самом деле будут расти. Ведь в примерах выше искусственный интеллект предстаёт не более чем советчиком, по сути, только компилирующим некий вариант решения задачи на основании уже известного, но он не проводит самостоятельные исследования и не исполняет своё решение.

Как говорилось, на базе обучающей выборки искусственный интеллект может подсказать человеку решение проблемы. Это может быть совет абстрактного характера, научного или любого другого, а специализированные системы могут поставить медицинский диагноз и составить план лечения. При этом чат-боты типа ChatGPT сейчас создаются больше с развлекательной и исследовательской целью, а советы медицинских систем проверяются врачом. Однако всё ещё остаётся выбор — этим советам можно следовать, следовать с осторожностью или не следовать вообще.   

Но важность точной оценки адекватности начинает расти намного более стремительно в случае, если поведение искусственного интеллекта будет подразумевать хотя бы небольшую самостоятельность — от принятия решения до его исполнения. И при этом одновременно будет столь же стремительно уменьшаться возможность эту оценку дать, ведь сети, которые смогут не только советовать, но и что-то делать сами, это сети намного более сложные, поэтому вариантов их устройства и обучения будет больше, поведение этих вариантов богаче, а значит, и проверить его сложнее, это потребует ещё больше времени.

В скобках заметим, как уже говорилось, нынешние системы искусственного интеллекта не обучаются в процессе эксплуатации, после отдельного процесса обучения веса связей фиксируются. В отличие от мозга, который учится всегда. Отсутствие обучения означает отсутствие обратной связи от пользователя или от мира, невозможность персонализации, адаптации, устаревание данных, на которых обучена система. И пока непонятно, как на практике решить эту проблему. Есть и другие серьёзные проблемы, которые тоже можно связать больше с устройством систем, чем с обучением. Например, это управление эффекторами, моторика, особенно тонкая, сложная, которая, очевидно, потребуется, если речь идёт о роботе. Но в целом все эти проблемы является частью проблем усложнения, поэтому в этой главе мы их рассматривать не станем, а в несколько другом контексте коснёмся в восьмой главе. 

Но и это тоже ещё не все проблемы. Выше мы говорили про решения сети и то, что их становится всё сложнее проверить. Но при этом всё-таки предполагалось, что вопрос сформулирован, задание дано, нужно только проверить ответ, оценить результат. Однако задать вопрос можно только о том, что как минимум более или менее понятно, в то время как за пределами наиболее формальной части нынешнего опыта понятного, естественно, становится всё меньше, а за пределами нынешнего опыта в целом уже и вообще ничего нет, ни понятного, ни непонятного.

Поэтому по мере приближения сложности поведения искусственного интеллекта к сложности поведения человека всё меньше будет понятно и то, что вообще нужно проверять, что спрашивать, какие нужно давать задания. Выражаться это будет в том, что ситуаций, в которых необходимо проверить адекватность сети, будет становиться не просто всё больше, а они будут становиться ещё и всё более сложными, многоплановыми, и потому в конечном счёте всё более и более неопределёнными. Их будет всё труднее конкретизировать, найти, представить.

В результате по причине роста указанных проблем задолго до приближения создаваемых систем к сложности нынешнего опыта человека, проверить адекватность поведения создаваемых систем будет возможно только всё более и более фрагментарно, и только на уровне некоторых относительно простых вопросов, которые можно более или менее точно сформулировать, аналогично тому, как неполно и неточно мы можем оценить поведение других людей в каком-либо тесте или опросе.

Однако если говорить о людях, то за рамками проверенного в тестах мы всё равно можем рассчитывать на их адекватность. И не просто потому, что в каждом из нас заключён опыт миллиардов лет биологической эволюции, а потому что стремление к самосохранению и размножению встроено в любую жизнь ещё на физическом уровне. Это та общая для всех цель, которая придаёт смысл всем действиям человека, то физическое основание, которое в более простых физических системах существовало в природе ещё до появления жизни и на новом уровне сложности продолжается в биологических системах от клетки до человека, определяя их постоянную активность и направленность этой активности в одну и ту же для всех организмов сторону самосохранения и размножения.

Такая поведенческая однонаправленность определяет значительную общность всех людей, их мнений, целей, интересов, а также понимание чужих поступков, возможность их предвидеть, различать намерения, легко этому обучаться. И даже не только людей, по тем же причинам общности нам также понятно и поведение животных. Поэтому если у человека склонность к серьёзной неадекватности можно заметить по множеству внешних признаков, то в отношении искусственных нейронных сетей ни на что из этого рассчитывать нельзя. В отсутствие понимания работы системы и общности этой работы с собой, сколько-нибудь достоверная экстраполяция поведения системы в проверенных ситуациях на ситуации ещё не проверенные невозможна.

То, что у искусственного интеллекта нет описанного выше физического основания активного стремления к самосохранению и размножению, в том числе означает, что корректировка их поведения возможна только на уровне выше физического, то есть эта корректировка происходит не естественным образом, а так или иначе она задана человеком — посредством устройства и обучения систем. Как следствие, возможности этой корректировки снова ограничены нынешним опытом человека.

Иными словами, возможности вычислительных систем самостоятельно корректировать своё поведение много ниже тех же способностей у биологических систем. Не рассматривая сейчас физическую сторону этого вопроса (физическим основаниям жизни посвящена восьмая глава), можно сказать, дело в том, что у человека есть абсолютный критерий адекватности всех его поступков — полнота удовлетворения стремления к самосохранению и размножению, то есть, проще говоря, стало жить лучше или нет. Человек живёт в среде, в том числе среде социума, так как не может выжить в одиночку, тем самым жить лучше можно, только если адекватно учитывать среду в своих стремлениях, познавая её, чтобы учитывать точнее, во благо себе. На этом общем основании возникают все более частные представления об истинном и ложном, верном и неверном, решена задача правильно или неправильно.

Но, в отличие от человека, искусственной нейронной сети или любой другой вычислительной системе всё равно жива она ли мертва, правильно она решила задачу или нет, ни лучше, ни хуже ей от этого не станет. Поэтому любая сколько-нибудь значительная самостоятельность в обучении и ином развитии приведёт не к эволюции вычислительных систем, а к их разрушению, так как всех возможных путей развития несравнимо больше, чем адекватных — тех, которые позволят усложняться, не будучи при этом разрушенным средой. Другими словами, не имея критерия адекватности, самостоятельное развитие вычислительных систем очень быстро пойдёт «вразнос», станет носить характер бессмысленных изменений и остановится.

Тогда почему бы не воспроизвести физические основания жизни в вычислительных системах? Как говорилось, подробнее об этом речь пойдёт в восьмой главе (и отчасти других главах). А пока вспомним, что биологическая нейронная сеть — это в принципе не алгоритм. Очевидно, что попытка воспроизвести вычислительными средствами, то есть в том или ином алгоритме, такое явление, которое в принципе не алгоритм, столкнётся со столь же принципиальными проблемами.

Обобщим.

Когда отследить и исправить неадекватность искусственной нейронной сети стало сложно, тогда, чтобы сеть могла стать более адекватной за счёт большего объёма опыта, мы решили её усложнить. Однако, оказывается, что необходимость проверки решений искусственного интеллекта от этого не только не уменьшилась, а она стала ещё более необходимой, при том, что осуществить её, наоборот, стало намного труднее.

Имея в качестве образца только себя и свои знания, усложнение возможно только одним способом — это приближать нейронную сеть к тому сложному и глобальному пространственному и временному представлению о мире, которым обладает человек. Но это представление в явном виде недоступно и нам самим, так как формальные, точные знания только часть нашего опыта. Как следствие, по мере приближения систем к сложности нашего нынешнего опыта по всем параметрам создания систем будет стремительно расти неопределённость.

Например, точная оценка интеллекта человека, равносильна знанию всех возможных знаний человека, то есть наблюдению всех перспектив всех его возможных решений, точному понимаю работы мозга. Что равносильно созданию теории всего или написанию алгоритма мышления, которые не имеют смысла. В свою очередь, точная оценка сложности нынешних знаний человека, равносильна формализации всего нынешнего опыта человека. Но это тоже не имеет смысла, потому что речь, язык, то есть формальные знания, — это только часть опыта, некоторый итог мышления, а не весь опыт и не всё мышление. Таким образом, точная оценка ни сложности интеллекта человека вообще, ни даже сложности нынешнего опыта человека невозможна.

В результате по причине того, что сам образец, в сравнении с которым происходит оценка, становится всё менее понятен, то по мере выхода сложности поведения искусственного интеллекта за рамки того, что мы можем однозначно оценить, точно рассчитать, то есть за рамки наиболее формализованного опыта, возможность дать точную оценку поведению систем будет уменьшаться, стремясь к полной неопределённости. А необходимость её дать, наоборот, будет столь же быстро расти, стремясь к требованию полной определённости, так как чем сложнее система, тем важнее решаемые ей задачи. Как следствие, встреча этих противоположных тенденций произойдёт на некотором уровне от сложности нынешних знаний человека и будет в целом выражаться в том, что дальнейшее усложнение систем искусственного интеллекта потеряет всякий смысл.

Как непосредственное проявление необходимости прыгнуть выше головы, знать больше, чем может быть известно, на практике потеря смысла будет связана с тем, что сочетание стремительно растущего количества возможных вариантов сетей, вариантов их обучения и столь же стремительно уменьшающаяся возможность оценить их адекватность приведёт к тому, что время практической реализации каждого нового усложнения — отбора подходящего варианта сети и подходящего варианта её обучения — будет всё стремительнее расти к бесконечности.

В итоге искусственный интеллект не выйдет за рамки такого помощника человека, который обладает широким кругозором и способен быстро выполнять относительно простую интеллектуальную работу. Однако эта работа, вследствие непредсказуемости и нестабильности её результатов, по мере роста важности задач будет всё больше требовать проверки, тем самым ограничивая применение систем в сложных интеллектуальных задачах или самостоятельность в стратегических действиях. Повторим, это произойдёт не вследствие каких-либо законодательных ограничений, а прежде всего само собой, просто вследствие естественной невозможности создать столь сложную систему, доверять которой в случае сколько-нибудь важных решений выгоднее, чем не доверять.

Посмотрим на описанные зависимости ещё раз.

Искусственные нейронные сети нам нужны в тех случаях, когда сложно решить задачу прямым путём. Другими словами, на практике искусственные нейронные сети позволяют решать задачи более сложные, чем те, которые можно решить прямыми средствами, точно и однозначно задав порядок переработки данных в результат. 

Но за счёт чего у сетей появляются такие возможности? За счёт растущего непонимания их работы, неоднозначности результатов этой работы, увеличения доли случайного выбора, то есть за счёт роста неопределённости. Что из этого следует?

Чтобы ответить, вспомним, что, как было показано в первой главе, алгоритм мышления не имеет смысла, так как в этом алгоритме будут выводиться все утверждения, которые только можно сформулировать, включая противоположные, в том числе о ложности самого алгоритма мышления. Таким образом, как минимум прямыми средствами искусственный интеллект, равный сложности мышления, создать нельзя, это невозможно в принципе. В свою очередь, это означает, что усложнение любых прямых алгоритмов остановится задолго до приближения их к сложности мышления, так как сложность мышления недостижима. Но насколько вообще можно приблизиться к сложности мышления в прямом алгоритме?

Ответ очевиден. Так как прямой алгоритм целиком пишет человек, то он не может быть сложнее его нынешнего опыта, причём его наиболее формализованной составляющей, так как прямой алгоритм — это однозначная пошаговая инструкция, ведущая от данных к результату. Прямой алгоритм подразумевает, что решение задачи полностью понятно и потому путь переработки данных в результат может быть задан чётко и однозначно. В результате на практике по мере выхода за рамки тех знаний человека, которые можно отнести к наиболее формализованным, усложнение прямых алгоритмов будет требовать всё больших интеллектуальных усилий, и в конечном итоге выгода от прироста их сложности перестанет усилия по их созданию оправдывать. Таким образом, сложность прямых алгоритмов ограничена сложностью наиболее формализованного опыта человека.

Тогда, если прямых — понятных и однозначных — средств уже не осталось, остаётся только рассмотреть средства не прямые — непонятные и неоднозначные. Надежда теперь может быть только на них, потому что какого-либо третьего варианта решения задач попросту нет. И действительно, мы видим, что искусственные нейронные сети позволяют решать задачи, прямой алгоритм решения которых написать на практике вряд ли возможно.

Но эти возможности появляются у сетей за счёт роста неопределённости, то есть за счёт роста объёма случайного выбора, непонятного и неоднозначного в их работе, устройстве и оценке результатов этой работы. В свою очередь, неопределённость в понимании того, как конкретно система приходит к тому или иному решению, приводит к появлению отбора. Вместо мысленного «отбора» верного пути к решению задачи ещё в процессе написания алгоритма, как это происходит в случае прямого алгоритма решения задачи, в случае искусственных нейронных сетей отбор происходит по итогам работы алгоритма — решила сеть задачу или нет. 

Но ведь возможности нашего «отбирающего» мозга от этого не увеличиваются. Они всё так же ограничены сложностью нашего нынешнего опыта. В результате так же, как на некотором уровне сложности задач становится всё труднее написать прямой алгоритм, на этом же уровне сложности всё труднее становится и отличить верное решение от неверного, если они будут предъявлены уже готовыми, как результат работы нейронной сети. Так же, как всё труднее сформулировать прямой алгоритм, в той же степени начинают расти трудности отбора алгоритмов не прямых. Вариантов систем становится всё больше, их поведение всё сложнее и богаче, поэтому отделить адекватный вариант системы от неадекватного становится всё труднее, это требует всё больше времени, а критерии отделения подразумевают в том числе всё более размытые субъективные, всё менее формализованные основания.

С одной стороны, «всё менее формализованные основания» в отборе позволяют достичь большей сложности систем, ведь формализованный опыт теперь не служит строго ограничивающим сложность фактором. Однако, с другой стороны, это и проблема, и она становится всё более серьёзной.

Мы в общих чертах скопировали природу — мозг, который за счёт особенностей своей структуры сам решает задачи, и создали искусственную нейронную сеть, которая тоже сама решает задачи. Мозг решает сложные задачи, нелинейные, он распознаёт условия и в едином порядке организует активность множества мышц и желёз. И искусственная нейронная сеть тоже переняла способность решать сложные нелинейные задачи.

Но в довесок мы получили то, что и должны были получить: сложные задачи — это малопонятные решения, а значит, и малопонятная работа системы, которая может такие задачи решать. Ведь вспомним, мы не создали нейронную сеть сами, точно понимая, что и зачем мы делаем, а скопировали её у природы, обратив внимание на некоторые общие особенности нейронной сети мозга и что, вероятно, именно за их счёт мозг может решать сложные задачи. Другими словами, мы прибегли к эвристике — методу, найденному случайно или взятому у природы и не имеющему точного математического обоснования, то есть методу работающему, но в точности непонятно как.

Например, цепь, подвешенная за концы, из бесконечного множества возможных вариантов «сама собой» принимает именно ту форму, которая соответствует минимуму потенциальной энергии силы тяжести. Человеку же для отыскания этой формы (катеноиды, или цепной линии) требуется решить дифференциальное уравнение Эйлера — Лагранжа. Мыльная плёнка, натянутая на проволочный контур, принимает форму, соответствующую минимуму внутренней энергии плёнки (состоящей, в основном, из потенциальной энергии сил поверхностного натяжения, пропорциональной площади плёнки). Световой луч в прозрачной среде, преломляясь, отыскивает кратчайший путь (требующий наименьшего времени прохождения любого своего участка) с учётом скорости света в каждой точке среды, через которую он проходит.

Биологическая нейронная сеть тоже стремится к минимуму энергии — к равновесию, состоянию покоя. Но при этом, в отличие от цепи, мыльной плёнки, света или искусственных нейронных сетей, биологическая нейронная сеть и весь организм в целом — это открытая система, то есть такая физическая система, которая ведёт интенсивный обмен со средой энергией/веществом. Этот обмен, с одной стороны, не даёт открытой системе достичь равновесия и покоя, постоянно выводя её, наоборот, в неравновесное состояние, то есть состояние неустойчивое, состояние постоянных флуктуаций, хаотической активности, а с другой — как ни странно, эту хаотическую активность упорядочивает, организует. Это явление самоорганизации, уменьшения энтропии, то есть появления порядка из беспорядка.

Самоорганизация чрезвычайно необычное явление, так как вне жёстких связей и специфических организующих воздействий извне из всего бесконечного множества состояний система выбирает самое, как кажется, невероятное — упорядоченное. Например, как следствие этих особенностей, стоит ненадолго ограничить приток кислорода, и прежде всего мозг, обмен которого со средой наиболее интенсивный, а затем и организм в целом, «умрут», то есть начнут стремительно и необратимо «падать» в состояние равновесия, покоя и беспорядка, распадаясь на отдельные элементы и растворяясь в среде. Но пока обмен происходит, за счёт него, то есть за счёт этой взаимосвязи разнонаправленных процессов постоянного стремления к равновесию и выводящего из равновесия обмена со средой, «само собой» происходит мышление — мозг активен, его структура и активность этой структуры упорядочена — упорядочены наши мысли, наше поведение.

При этом мозг много сложнее цепи или мыльного пузыря, которые не являются открытыми системами и неспособны к такой сложной динамике, поэтому если для расчёта катеноиды или формы мыльной плёнки есть более или менее точные и понятные алгоритмы, то в случае биологической нейронной сети понятного много меньше. Из-за чего в искусственной нейронной сети удалось воспроизвести только некоторые самые общие особенности нейронной сети биологической. Но даже такой несравнимо простой по сравнению с мозгом алгоритм уже слишком сложен, чтобы можно было точно мысленно проследить его работу. Поэтому работа искусственной нейронной сети малопонятна, неясно, как конкретно сеть приходит к тому или иному выводу, из-за чего не все её решения можно оценить однозначно, точно понимая, как и почему они такие.

Например, ответ чат-бота может быть философского характера, это может быть шутка или сгенерированное им изображение, имеющее художественный смысл. Но такие ответы и не нужно оценивать однозначно, субъективность в них неустранима, даже если знать, как конкретно они были построены. В то же время метафора, эстетика, шутки и отвлечённая философия — это не то, что нас прежде всего интересует в искусственном интеллекте. Прежде всего нас интересует возможность применения систем в задачах, имеющих объективное решение. И действительно, по мере роста сложности систем искусственного интеллекта объём поведения, которое потенциально может иметь такое применение, тоже будет расти. Однако при этом ответы, советы или возможные самостоятельные действия искусственного интеллекта будут подразумевать и всё большую стратегическую глубину, стратегическое значение. Как следствие, и цена ошибок в оценке адекватности систем тоже будет расти.

Поэтому, с другой стороны, вспоминая абзац с предыдущей страницы, «всё менее формализованные основания» в отборе означают и то, что по мере роста сложности искусственного интеллекта неопределённость, размытость и субъективность в оценке его поведения будет всё больше противоречить растущему вначале объективному практическому, а далее и стратегическому значению этого поведения.

А значит, одновременно с ростом сложности систем будет расти необходимость, наоборот, формулировать параметры их отбора всё точнее, строже, однозначнее. Но это равносильно всё большему пониманию их работы, то есть приближению не прямого алгоритма обратно к прямому — к тому, от которого мы, наоборот, хотели уйти, ввиду того, что усложнять их стало уже невозможным.

Иными словами, по мере стремления сложности поведения систем за рамки нашего наиболее формализованного опыта, будет нарастать обратная тенденция — необходимость всё более точного понимания работы системы. Рост неопределённости будет всё больше требовать определённости. Но «определённость» — это суть прямой алгоритм, точное понимание работы системы. В итоге рост сложности будет тормозить сам себя. Усложнение и не прямых алгоритмов тоже начнёт всё быстрее терять смысл, не позволяя искусственному интеллекту приблизиться к сложности нынешнего опыта человека и тем более её превзойти. 

Таким образом, уменьшение одного ограничивающего параметра — необходимости точно представлять алгоритм работы системы, что ограничивает сложность прямых алгоритмов, фактически всего лишь приводит к взаимосвязанному росту сразу целого набора других ограничивающих параметров — вариантов систем, вариантов обучения, богатства поведения, важности оценки адекватности. И в итоге этого же параметра в новом виде — в виде растущей необходимости всё точнее представлять критерии отбора. Как следствие, время каждого нового усложнения искусственных нейронных сетей будет точно так же всё быстрее расти к бесконечности, и их усложнение потеряет всякий смысл задолго до сколько нибудь близкого приближения к сложности интеллекта человека.

Теперь вспомним, что прямой алгоритм — это не только путь от данных к решению, а ещё и выражение понимания. Но прямой алгоритм мышления не имеет смысла, то есть он не просто сложен, а именно невозможен, не может существовать. Что в точности равносильно принципиальному отсутствию сколько-нибудь ясного представления о системе, которая сможет выразить всю сложность мышления. Это значит, что рост неопределённости будет связан не только с простым ростом количества вариантов систем, имея в виду возможность по-разному компоновать уже известное, но всё более непонятным будет становиться и то, что вообще нужно «компоновать» (некоторые направления, в которых отчасти проявляется неопределённость устройства, мы описали ранее на стр. 35). Например, точно так же что-то более или менее общее и простое о работе биологической нейронной сети сказать можно, но чем глубже мы пытаемся понять её работу, тем больших усилий это требует. Всё известное о мышлении далеко от реальной сложности явления, однако как минимум только модель равной сложности имеет в данном случае смысл.

Итак, в этой главе мы показали, что принципиальным пределом сложности искусственных нейронных сетей, создаваемых человеком, является сложность интеллекта самого человека, как их создателя, или, более конкретно, усложнение систем остановится задолго до приближения к сложности нынешнего опыта человека.

В то же время, заметим, этот вывод не имеет точного количественного выражения и он не обладает математической строгостью. Если рассмотренные аргументы верны, то столь уточнить их параметры невозможно. Потому что фактически мы рассуждаем о пределах познания, выраженной в данном случае в максимально достижимой сложности создаваемых человеком систем. То есть рассуждаем о таких явлениях, точное «количественное» представление которых невозможно. Например, точное «количественное» представление о том, какой сложности достигнет искусственный интеллект, относительно интеллекта человека, равносильно точному представлению о сложности интеллекта человека, каковое, в свою очередь, равносильно знанию всех возможных знаний, точному понимаю того, что можно познать. Это уже не имеет смысла, так как всех знаний ещё нет, но и, более того, точное понимание того, что можно познать — это и точное понимание того, что познать нельзя, так как иначе не отделить одно от другого. И, таким образом, в итоге точное «количественное» представление о том, какой сложности достигнет искусственный интеллект, относительно интеллекта человека, равносильно знанию всего, то есть не имеющей смысла теории всего. 

В том числе вывод о пределах сложности искусственных нейронных сетей, создаваемых человеком, не может иметь экспериментального подтверждения. Потому что если он верен, то эксперимент отнимет вечность, ведь тогда ни на каком конечном промежутке времени искусственный интеллект не достигнет сложности интеллекта человека, а сам процесс приближения не имеет точного «количественного» предела.

В результате такой «неточности» вывод о пределах сложности искусственных систем может показаться недостаточно убедительным. Тем не менее даже если все указанные закономерности в точности существуют и всё сказанное верно, каким-либо более доказательным образом сформулировать их вряд ли возможно. 

Также обратим внимание, приведённые в этой главе аргументы фактически говорят о том, что никакая система, создаваемая человеком, не может быть сложнее его собственного интеллекта, а не только искусственные нейронные сети. Другими словами, вывод о границах сложности искусственных нейронных сетей — это на самом деле вывод о границах сложности сразу всех мыслимых систем, в создании которых как-либо участвует интеллект человека. Потому что значение имеет только одно: чем полнее работу системы определяет написанный человеком алгоритм, тем ниже будет сложность этой системы по сравнению с интеллектом человека.

Алгоритм — это пошаговая инструкция, описание действий исполнителя, необходимых для решения задачи, достижения цели. Усложнение детерминированных алгоритмов — которые полностью пишет человек — остановится задолго до их приближения к сложности интеллекта человека, так как их построение связано с точными знаниями человека, наиболее формализованным опытом, объём которого меньше и он проще той части опыта, формализация которого невозможна. Недерминированные алгоритмы, участие интеллекта человека в создании которых относительно меньше из-за наличия элементов случайного выбора, смогут поэтому приблизиться к сложности интеллекта человека ближе. Но и их усложнение тоже ограничено, так как взамен прямого ограничения точными знаниями, в недетерминированных алгоритмах возникает отбор, который хоть и подразумевает менее формальные критерии, тем не менее опять же ограничен сложностью нынешнего опыта человека.

Например, ограничение сложности касается и искусственных биологических систем. К примеру, гипотетического искусственного интеллекта, собираемого непосредственно из биологических нейронов. В создании таких «живых искусственных» систем точно так же потребуется отбор и будет расти неопределённость, как и в создании «обычных» искусственных нейронных сетей. Другими словами, в создании таких систем тоже будет участвовать интеллект человека — посредством неких правил, принципов, идей, то есть неких алгоритмов действий создания и отбора «живых искусственных» систем — тем самым опять же ограничивая их сложность.
 
В том числе этот вывод касается биологических систем, создаваемых посредством генной инженерии. Возможность направлено вырастить искусственный интеллект равносильна написанию алгоритма мышления, а в любом другом случае это будет тот же случайный выбор, рост неопределённости и проблемы отбора. Подробное обоснование этого утверждения потребует рассмотрения принципов морфогенеза (развитие организма из одной клетки), что выходит за рамки статьи, но если говорить упрощённо, то морфогенез похож на работу клеточного автомата. Вспомним, в клеточном автомате задаются правила взаимодействия, появления и исчезновения клеток. После чего, запустив программу, можно наблюдать на экране компьютера эволюцию различных структур клеток — хаотических, упорядоченных, пульсирующих, сложных и простых. Заранее предсказать, какие структуры будут получаться, в общем случае невозможно, потому что, с одной стороны, нельзя мысленно проследить процесс, так как он слишком сложен, с другой — нигде нет плана возникающих структур клеток, который можно было бы найти и расшифровать, ведь заданы только правила взаимодействия клеток, а не их структуры. В результате можно только более или менее наугад задать эти правила и проверить результат «экспериментально», запустив автомат. Точно так же нигде нет «плана» будущего организма, а есть только определённые «правила», зашифрованные в ДНК. Таким образом, генная инженерия точно так же во многом связана с угадыванием и последующим отбором, как и создание искусственных нейронных сетей или «сборка» нейронных сетей из биологических нейронов. 

Подведём итог главы.

Нет ответа на вопрос, какое максимальное количество нейронов может иметь искусственная нейронная сеть, так как нет никаких критериев для оценки. В то же время интуитивно кажется, что невозможно увеличивать сложность создаваемых систем бесконечно, где-то должен быть предел. Как выяснилось, он действительно есть. Этот предел — сложность интеллекта самого человека. Поэтому чем больше мы приближаем систему к сложности своего интеллекта, тем больше времени это отнимает. И задолго до итога стремящееся к бесконечности совокупное время реализации каждого нового усложнения сделает дальнейшие попытки лишёнными смысла.


3.

Итак, в предыдущей главе мы выяснили, что создаваемый нами искусственный интеллект не сможет превзойти наш собственный. Вспомним формулировку этого ограничения.

Алгоритм — это выражение понимания, поэтому бессмысленность алгоритма мышления, доказанная в первой главе, означает, что мышление принципиально «непонятно». В результате чем ближе сложность задачи приближается к сложности процесса мышления, тем быстрее растёт неопределённость в выборе верного пути к её решению. На практике это проявляется в том, что решение задачи становится всё более сложным, его прямой алгоритм написать всё труднее.

Как следствие, появляется необходимость не прямых решений, суть которых — поиск верного пути к решению на основании некоторых неформальных соображений, эвристики, то есть детерминированные алгоритмы всё больше сменяют недетерминированные. Таким образом, по мере приближения сложности создаваемых систем к сложности процесса мышления происходит относительное снижение доли того, что в работе систем точно и однозначно понятно. Иными словами, в работе систем происходит относительное снижение доли написанного человеком алгоритма.

В противовес снижению доли понятного растёт доля случайного выбора, то есть доля непонятного, доля неопределённости. Рост неопределённости на практике выражается в непонимании дальнейших путей развития систем, их необходимого устройства, в росте количества возможных вариантов устройства, вариантов обучения, времени оценки и важности этой оценки. В конечном итоге всё это станет настолько большим, что дальнейшее усложнение систем потеряет смысл, перестав оправдывать усилия, не позволяя приблизиться к сложности интеллекта человека сколько-нибудь близко.

В итоге, как мы и утверждали в начале первой главы, действительно, чем полнее работу системы определяет написанный человеком алгоритм, тем ниже будет сложность системы относительно мышления человека.

В первой главе также говорилось о сути алгоритма, и она в том, что алгоритм — это инструкция, порядок действий. Но инструкция подразумевает язык, на котором она написана. Поэтому принципиальную невозможность построения алгоритма мышления, его принципиальную «непонятность», можно сформулировать и в том смысле, что язык не может выразить всю сложность мышления. Действительно, непонятное не объяснить, а что необъяснимо, то и непонятно.

Но что конкретно в мышлении не может быть понятно, что конкретно не может выразить язык? Ответ на этот вопрос построим как ответ на вопросы из второй главы, которые мы ранее оставили на потом. На самом деле ответ на них уже содержится в выводах предыдущих глав, но всё же проверим ещё раз с других позиций.

Например, один из этих вопросов был о том, можно ли копировать мышление и таким способом перенести личность в искусственную нейронную сеть?

Искусственная нейронная сеть — это недетерминированный алгоритм, так как некоторые параметры сети выбираются более или менее наугад. Тем не менее в дальнейшем работа сети полностью вычислима, то есть её работу можно описать, поэтому искусственную нейронную сеть можно реализовать и аппаратно, и программно. В то же время если мы каким-то образом соединим (срастим) биологические нейроны, то получившуюся биологическую нейронную сеть тоже можно будет назвать искусственной, но при этом описать её работу — то, как конкретно сигналы на входе этой сети преобразуются в сигналы на выходе — мы не сможем, ведь биологическая нейронная сеть не алгоритм. Однако при этом в создании такой «живой искусственной» нейронной сети участвует интеллект человека — например, посредством идей, как конкретно, то есть «по какому алгоритму», соединять нейроны, как обучать сеть и так далее — и в этом смысле работу «живой искусственной» нейронной сети тоже отчасти определяет (и, следовательно, в той же степени ограничивает её сложность) написанный человеком алгоритм.

Чтобы далее отличать одни системы от других, не только постоянно вспоминая о том, что одни по своей внутренней природе «алгоритм», а другие «не алгоритм», назовём искусственные системы, работу которых можно описать, вычислительными. Таким образом, у нас получится, что вычислительные системы — это, можно сказать, «наиболее» искусственные системы, исходя из того, что система тем больше искусственная, чем полнее её работу определяет сформулированный человеком алгоритм. И, соответственно, у нас также получилось, что не все искусственные системы вычислительные, но все вычислительные — искусственные.

Итак, искусственная нейронная сеть — это вычислительная система, её можно реализовать программно или аппаратно. Поэтому вопрос о копировании мышления можно перефразировать. Можно ли воспроизвести мышление человека вычислительными средствами? В свою очередь, это означает принципиальную возможность описать то, как конкретно активность нейронов на входе нейронной сети мозга перерабатываются в активность нейронов на её выходе. В результате вопрос о выразимости мышления вычислительными средствами становится равнозначен ещё одному вопросу из предыдущей главы. Можно ли хотя бы в принципиальном смысле предсказывать поведение? Можно ли во всех необходимых подробностях описать, как конкретно мозг приходит к тому или иному решению, то есть можно ли вычислять работу мозга? И наконец все эти вопросы можно свести к одному, обобщающему: качественное отличие мозга от вычислительных систем или количественное?

Например, очевидно, что системы, собираемые из биологических нейронов, могут быть по крайней мере равными сложности интеллекта человека. Это следует хотя бы из того, что интеллект человека, состоящий из биологических нейронов, уже существует. Поэтому если окажется, что отличие качественное, то есть воспроизвести интеллект человека вычислительными средствами невозможно в принципе, столь сложная вычислительная система невозможна физически, то в этом случае для создания сильного искусственного интеллекта у нас останутся только биологические нейроны или, к примеру, такой способ, как генная инженерия.

Однако, как показано в предыдущей главе, приблизиться к сложности интеллекта человека не поможет ничто. Какую бы систему мы ни создавали, будь она из живых нейронов или созданная посредством генной инженерии, по мере приближение её сложности к сложности нашего интеллекта будет расти неопределённость, и на некотором этапе усложнение полностью потеряет смысл.

Если это действительно так, то есть если мышление действительно нельзя описать никаким языком, если оно действительно «не алгоритм», то и биологические нейроны, как функциональные элементы мозга, и морфогенез, как способ развития мозга, — это всё тоже «не алгоритмы», то есть явления принципиально малопонятные. Из-за чего в попытке создать сильный искусственный интеллект из биологических нейронов или с помощью генной инженерии неопределённость попросту будет высокой уже изначально, и с этого высокого уровня она будет точно так же расти к полной, как и в случае усложнения искусственных нейронных сетей.

Наоборот, если отличие между вычислительными системами и мышлением только лишь количественное, то создать вычислительную систему, равную или даже превосходящую сложность интеллекта человека, в принципе будет возможно, то есть физически такая вычислительная система может существовать. Но так как это всё равно не отменяет аргументов второй главы, то сам человек из-за роста неопределённости, то есть в таком случае уже только «на практике», такую систему всё равно создать не сможет. В то же время если физически такая вычислительная система возможна, то кто-то поумнее человека с этой задачей теоретически справиться сможет.

Итак, на всякий случай ещё раз вспомним вопросы, на которые мы должны ответить в этой главе. Есть ли в мышлении нечто такое, что никакой язык выразить не в состоянии? Что это? Соответственно, количественное отличие между мышлением и вычислительными системами или качественное?

Однако очевидно, что как минимум ответ на последний вопрос уже был дан. Мы уже установили, что описать мышление невозможно, алгоритм мышления не имеет смысла, то есть алгоритм мышления не просто сложен — в этом случае отличие было бы только количественное — а именно невозможен, не имеет смысла по причине противоречивости. Поэтому никакой алгоритм (в том числе алгоритм недерминированный, каковым является искусственная нейронная сеть), в принципе не может выразить всю сложность мышления, мышление в принципе не алгоритм. Таким образом, отличие биологических нейронных сетей от вычислительных систем качественное. Точность предсказания поведения и возможность моделирования мозга поэтому тоже ограничена качественно по сравнению с другими явлениями, алгоритм которых написать возможно хотя бы в принципе.

И тем не менее. Если в искусственной нейронной сети очень-очень много нейронов, неужели она всё равно не сможет выразить сложность мышления? В это сложно поверить. Разве «количество простоты» не перейдёт когда-нибудь в «качество сложности»? Что конкретно может этому помешать? И наконец что же всё-таки не в состоянии выразить никакой язык?

Вспомним, что ещё говорилось во второй главе. В мозге нет всех законов мышления, так как мы мыслим нейронной сетью, а они обучаются. Поэтому алгоритм мышления — то есть алгоритм обычный, прямой, «не обучающийся» — мы сможем построить только в том случае, если изучим всю среду, которая только может повлиять на мышление, то есть на работу биологической нейронной сети. Однако, как мы выяснили в первой главе, повлиять может вся среда, так как алгоритм мышления равносилен теории всего.

Но если на изменение мыслительного процесса может повлиять всё, то и сколь угодно малое событие тоже может повлиять. А это значит, чувствительность биологической нейронной сети должна быть абсолютной. Сколь угодно малые события происходят на элементарном уровне материи, поэтому адекватное описание биологической нейронной сети так же требует точности элементарного уровня материи.

Проверим. Возможность выразить работу нейронной сети мозга человека в обычном «не обучающемся» алгоритме, то есть таком, который позволит прямо вычислять всё возможное поведение человека во всех возможных ситуациях, равносильна возможности вычислять все возможные состояния нейронной сети мозга, проще говоря, все возможные жизни человека, весь его возможный опыт. При этом алгоритм мышления равносилен теории всего, в свою очередь, теория всего равносильна описанию материи на элементарном уровне. Таким образом, алгоритм, который позволит вычислять все возможные состояния нейронной сети мозга, равносилен описанию элементарного уровня материи. Следовательно, работа самой биологической нейронной сети тоже непосредственно связана с элементарным уровнем материи, а значит, адекватное описание мышления требует описания мозга на элементарном уровне материи.

В ином случае описание нейронной сети мозга будет слишком грубым, неточным. Как если бы мы описали смартфон плоским параллелепипедом, без подробностей внутреннего устройства, а потом из этого описания попытались бы вывести его функции, предсказывать реакции на нажатие кнопок или создать его работоспособную копию. Точно так же, если к изменению мышления может привести изменения мозга самого элементарного характера, то мышление, следовательно, тоже происходит на элементарном уровне материи, прямо связано с этим уровнем, поэтому описание более грубое попросту не опишет мышление адекватно. Из-за чего предсказания поведения будут носить характер близкий к случайному, то есть предсказывать поведение можно будет или только в самом общем, или на очень короткий срок.

Элементарный уровень материи — это основание всех других её уровней, поэтому описание элементарного уровня материи равносильно построению теории всего. Но теория всего не имеет смысла, то есть элементарный уровень материи ни в каком смысле не познаваем. Как, следовательно, не имеет смысла и описание чего угодно на элементарном уровне. В итоге описать мышление — работу биологической нейронной сети — адекватно её реальной сложности невозможно в принципе, мышление «невычислимо», биологическая нейронная сеть действительно «не алгоритм» — и не обучающийся алгоритм в том числе, мышление «не алгоритм» в любом смысле.

И наконец это же и обещанный ответ на вопрос, что в мышлении не может выразить язык. Никакой мыслимый язык не способен описать элементарный уровень материи, потому что он непознаваем, то есть невыразим никаким языком.

Заметим, непосредственная связь работы мозга с элементарным уровнем материи — это несомненно очень странный и неправдоподобный вывод. Тем не менее он соответствует современному физическому представлению о работе мозга. Подробнее речь об этом пойдёт в соответствующей главе.

Также заметим, «элементарные частицы» в квантовой физике — это микрообъекты субъядерного масштаба, которые или считаются бесструктурными (например, фотоны, электроны), или которые на данное время на практике невозможно расщепить на составные части по причине конфайнмента (например, протоны, нейтроны). Однако размер и другие свойства частиц за пределами некоторых доступных исследованию масштабов непонятны. Поэтому «элементарные частицы» — это части наиболее глубокого на нынешнее время представления о материи, но не представление об её истинно элементарном уровне.

Таким образом, разница между мышлением и вычислительными системами действительно качественная, самая что ни на есть принципиальная. Способ, которым мы выражаем точное знание и воплощаем его в технологиях, в том числе в вычислительных системах — язык, алгоритмы — в принципе не позволяет выразить мышление. Это значит, что ни сколько-нибудь точно предсказывать поведение, ни копировать мышление и перенести личность в компьютер, ни вообще создать какую-либо вычислительную систему, приближающейся к мышлению сложности, невозможно в принципе.

Можно возразить, что в этих аргументах речь идёт только о «мыслимых» языках, а какой-нибудь «не мыслимый» язык элементарный уровень материи, может быть, вполне выразит. Следовательно и вычислительная система, способная выразить сложность мышления, тоже принципиально возможна, пусть даже её алгоритм будет написан не человеком и на неком недоступном человеку языке. Однако элементарный уровень не может быть описан никаким языком вообще, то есть он не может быть знанием. Описание элементарного уровня материи будет равносильно абсолютно точному знанию, но абсолютно точной является только сама природа, а не знание о ней, то есть элементарный уровень материи не может быть знанием. Аналогично знание элементарного уровня материи равносильно теории всего, а построение такой теории равносильна выходу за всё, чтобы можно было взглянуть на всё со стороны — в ином случае попытка описания всего в конечном итоге станет равносильна рисованию себя, рисующего себя, рисующего себя… — и так бесконечно. Таким образом, очевидно, выйти за всё невозможно никому.

Связь мышления с элементарным уровнем материи на более конкретном уровне объясняет описанную в предыдущей главе растущую неопределённость в работе систем по мере их приближения к сложности интеллекта человека. Почему по мере этого приближения неопределённость стремится к полной? Как оказалось, чтобы воспроизвести всю сложность мышления, сложность системы должна быть равносильна описанию элементарного уровня материи, но представление об элементарном уровне материи не имеет смысла, самый глубокий уровень материи «полностью неопределённый». Поэтому, например, если на более или менее общем масштабе работа мозга может быть понятна, то по мере исследования мозга на масштабе всё более глубоком понятного в его работе будет становиться всё меньше, исследования будут становиться всё более трудными. Точно так же будет расти неопределённость по мере усложнения искусственных систем.

Другими словами, ограничение сложности создаваемых человеком систем имеет не только основание чисто логического характера, связанное с противоречивостью алгоритма мышления или тем, что создание какой-либо искусственной системы приближающейся к себе сложности равносильно выходу за свой опыт. Но и основание в некотором смысле «физическое», которое состоит в том, что воспроизвести сложность мышления в какой-либо искусственной системе равносильно описанию элементарного уровня материи.

Также обратим внимание, вывод о невозможности описать элементарный уровень материи позволяет дать более точный ответ на ещё один вопрос из второй главы. Непонятность мышления связана с тем, что в нейронной сети мозга нет всех законов мышления, так как нейронные сети обучаются?

Конечно, обучение отличает мышление от других явлений, но не обучение и «отсутствие всех законов» делает мышление непонятным. Искусственные нейронные сети тоже обучаются, но это не мешает им быть алгоритмом — инструкцией, ведущей от данных к результату, но только ведущей сложным, запутанным путём, которая поэтому требует специфической «подгонки» под задачу — обучения. Ничего принципиально непонятного в искусственных сетях нет, все их состояния можно описать, хотя их и может быть очень много. Поэтому ответ в другом, и его можно разделить на два. Алгоритм искусственных нейронных сетей непонятен только потому, что он «запутанный» — об этом уже было сказано в предыдущей главе. Но биологические нейронные сети в своём основании не алгоритм вообще, и их «непонятность» поэтому тоже более сильная. Потому что если явление оперирует на элементарном уровне материи, то есть протекание явления непосредственно от событий на этом уровне зависит, то описание этого явления будет равносильно теории всего в любом случае — и без обучения, так как само представление об элементарном уровне материи уже равно теории всего.

Например, связь с элементарным уровнем материи означает, что описать нельзя никакую биологическую нейронную сеть — ни человека, ни насекомого — точность такого описания всегда будет недостаточной для адекватных предсказаний её работы. Другими словами, если алгоритм мышления не имеет смысла, то можно спросить: алгоритм какого мышления, ведь мозг у всех разный? Опыт у человека иной, но очевидно, что его всё равно больше, чем у насекомого, да и интеллект самих людей тоже различается?

Связь с элементарным уровнем материи означает, что не имеет смысла алгоритм любого мышления, так как в общих чертах мозг у всех животных одинаковый — он строится из нервных клеток и похож архитектурно (даже мозг насекомых имеет схожее с мозгом человека строение отделов, за исключением коры мозга, которой у насекомых нет), поэтому абсолютная чувствительность и пластичность, очевидно, тоже его общий параметр. Невозможным описание биологической нейронной сети делает сам принцип её работы, безотносительно к объёму опыта в ней. 

Чтобы было понятнее, рассмотрим сказанное ещё раз. С практической точки зрения невозможно создать систему приближающейся к себе сложности потому, что это равносильно выходу за свой опыт, что в конечном итоге равносильно полной неопределённости в представлении о том, что нужно создавать. То есть на практике сложность создаваемых систем будет ограничена сложностью собственного мышления. А с принципиальной точки зрения создание системы, равной интеллекту человека сложности, невозможно, потому что, как выяснилось, работа мозга связана с элементарным уровнем материи, представление о котором не имеет смысла. Это значит, что никакой алгоритм не может быть равен сложности биологической нейронной сети, независимо от того, кто его создаёт и какой мозг моделируется, алгоритмы и биологические нейронные сети — это качественно разные по сложности явления, несводимые друг к другу.

Например, как кажется, за опыт пчелы или кошки вполне можно выйти, можно посмотреть на их мышление со стороны, то есть можно полностью включить его в свой опыт, поэтому систему равную и даже превосходящую сложность их интеллекта создать можно. Однако в том объёме, в котором работа их мозга связана с элементарным уровнем материи, он тоже непознаваем и невычислим. Разница с мозгом человека будет только в том, что к сложности интеллекта пчелы сложность создаваемых человеком систем сможет приблизиться ближе. Действительно, можно обратить внимание, что пока никакие искусственные системы не превзошли (хотя и приблизились) пчелу в сложности даже только одного полёта, ловкости маневрирования, не говоря уже о как таковой сложности поведения в целом (в конце следующей главы ещё вернёмся к этим вопросам).

Поэтому наблюдаемое устройство мозга в виде сети нейронов — это лишь его «внешняя» сложность, то есть это сложная «нейросетевая» организация на самом деле много более сложной системы. Однако только эту «нейросетевую организацию» на том или ином уровне схематичности и упрощения воспроизводят искусственные нейронные сети. Настоящая же сложность мозга скрыта не только в количестве нейронов и их связей, а прежде всего в физических особенностях «нейросетевой организации» — в чувствительности и пластичности мышления, то есть в способности биологической нейронной сети перестраивать свою работу под влиянием самых ничтожных изменений её структуры. Другими словами, невозможность алгоритма мышления указывает не на обучение или вообще что-то нейросетевое, а именно на связь биологической нейронной сети с элементарным уровнем материи — только в этом случае алгоритм явления будет равен теории всего, вне зависимости от его остальных особенностей.

Итак, описать биологическую нейронную сеть нельзя, это слишком чувствительная система, мышление происходит слишком глубоко, поэтому выразить сложность мышления в какой-либо вычислительной системе, в том числе искусственной нейронной сети, невозможно. Можно попробовать собрать «живую искусственную» нейронную сеть из биологических нейронов, но из-за роста неопределённости и этот способ тоже превзойти интеллект человека не поможет.

Тем не менее не будем сдаваться. Биологическая нейронная сеть обладает абсолютной чувствительностью, так как на мышление может повлиять сколь угодно малое изменение её параметров. Можно ли наделить абсолютной чувствительностью искусственную нейронную сеть?

Ещё раз обратим внимание, даже если это возможно, то на практике искусственную нейронную сеть, равную сложности мышления, создать будет всё равно нельзя — об этом говорят аргументы второй главы. Но запрет уже не будет принципиальным, потому что если искусственная нейронная сеть может выразить биологическую, то в принципиальном смысле можно будет, например, угадать её устройство, так как появляется основание для перебора. Конечно, на практике вероятность угадать всё равно будет ничтожна. Например, само по себе угадывание не имеет смысла, так как ещё надо систему построить, правильно обучить, проверить её в работе, но не факт даже то, что соответствующие технологии на момент угадывания уже будут существовать или хотя бы позволят их предположить.

Но может получиться другое. Если окажется, что в принципиальном смысле выразить мышление искусственной нейронной сетью ничего не запрещает, то появляется другая и не менее привлекательная перспектива, чем создание искусственного интеллекта, — в том же принципиальном смысле теперь ничего не помешает копировать мышление конкретного человека. Причём это, может быть, получится и на практике тоже, учитывая, что для копирования у нас есть образец — мозг конкретного человека, а для создания искусственного интеллекта образца нет, ведь создание искусственного интеллекта — это не повторение мозга человека.

Задача создания искусственной нейронной сети, обладающей абсолютной чувствительностью, или задача перенесения личности в искусственную нейронную сеть равносильна задаче более общей — созданию такой искусственной нейронной сети, которая будет способна обучаться не менее сложным образом, чем нейронная сеть мозга. Иными словами, если мышление — это явление очень изменчивое, пластичное — настолько, что к изменению мышления может привести изменение структуры нейронной сети мозга самого элементарного характера — то достаточно описать механизмы этой пластичности и перенести понятое в искусственную нейронную сеть. Если это получится, то всё остальное, что важно в нейронной сети — количество нейронов и архитектуру их связей — скопировать, очевидно, принципиальной сложности уже не составит.

Чтобы понять механизмы пластичности биологической нейронной сети, нужно отделить структуру сети от среды и исследовать принципы, по которым эта структура меняется в ответ на воздействия среды. После чего останется только воспроизвести всё это в искусственной нейронной сети, взяв за образец мозг какого-либо конкретного человека. Тем самым можно будет «перенести личность в компьютер» — тот, который будет программно моделировать работу этой нейронной сети, или создать такую нейронную сеть аппаратно. Далее, подставляя сигналы рецепторов, можно будет воспроизвести любой мыслительный процесс человека, мозг которого скопирован, включая все его ощущения и эмоции и, собственно говоря, все возможные жизни этого человека. Если это получится, то можно будет не только сколько угодно «жить» в компьютере, перенося себя в новый в случае поломок, но, например, ещё и моделировать поведение человека в разных условиях, включая поведение самого себя, если скопировать работу собственного мозга.

Другими словами, такая нейронная сеть, будет потенциально содержать в своей структуре все возможные знания человека, которые останется только «вытащить» из неё, подобрав соответствующий алгоритм обучения. Причём, вероятно, можно будет ускорять мышление таких «цифровых субъектов» по сравнению с мышлением естественным, в том числе перенося процесс познания реального мира в мир виртуальный.

За исключением наличия сознания (о котором речь пойдёт в следующей главе), в приведённом во второй главе схематичном описании работы мозга отличие биологических нейронных сетей от искусственных не заметно, поэтому его можно считать и описанием искусственных сетей тоже. Разумеется, говоря сейчас о «похожести» искусственных и биологических сетей, мы имеем в виду только самую общую суть работы, но реализована она, естественно, совершенно по-разному. Биологическая нейронная сеть — это упорядоченный континуум веществ и химических реакций, то есть это именно сеть нейронов сама по себе и окружающие нейроны ткани, а сеть искусственная — это или программа, имитирующая работу сети нейронов, или это аппаратная реализация (например, активно развивающаяся последнее время технология нейроморфных процессоров, чипов, где используются импульсные нейроны, упрощённо повторяющие некоторые особенности спайковой электрической активности биологических нейронов), в которой как минимум есть планировщик заданий, отдельная память, маршрутизатор и так далее. Тем не менее сейчас мы исходим из того, что эта разница не принципиальная и на возможности искусственных систем не повлияет. 

Действительно, как и мозг человека, искусственные нейронные сети умеют делать индуктивные выводы — от частного к общему — находить зависимости в отдельных данных и обобщать их в «целое» — некоторый вывод, отсутствующий при обучении. Например, узнать объект и отнести его к соответствующему классу, построить фразу, прогноз или стратегию. Но именно индукцию, как способность создавать новое, часто рассматривают как важнейшее свойство разума, так как на выводы дедуктивные — от общего к частному, то есть вычисления по готовым формулам — «способны» и обычные компьютеры. В целом же проявлением способности искусственных нейронных сетей к индукции и дедукции является умение строить алгоритмы решения задач, на что способны рекуррентные нейронные сети (с обратными связями), то есть умение выделять цели и формировать действия по их достижению — чем собственно и занимается мозг любого животного. 

Таким образом, пусть и на самом простейшем уровне, искусственные нейронные сети уже умеют всё, что умеет интеллект человека. Исходя только из этого факта, можно предположить, что в принципиальном смысле развитие способностей искусственных сетей вполне укладывается в русло количественного усложнения вплоть до способностей любой сложности, в том числе и выше уровня человека.

Искусственная нейронная сеть — это алгоритм, вычислительная система аналогично другим вычислительным системам. Поэтому работа искусственной нейронной сети точно так же, как и работа других вычислительных систем, может быть реализована программно или аппаратно. В то же время, в отличие от «обычных» алгоритмов, порядок работы элементов искусственной нейронной сети не задан заранее. Нейронные сети не создаются точно под задачу — оптимизация нейронной сети происходит в процессе обучения. Иными словами, если в случае биологической нейронной сети обучение — это следствие невозможности заранее задать опыт, приспособленный под все нюансы условий жизни животного, то в случае искусственных сетей обучение — это следствие сложности задать необходимое поведение прямым алгоритмом.

В свою очередь, наличие обучения означает, что искусственные нейронные сети — это уже «не совсем» искусственные системы, в том смысле, что человек не задаёт весь ход вычислений нейронной сети во всех ситуациях напрямую, а только объём возможных изменений структуры сети в ходе обучения и некоторые общие параметры этих изменений. Другими словами, работа искусственной нейронной сети не полностью задана написанным человеком алгоритмом. Также надо заметить, что есть разные способы обучения искусственных сетей, то есть «взаимодействие со средой» может быть организовано по-разному. Вносить изменения в веса связей может человек, более или менее наугад добиваясь адекватной реакции сети на обучающие примеры. Или изменения в сети может инициировать сама среда, что, естественно, в большей степени соответствует работе биологической нейронной сети, но сложнее в практической реализации.

Тем не менее сейчас такие различия не имеют значения, потому что сейчас нам важно не нынешнее состояние дел в области искусственных нейронных сетей, а сама возможность воспроизведения в искусственной сети пластичности биологической. Если это получится, то принципы, по которым биологическая нейронная сеть меняется в ответ на сигналы рецепторов, станут известны, сами сигналы рецепторов тоже можно моделировать, а узнать количество нейронов и скопировать архитектуру их связей, очевидно, будет не сложнее, чем разобраться с их пластичностью. В итоге всё, что необходимо для копирования интеллекта, нам станет известно.

Итак, может ли всё это действительно быть известным, если речь идёт о биологической нейронной сети?

Представление о механизмах изменения какого-либо параметра некой системы равносильно представлению обо всех возможных значениях этого параметра, в зависимости от начальных условий, то есть формализации этих изменений, написанию алгоритма того, как они происходят. Функциональным элементом нейронной сети является нейрон, поэтому пластичность мозга — это пластичность нейронов, их способность меняться, в зависимости взаимодействия с другими нейронами, рецепторами и окружающими нейроны тканями мозга. Причём пластичность нейронов мозга включает в себя не только те элементы пластичности, которые можно связать с обучением, но и морфогенез (развитие организма из одной клетки) и в целом связь с наследственными факторами, с ДНК. Всё это тоже участвует в обучении, только на более общем уровне, чем изменение весов связей нейронов, так как эти элементы пластичности связаны с изменением мозга более общего характера.

В результате сложность механизмов пластичности мозга получается столь высокой, что, например, нет ни одного одинакового нейрона. Причём есть не только множество разных типов нейронов (и до сих пор в мозге обнаруживаются неизвестные ранее типы), но и внутри типов каждый нейрон индивидуален — почти так же, как индивидуален любой человек, несмотря на то, что все люди похожи. Условия различаются нейроном столь тонко, что для всех из них формируется его индивидуальное воплощение.

Но, может быть, столь высокое разнообразие нейронов — это всего лишь дело случая, формирование мозга идёт случайным образом? Однако тогда бы и порядка в наших мыслях, в нашем поведении, тоже бы не было. И разнообразие, и одновременно упорядоченность говорят именно о тонком приспособлении функции мышления к условиям. Заметим, эта способность тонко приспосабливаться (когда функция сохраняется, но её выполнение учитывает условия более полно и точно), которая в некотором смысле аналогична обучению, не может быть закодирована в ДНК, так как это равносильно кодированию в ДНК всех возможных условий. Никакого кода для этого не хватит. Поэтому механизм морфогенеза другой, он связан не только с ДНК, но и с таким явлением, как самоорганизация. Например, вспомним, в предыдущей главе говорилось, что, действительно, организм, мозг — это открытые системы, ведущие интенсивный обмен со средой. Этот обмен определяет возможность упорядочения открытых систем, и, естественно, влияет и на то, каков будет порядок, то есть упорядоченное поведение открытых систем, которое начинается после их самоорганизации, связано со средой. Иными словами, при определённых условиях открытая система на беспорядочное воздействие среды может сама собой отвечать упорядоченным поведением, этот порядок может усложняться, но он всегда прямо связан со средой. Более подробно речь о самоорганизации пойдёт в других главах.

Пока же речь о физических основаниях жизни не зашла, продолжим рассуждать логически. И способность нейронов тонко различать условия означает, что сложность написания «алгоритма нейрона» равносильна представлению обо всём неисчислимом множестве всех возможных трансформаций нейронов. Очевидно, это говорит о том, что задача составить адекватное представление о механизмах пластичности биологических нейронов как минимум очень сложная.

Тем не менее пока она не выглядит неразрешимой. Даже если прямыми средствами понять всю сложность биологических нейронов будет слишком сложно, то недостающее можно, к примеру, попробовать угадать. Или попробовать заменить сложность биологических нейронов количеством более простых нейронов искусственной нейронной сети. Возможность «качество сложности» воспроизвести «количеством простоты» мы уже рассматривали, к тому же этот способ всё равно не подойдёт для копирования, но на всякий случай ещё раз рассмотрим и эту возможность тоже.

Любая модель какого-либо реального явления есть его некоторое упрощение, потому что невозможно измерить что-либо с абсолютной точностью, нельзя учесть все связи явления, выделить явление из среды абсолютно точно. Например, точность копирования уже ограничивает квантовая механика. Принцип неопределённости Гейзенберга говорит, что местоположение и импульс частицы не могут быть известны одновременно и точно, так как чем точнее становится известен один параметр из пары, тем более неопределённым становится другой. Однако абсолютно точная копия требует абсолютно точного знания всех параметров всех частиц.

Но в любом случае абсолютно точная копия невозможна на ещё более принципиальных основаниях, чем какая-либо физическая теория. Абсолютно точное измерение равносильно знанию элементарного уровня материи, но такое знание не имеет смысла, так как равносильно построению теории всего. Аналогично абсолютно точная копия явления потребует с абсолютной точностью отделить явление от среды, но так как это равносильно абсолютно точному измерению, то абсолютно точно отделить от среды ничего нельзя. Равносильность абсолютно точного измерения и теории всего означает, что в попытке копировать с абсолютной точностью что угодно, придётся с абсолютной точностью копировать сразу всё сущее. В стремлении к абсолютной точности вся Вселенная, по сути, окажется заключена в любой своей самой малой части, так как абсолютная точность равносильна построению теории всего. Поэтому модель явления всегда проще реального явления, точная копия чего-либо невозможна. В то же время на практике такая «простота моделей» не обязательно проблема, так как главное, чтобы точность модели отвечала решаемой задаче.

Однако в нашем случае это как раз проблема — и принципиальная. В начале этой главы мы выяснили, что в биологической нейронной сети важны все уровни её материи, включая элементарный. Это значит, что в качестве копии личности может быть только абсолютно точная копия мозга.

Таким образом, мы снова пришли к уже знакомому выводу: перенести личность в компьютер всё-таки невозможно. Перефразирование уже заданных вопросов ожидаемо не изменило аргументы, которые лежат в основании уже данных ответов, поэтому надеждам на переселение личности в компьютер не суждено сбыться. Необходимость абсолютно точной копии говорит о том, что конкретная личность может быть только самим этим конкретным мозгом и ничем иным, поэтому вопрос копирования теряет смысл. Если описать механизмы пластичности биологической нейронной сети было бы возможно, то в принципиальном смысле прямой алгоритм мышления мог бы существовать, но алгоритм мышления не имеет смысла.

Аналогичные проблемы возникнут в попытке заменить «качество сложности» мышления «количеством простоты» искусственных нейронов, ведь сложность мозга всё равно придётся воспроизводить в полном объёме (мы же хотим получить как минимум не менее сложную систему, чем мозг человека), а это невозможно сделать вычислительными средствами.

Например, чтобы качественно сложность мозга превзойти, система должна работать на ещё более глубоком уровне материи, чем мозг, то есть на иных физических принципах, качественно более сложных. Но связь работы мозга с элементарным уровнем материи говорит о том, что система качественно сложнее, по-видимому, уже невозможна — нет уровня материи глубже, чем тот, с которым связано мышление. Наоборот, чтобы превзойти сложность мозга только лишь «количественно», достаточно тех же физических принципов. Например, мозг человека только «количественно» сложнее мозга обезьяны или насекомого, исходя из того, что по принципу работы — это одни и те же системы.

Однако принципиальная возможность описания работы вычислительных систем — и наоборот, принципиальная невозможность описания мышления — говорит о том, что уровень материи, на котором оперируют вычислительные системы — это уровень материи менее глубокий, чем уровень мышления. Именно поэтому физические принципы работы вычислительных систем нам понятны (например принцип Ландауэра), а значит, в отличие от принципиально непознаваемых физических принципов работы мозга, связанных с элементарным уровнем материи, это принципы более простые, уровня сложности мозга с их помощью не достичь.

Можно провести такую аналогию. Если древнему человеку показать компьютер, то сколько-нибудь адекватно описать его он не сможет, хотя бы потому, что в его языке ещё нет тех понятий, которые бы позволили это сделать. Но элементарный уровень материи — это тот уровень, для которого адекватных понятий не может существовать вообще, знание законов этого уровня не имеет смысла, элементарный уровень материи непознаваем, никаким языком он невыразим. В свою очередь, нельзя создать вычислительную систему, которая работает неизвестно как. Такую систему нельзя даже угадать, так как оценка количества вариантов таких систем не имеет смысла, это даже не бесконечность, таких вариантов «ещё больше», потому что их нет и не может быть ни в каком представимом виде. Наоборот, работу всех вычислительных систем описать можно, принципы их функционирования понятны, а значит, принципиальную «непонятность» мышления в них уже не выразить — сколько бы ни было элементов в «понятной» системе, она от этого не перейдёт в разряд принципиально непонятных. В итоге выводы те же — вычислительные системы в принципе не могут достичь сложности мышления, «качество сложности» мышления «количеством простоты» какого-либо алгоритма выразить невозможно.


4.

И всё же приведённые в предыдущей главе аргументы о качественном отличии вычислительных систем от биологической нейронной сети могут показаться слишком абстрактными, запутанными и потому не слишком убедительными. Поэтому сейчас вспомним о сознании и проверим сделанные выводы с точки зрения аргументов более наглядных. В частности, ответим на следующие вопросы. Если мышление связано с элементарным уровнем материи — а именно это, как мы выяснили, является принципиальным основанием его «невычислимости» — то в чём выражается эта связь непосредственно? Можно ли её как-нибудь «наблюдать»?

Вначале рассмотрим следующий аргумент. Который, наверное, пока ещё не слишком наглядный.

Искусственную нейронную сеть можно реализовать программно или аппаратно, а сеть с обратными связями можно заменить сетью только с прямыми (хотя это может быть не оптимально, так как разные функции проще реализовать в соответствующей архитектуре). Поэтому если можно создать искусственную нейронную сеть, не менее сложную, чем мозг человека, то в принципиальном смысле работу такой вычислительной системы тоже можно будет организовать по-разному при том, что результат вычислений будет одинаковым. Однако несложно заметить, что в этом случае не остаётся места сознанию.

Например, если предположить, что сознание есть во всех вычислительных системах, которые выполняют одну и ту же функцию, и оно во всех системах одинаковое, то сознание, следовательно, зависит только от функции, которую выполняет система, ведь организация у всех этих систем разная. Но это значит, что сознание не материя, так как функция — это не материя. Если предположить, что у разных систем, выполняющих одну и ту же функцию, сознание разное, отражая их разную организацию, или есть только в системах какой-либо определённой организации, то сознание, следовательно, никак не зависит от функции — ведь функция у всех систем одна и та же. Но это опять означает, что сознания не существует, так как тогда получается, что сознание зависит только от организации системы, но организация, схема — это тоже не материя. Сознание не может вдруг появляться из ниоткуда, в зависимости от того, как мы располагаем детали системы. В итоге сознание превращается в нечто противоречивое, ему нигде нет места, оно не может существовать. Однако очевидно, что сознание есть и оно связано с работой мозга. 

Этот аргумент говорит о том, что сознание может быть только в невычислимых системах, то есть таких, описать работу которых сколько-нибудь точно в принципе невозможно, так как только в этом случае функцию и организацию системы принципиально невозможно сколько-нибудь точно отделить от материи системы. Это не делает сознание понятным, однако сознание перестаёт быть противоречивой сущностью, которой нигде нет места, и становится следствием высочайшей сложности мозга, выраженной в прямой связи его работы с непознаваемым уровнем материи, каковым, вспомним, является только её элементарный уровень. Таким образом, выводы предыдущей главы подтверждаются более наглядным образом.

Приведём ещё один аргумент из разряда наглядных.

Предположим, что сложность биологического нейрона каким-то образом всё-таки удалось воспроизвести в нейроне искусственном или искусственная нейронная сеть равная сложности биологической создана из более простых нейронов по принципу замены качества количеством. Если это получилось, то любой мыслительный процесс автоматически становится вычислительным — а следовательно, его можно будет выразить в некоторой записи на некотором формальном языке. Посмотрим, не возникнет ли из-за этого каких-либо «наглядных» противоречий.

Если хотя бы в принципиальном смысле процесс мышления можно выразить в записи на некотором языке, то элементом этой записи должно стать сознание, так как сознание, очевидно, неотделимо от мышления, являясь некоторым «внутренним» проявлением мыслительного процесса. Однако в первой главе мы пришли к выводу, что такой элемент сознания, как смысл, формализован быть не может. Но если мы можем создать искусственную нейронную сеть равную сложности мозга и тем самым получим возможность воспроизвести любой мыслительный процесс, то в нём, очевидно, должны быть и все элементы сознания, включая смысл.

О том, что в описании смысла могут возникнуть проблемы, нам говорит ещё один из аргументов первой главы. Если можно проследить связь своих утверждений со средой, то они ничем не будут отличаться от среды. Но среда такая, какая есть, она не может быть ни истинной, ни ложной. Таким образом, возможность проследить связь своих утверждений со средой приведёт к тому, что любые утверждения потеряют смысл — они сами станут средой, которая ни истинная, ни ложная. Но, очевидно, что утверждения уже имеют смысл, поэтому они не могут его вдруг потерять — если мы узнаем, как они возникают. Получится противоречие — что смысл и есть и нет одновременно.

И наконец действительно наглядный аргумент.

Сознание — то, как оно нами воспринимается, — это континуум абстракций разного уровня. Начиная от восприятия смысла ситуации в виде эмоционально-мотивирующего самоощущения, как абстракций более низкого уровня, до более конкретных ощущений и образов, как абстракций уровня более высокого. Таким образом, сознание континуально. А также сознание многомодально, понимая под модальностями элементы этого континуума, то есть разные оттенки всего спектра субъективных переживаний — например, оттенки цветовой палитры, оттенки эмоций.

Однако проблема в том, что эти оттенки нельзя выразить словами какого-либо языка — их можно только обозначить.

Невыразимость словами какого-либо языка «модальности» сознания, легко становится понятной, достаточно представить ситуацию, когда требуется объяснить «красноту» красного цвета, вкус апельсина или звук рояля тому, кто никогда не видел ничего красного, не ел апельсинов или не слышал рояля. Объяснить будет в принципе невозможно, выразить этот опыт словами не удастся. С тем же успехом можно попытаться объяснить своё эмоциональное состояние.

Аналогично если мышление можно выразить в каком-либо вычислительном процессе, то, как уже говорилось, ход вычислений можно будет записать — совершенно обычно, в виде неких слов, формул, схем и графиков ручкой на бумаге. Тогда краснота красного цвета, вкус апельсина, звук рояля или удивление должны возникать прямо в этой записи. Очевидно, противоречивость этого требования уже действительно наглядная.

Такие элементы сознания называются квалиа (от лат. qualitas — свойства, качества), они отражают качества субъективного мира и по большому счёту сознание целиком состоит из них (поэтому далее в тексте квалиа и сознание разделять не будем). Это цвета радуги, свет и темнота, ощущение тепла и холода, звук, запах, боль, вкус и так далее — все ощущения и эмоции, сенсорные и чувственные явления, включая самоощущение — наше Я. Квалиа могут быть только самими собою, их нельзя передать, «сжать» до некого алгоритма, сути, в них нет важного и неважного, что можно сократить или оставить. На основании общности опыта мы можем только их обозначить и описать их отношения и трансформацию — образы, которые они формируют, или динамику изменений, но не то, что их «наполняет». Иными словами, как уже говорилось, элементы опыта, которые можно формализовать, это только «гребень волны» в целом невычислимого «океана» мышления.

В свою очередь, невозможность выразить сознание каким-либо языком означает, что сознание как физическое явление непосредственно связано с таким уровнем материи, который в принципе не может быть как-либо описан, в том числе формулами какой-либо мыслимой теории, то есть, другими словами, этот уровень материи не может быть познан. Уровень материи, на котором «находится» сознание, в принципе не может быть выделен из среды как какое-либо «обычное» явление природы и описан. Принципиально непознаваемым уровнем материи является только её элементарный уровень, так как только представление об этом уровне матери равно построению бессмысленной теории всего. Таким образом, нынешние выводы полностью совпадают с выводами, сделанными ранее, о связи мышления с элементарным уровнем материи.

Например, возвращаясь к сказанному в предыдущей главе, из непознаваемости сознания тоже следует, что отделить от среды структуру биологической нейронной сети (чтобы понять, как она меняется в ответ на воздействия среды и затем перенести понятое в искусственную нейронную сеть), невозможно. Нахождение таких границ будет равносильно познанию непознаваемого. Поэтому мышление является источником языков, но само мышление действительно не язык, так как оно непосредственно связано с принципиально невыразимыми каким-либо языком уровнем материи. И наглядно «наблюдать» эту невыразимость можно прямо в своём сознании.

Если всё сказанное верно, то работа биологических нейронов и в целом биологических нейронных сетей действительно должна качественно, то есть в некой «высшей степени» отличаться от всех мыслимых инструкций, формул, языков и алгоритмов, в том числе тех, которыми можно описать работу искусственной нейронной сети.

Очевидный претендент на такую роль — континуум, понимая этот объект как нечто непрерывное, сплошное, само по себе невычислимое, разделение которого на любое конечное число шагов и элементов будет неадекватно его реальным свойствам. И действительно, именно континуумом — абстракций разного уровня, от эмоционально-мотивирующего самоощущения как смысла происходящего и до конкретных образов происходящего — и воспринимается сознание. 

Однако континуум может быть формализован — он превратится в несчётное множество. В отличие от множества счётного, выражением которого является множество всех натуральных чисел, континуум — это множество всех вещественных чисел, количество которых несчётно (термины «вещественное число» и «действительное число» равнозначны). К примеру, если натуральные числа можно последовательно называть — «считать» — 1, 2, 3… и так далее, пусть даже ни за какой конечный промежуток времени не получится назвать их все, то вещественные числа не получится даже считать, так как первое же число после нуля будет бесконечно малым — 0,000...01, и ни за какой конечный промежуток времени его не получится даже назвать.

Формализация континуума означает, что он более или менее понятен, его можно описать, объяснить — в той степени, как может быть понятно, что такое бесконечность, которая в вещественных числах проявляет себя более явно. Но он невычислим — в том же смысле, как невозможно выразить несчётность «счётными» вычислительными методами. Поэтому если мышление — это континуум, то оно уже невычислимо, к нему можно только бесконечно приближаться по тому принципу как можно бесконечно увеличивать количество граней многоугольника, пытаясь точно воспроизвести окружность.

Однако даже невычислимостью континуума сложность работы мозга, очевидно, не ограничивается. Потому что в случае сознания мы имеем дело с континуумом особенным, качественно иного рода, из-за чего даже само название «континуум» в его отношении можно использовать только за неимением лучшего. Сознание — это «несчётное множество» качественно более мощное, чем какое-либо известное, элементов в котором может быть только больше или меньше, так как сознание имеет уже полностью невыразимое никаким языком «расширение» в модальность.

Как ранее говорилось, искусственные нейронные сети — это системы уже «не совсем» искусственные, так как несмотря на то, что это системы вычислительные, порядок работы элементов нейронной сети не задан человеком прямо, сети обучаются. И в этом смысле мышление — это уже совсем не искусственная система. Между всеми искусственными системами, включая искусственные нейронные сети, и мышлением, есть принципиальные отличия в сложности. Механизм пластичности нейронов, имея связь с непознаваемым уровнем материи, не просто включает в себя нечто вроде континуума, который нельзя выразить вычислительными средствами, но можно бесконечно приближаться, а нечто такое, что в принципе непонятно, поэтому не к чему даже и приближаться.

Ещё раз пояснить отличие сознания от континуума можно следующим образом.

Чтобы формализовать явление, необходимо мысленно отделить существенное от не существенного и представить модель явления, условно говоря, абстрактный каркас явления, суть происходящего. Что называется, требуется посмотреть на явление со стороны, так как всё явление, вся его суть, окажется в этой мысленной модели, которую «мы» в своём сознании как будто «наблюдаем» со стороны. Причём со стороны того, что, очевидно, сложнее, богаче, чем явление исследуемое. Например, математическим выражением этого обстоятельства является то, что доказать непротиворечивость формальной системы можно только в системе с более богатым языком.

В таком же процессе отделения существенного от несущественного были выработаны такие математические объекты, как множество счётное и несчётное. Первое множество можно представить идеализированной моделью бесконечного набора предметов, поэтому счётное множество эквивалентно множеству всех натуральных чисел.

Несчётное множество можно представить двумя способами. К примеру, множество всех возможных перестановок натуральных чисел (множество всех подмножеств натуральных чисел), естественно, много больше самих натуральных чисел. Количество всех натуральных чисел бесконечно, поэтому множество натуральных чисел — это бесконечное множество. И это бесконечное множество счётное, так как натуральные числа можно последовательно считать. Следовательно множество всех подмножеств натуральных чисел тоже будет бесконечным, но при этом оно уже будет несчётным, ведь оно больше счётной бесконечности самих натуральных чисел (это утверждение имеет строгое доказательство — см. диагональный аргумент Кантора). Поэтому, например, несчётное множество становится уже затруднительно наглядно выразить через количество предметов, даже бесконечное, так как для любого количества предметов будет достаточно счётной бесконечности натуральных чисел. Причём множество подмножеств натуральных чисел, как новое множество, тоже будет иметь множество подмножеств, и это множество будет «ещё бесконечнее», точнее, его мощность будет больше. Мощность множеств характеризуют кардинальные числа — ; («алеф» — название образовано от первой буквы еврейского алфавита).

Второй способ представить несчётное множество — это представить что-то сплошное: линию, поверхность, объём, то есть, собственно, континуум, Континуум — это другое название множества вещественных чисел. Мощность континуума обозначается — ;1 («алеф-один»). Оно настолько велико, что своё вещественное число найдётся для каждой точки числовой прямой. Более того, своё вещественное число найдётся для каждой точки сколь угодно большой площади или для каждой точки сколь угодно большого и даже сколь угодно многомерного объёма. Тем не менее континуум — это всего лишь самое маленькое несчётное множество, оно (согласно континуум-гипотезе) идёт сразу после счётного множества всех натуральных чисел, которое имеет мощность ;0.

Однако в нашем восприятии любой объект имеет модальность — например цвет. До сих пор «модель цвета» нам была не нужна — точнее, она в любом случае не может быть построена. Но для формализации мышления она необходима, так как всё сознаваемое — суть некоторый мыслительный процесс. И даже если мы хотим воспроизвести мыслительный процесс как вычисление искусственной нейронной сети, то есть более или менее наугад, то, как говорилось ранее, это всё равно равносильно тому, что любой мыслительный процесс можно будет описать. И красный цвет, и звук рояля, и удивление, и вообще любой элемент сознания станет программой, алгоритмом, записью на некотором формальном языке.

Но такого языка не может быть, сознание им невыразимо. Поэтому что такое мышление? Со стороны чего мы наблюдаем модели, которые строим? По-видимому, со стороны явления такой сложности, на которое со стороны посмотреть уже нельзя, которое исследованию и пониманию недоступно уже полностью — и выражением этой сложности является сознание, реальные свойства которого никакой мыслимый язык описать не в состоянии даже приблизительно.

Учитывая особенности нейронной сети, «со стороны» — это со стороны всего остального опыта. Опыт в нейронной сети — это вся её структура, так как всей структурой сети как целым определяется то, как будут преобразованы рецепторные сигналы на входе сети в сигналы на выходе из неё. Конкретный набор сигналов рецепторов меняет состояние сети некоторым конкретным образом, относительно её предыдущего состояния, тем самым из структуры сети — из опыта — вызывается конкретная реакция, возникает конкретная конфигурация активности выходных нейронов сети. Другими словами, как уже говорилось, опыт в нейронной сети вызывается не по адресу, а по содержанию. Что отличает нейронные сети от традиционных компьютеров, где разные данные хранятся на своём месте на жёстком диске. Эти особенности сетей означают, что опыт — это сама структура сети, а объём опыта равен сложности этой структуры, то есть числу возможных состояний сети, которые могут быть вызваны в ответ на сигналы рецепторов. Поэтому, как целое, весь опыт, очевидно, сложнее, чем любое конкретное состояние сети, вызванное в данный момент.

Таким образом, рассматривая биологическую нейронную сеть «поверхностно», исследуя её «снаружи», описывая опыт как число возможных состояний, мы как будто наблюдаем просто сложную структуру из множества нейронов, способную меняться — и эти изменения, вероятно, даже могут носить характер некого континуума. Но «наблюдая» в этой структуре собственное сознание и замечая, что любой воспринимаемый нами объект — это невыразимые никаким языком ощущения и эмоции, сложность биологической нейронной сети предстаёт в совершенно ином свете, а адекватное представление о природе, очевидно, требует включения в него модальности.

Теперь вернёмся ещё раз к математике и вспомним первую главу. На её первых страницах говорилось о том, что множество всех множеств — это объект противоречивый. Противоречивость множества всех множеств имеет и другие основания, но мы привели в пример то парадоксальное обстоятельство, что, с одной стороны, такой объект, как множество всех множеств, очевидно, должен существовать, но с другой — несмотря на кажущуюся простоту, множество всех множеств нельзя определить, то есть на самом деле это объект недоступный описанию, а значит, и осмыслению. Можно ли найти в математике ещё что-то подобное?

Действительно, обнаружить в математике «немыслимые» объекты достаточно легко.

Чтобы найти, где они находятся, представим все числа, которые можно как-либо определить, то есть записать прямо или посредством некой формулы, уравнения. Например, это — 1; 2; 75,9376; 1/3; 0,315; ; и так далее. Обратим внимание, нам нужно не точное значение числа (к примеру, узнать, чему равно ;, нельзя, так как его вычисление бесконечно), а достаточно того, что хотя бы есть формула его вычисления, то есть это число можно определить посредством этой формулы.

В итоге количество таких чисел, очевидно, будет бесконечным (ведь одних натуральных чисел уже бесконечное количество), но при этом будет счётным множеством, так как эти определения ничего не мешает считать — последовательно нумеровать, одно за другим, теми же натуральными числами. Однако если мы вытащим из любого несчётного множества счётное множество, то оставшееся множество всё равно останется несчётным. А в нашем случае оно будет ещё и состоять из таких чисел, которые определить уже нельзя — вообще никак. Привести конкретный пример такого числа, естественно, нельзя, ведь чтобы его сообщить, его надо будет определить, а все такие числа уже выбраны.

Это означает, что несчётные множества содержат такие числа, которые не могут быть как-либо определены, то есть не могут быть записаны, обозначены, их нельзя помыслить, представить, сообщить, вывести из чего-либо известного. Другими словами, сложность определения таких чисел, бесконечна, ни в чём известном невыразима, нет таких слов, формул, уравнений, которые бы позволили это сделать.

И завершает эту математическую конструкцию переход количества в качество, так как множество всех множеств, которое обобщает всё — всё мыслимое, всё сущее, все языки и все числа — есть уже не просто нечто неопределённое, а оно противоречиво. Но мир дан нам через ощущения, поэтому всё — «всё мыслимое, всё сущее, все языки и все числа» — это на самом деле наше сознание, сложность нашего мозга, принципиальная невыразимость которого языком проявляется и в противоречивости такого математического объекта, как множество всех множеств.

В итоге пластичность биологических нейронов, их способность взаимодействовать со средой, по-видимому, носит качественно более сложный характер, чем те же способности любой искусственной системы. Представленные аргументы говорят не просто о многочисленности возможных состояний нейронной сети, каждое из которых может быть описано и проблема только в том, что нельзя описать все состояния, а о неприменимости какого-либо описания ни к одному из этих состояний, неразложимость мышления на некие формализованные элементы и шаги вычислительного процесса. Другими словами, мышление действительно нельзя описать каким-либо языком не только «количественно», но и «качественно». Поэтому мышление в принципе не может быть выражено каким-либо алгоритмом сколько-нибудь близко к сложности оригинала, в том числе как вычисление искусственной нейронной сети или любой другой искусственной системы.

Снова забегая вперёд, заметим, есть ещё один претендент на роль «не алгоритма», который, как ни странно, тоже имеет прямое отношение к работе мозга, — это хаос. Нечто в высшей степени неупорядоченное, принципиально непредсказуемое, но, как говорилось, при этом хаос способен к самоорганизации — эволюции к порядку и его всё более сложным формам. Именно хаос и его способность к самоорганизации является не только физическим началом, или «источником», мышления, но в каком-то смысле и жизни в целом. Очевидно, по причине принципиальной непредсказуемости и неупорядоченности возможность выразить хаос словами тоже ограничена.

Также обратим внимание на следующее. Означают ли сделанные выводы, что работу мозга, когда сознания нет, описать можно? Учитывая, что какая-либо значимая интеллектуальная деятельность происходит, когда человек находится в сознании, ответ на этот вопрос не имеет прямого отношения к теме вычислимости интеллекта. Тем не менее дать его можно, он требует рассмотрения физических особенностей работы мозга и состоит в том, что описать работу мозга нельзя, независимо от того, находится субъект в сознании или нет. Напомним, некоторые известные сейчас факты по теме физических оснований работы мозга будут приведены в восьмой главе статьи.

Итак, мы выяснили, что естественный интеллект обладает принципиальным преимуществом в сложности перед любыми искусственными системами, в том числе обучающимися. Алгоритмов, которыми можно описать мышление, не просто много, алгоритм не может выразить процесс мышления в принципе. Любой мыслимый язык человека является качественно менее богатым, чем тот, который способен описать работу мозга. Мышление в принципе невозможно «перенести в компьютер» — в искусственную нейронную сеть, её программное или аппаратное воплощение — потому что отличие между биологическими и искусственными нейронными сетями качественное.

В заключение главы ещё раз ответим на вопрос, означают ли приведённые аргументы, что никакая искусственная нейронная сеть в принципе не сможет быть сложнее интеллекта человека, если рассуждать безотносительно к тому, кто её создаёт? Другими словами, возможен ли в принципе переход количества более простых нейронов искусственной нейронной сети в качество нейронов сети биологической? К примеру, это означало бы, что в принципиальном смысле вычислительными средствами можно воспроизвести все функции мозга и, соответственно, всё богатство поведения человека, но просто сделать это в системе вычислительной, то есть системе «другого типа», чем мозг. Причём, как сейчас понятно, в этой системе не может быть сознания, так как сознание может быть только в невычислимых системах, ввиду того, что сознание нельзя описать каким-либо языком. С другой стороны, искусственный интеллект со сложным поведением, но без сознания, даже предпочтительнее, так как это снимает множество этических проблем.

Как мы выяснили, ответ в том, что работа биологической нейронной сети связана с элементарным уровнем материи. Эта связь означает, что описание любого мыслительного процесса в биологической нейронной сети или даже только механизмов пластичности одного биологического нейрона, равносильно построению бессмысленной теории всего, так как только в такой теории будет описан элементарный уровень материи. Другими словами, с точки зрения познания, то есть с точки зрения описания природы, сложность теории всего бесконечна, ничего сложнее неё быть уже не может, так как в теории всего будет описано всё. Поэтому на формулу всего уже нельзя посмотреть со стороны, а значит, нельзя оценить её истинность или ложность, и даже сформулировать, представить. Таким образом, формула всего не может быть написана в принципе. Поэтому, как ни странно, любые искусственные системы всегда будут качественно проще даже одного нейрона.

Бесконечная сложность даже одного нейрона — это сложность с точки зрения вычислимости, то есть с точки зрения возможности описания явления, но мозг человека, очевидно, сложнее любого своего нейрона или сложнее мозга пчелы. Однако вследствие принципиальной невозможности сколько-нибудь точного описания биологических систем, мы можем оценить эту разницу в сложности только лишь «качественно», а не «количественно», то есть только по неким более или менее общим соображениям, а не точно. А в попытке дать описание, соответствующее их реальной сложности, получается, что и нейрон, и мозг пчелы, и мозг человека имеют одну и ту же бесконечную сложность.

Эта парадоксальная ситуация аналогична попытке сравнить количество веков и количество дней в бесконечной жизни. Интуитивно кажется, что количество дней будет намного больше, но так как счёт и сравнение в этой ситуации не имеют смысла, то на самом деле и веков, и дней будет одно и то же бесконечное количество. Точно так же связь явления с непознаваемым уровнем материи приводит к тому, что «интуитивно» мы можем определить, что одно такое явление сложнее другого — и мозг человека сложнее мозга кошки. Но уточнить, насколько конкретно, не сможем, так как окажется, что попытка составить адекватное представление о явлении столкнётся с необходимостью исследовать его в том числе на непознаваемом уровне материи.

В то же время любая система, сколь бы сложной и непознаваемой для нас она ни была, тем не менее имеет какое-то определённое устройство, а значит, имеет специализацию, область применения, за пределами которой превзойти её сможет и система несравнимо более простая. Это относится и к мозгу человека. Поэтому даже если мы не можем создать ничего сложнее себя, то, выделяя в своём опыте отдельные задачи, мы можем строить системы, которые, оставаясь много проще нас самих, в решении этих отдельных задач будут нас превосходить.

Например, как уже говорилось, мы не сможем создать вычислительную систему сложнее интеллекта пчелы, так как биологические системы качественно сложнее вычислительных. Но мы сможем создать вычислительную систему, которая считает намного лучше пчелы, или умеет делать то, что не умеет пчела — к примеру, управлять автомобилем. Однако в случае нас самих дело обстоит сложнее, так как у создаваемого нами искусственного интеллекта не может быть таких задач и умений, которых нет у нас. Ориентир для создания искусственного интеллекта у нас в принципе может быть только один — мы сами, наш опыт, наши потребности и способности, так как мы не можем ориентироваться на то, что не знаем. Поэтому всё, что выходит за рамки нашего опыта, не может быть нам понятно, и потому не будет нами развиваться в работе систем в ходе отбора.

В том же смысле гипотетические представители внеземных цивилизаций, обладающие более высоким интеллектом, то есть способные к более высоким уровням абстракций и соответствующей сложности тактике и стратегии поведения, вероятно, могут построить вычислительную систему, функции которой мы сможем понять столь же ограниченно, как ограниченно человекообразная обезьяна способна понять функции смартфона. Но это не значит, что вычислительная система инопланетян будет сложнее нашего мозга или что смартфон сложнее мозга обезьяны. Поэтому если эти инопланетяне захотят воссоздать в своей вычислительной системе всю сложность мышления человека, то они тоже потерпят неудачу, хотя и смогут приблизиться к сложности человека ближе, чем сам человек. Точно так же, пытаясь воспроизвести всю сложность поведения обезьяны или нейрона, неудачу потерпим мы.


5.

Рассмотрим сделанные в предыдущих главах утверждения ещё раз, с некоторыми новыми подробностями и аргументами.

Качественное отличие языка от работы мозга, описанное в предыдущих главах, — это следствие того простого обстоятельства, что язык — это некоторый итог работы мозга, то есть язык формируется в мозге, а не «поступает» в мозг готовым извне. Поэтому вполне естественно, что процесс формирования языка не может быть описан каким-либо языком из тех, которые формируются, для этого нужен качественно более богатый язык. Однако для появления такого языка нужна и система с принципиально более богатыми возможностями, чем мозг человека. Говоря более наглядно, описать своё мышление каким-либо «своим» языком нельзя, так как это равносильно возможности посмотреть на самого себя со стороны, наблюдать собственные мысли «изнутри», в процессе их формирования, до их появления в своей голове. Что, естественно, не имеет смысла.

Этот же аргумент можно связать с тем фактом, что мозг отвечает за активность мышц и желёз, тогда как речь — это только часть от всей мышечной активности, при этом активность всех мышц формируется целостно, что обеспечивает согласованность их работы в едином порядке, как один сложный процесс. Поэтому никакого языка, который только часть от всей сложности работы мозга, очевидно, не может хватить для описания работы мозга во всей сложности.

Таким образом, из сказанного следует, что если работу системы полностью определяет написанный человеком алгоритм, то есть работу системы можно полностью описать, то система может быть только качественно проще интеллекта человека. Однако, исходя из этого факта, можно предположить и то, что, наоборот, уменьшение доли алгоритма в работе создаваемой системы, то есть уменьшение в работе системы доли точно и однозначно понятного, того, что можно выразить языком, в той же степени позволит ограничение на сложность создаваемых систем преодолеть и всё-таки создать искусственный интеллект равный или даже сложнее интеллекта человека.

Например, продвижение в эту сторону действительно заметно на примере искусственных нейронных сетей. Их создание и обучение подразумевает некоторую неформальную составляющую угадывания, интуиции. Знания не вносятся в сеть заранее полностью готовыми, как это происходит в обычной компьютерной программе, знания которой суть знания программиста, а в объёме того, что заранее не задано, знания формируются в процессе обучения. Как следствие, искусственные нейронные сети могут решать задачи, решение которых самому человеку непонятно, то есть, по сути, в некотором объёме могут «мыслить» самостоятельно.

Однако чем меньше в работе систем однозначно понятного, точно заданного, тем быстрее будет расти составляющая отбора. Потому что если заранее мысленно просчитать работу системы нельзя, остаётся только отбирать удачные варианты, созданные более или менее наугад, оценивая их только по «поведению», то есть по итогам их работы, а не точно представляя, что, как и зачем система делает.

В свою очередь, сложность мышления и сложность поведения — это одно и то же, так как мышление «на выходе» имеет поведение и чем сложнее мышление, тем сложнее может быть поведение. При этом сложность своего мышления — это, очевидно, максимальная сложность доступного человеку знания, так как более сложное знание в мозге попросту «не поместится», причём приближение к максимально сложному знанию — бесконечно. Наглядно убедиться в последнем можно, попробовав описать все свои знания, весь опыт. Очевидно, что это потребует не только «количества» слов, но их «качества», то есть построения такого языка, который будет способен описать сознание, квалиа. И так как никакой язык для этого не подойдёт, то описание «всего опыта» потребует бесконечного времени, другими словами, итог такого описания не имеет смысла. Например, чем больше мы описываем свой опыт, тем точнее мы узнаём себя, то есть превращаем опыт в опыт формализованный, в точное знание. Но итог этого процесса — алгоритм мышления, а он не имеет смысла. Или можно сказать проще: описывая себя, мы в своём опыте создаём модель себя, но модель себя не может быть равна самому себе, ведь объём опыта ограничен, второй человек в мозг уже не поместится, следовательно, модель себя может быть только много проще себя. Таким образом, описать себя, то есть понять себя, действительно, можно только очень ограничено, причём не описать, но хотя бы описывать, получится только малую часть опыта — тот самый «гребень волны», о котором говорилось ранее.

Однако это означает, что оценить своё поведение можно в той же степени ограниченно, как ограничено понимание собственного мышления. Поэтому по мере приближения к сложности поведения человека поведение искусственных систем тоже будет становиться нам всё менее понятным. Более того, если мы хотим создать искусственный интеллект равной себе сложности, то ориентироваться нужно не на нынешний опыт, не на нынешнюю сложность поведения человека, а на максимально возможный опыт, максимально возможную сложность знания, так как равный нам искусственный интеллект, естественно, должен иметь тот же потенциал обучения, что и интеллект человека, то есть обладать тем же потенциальным богатством поведения, которым обладает человек, иначе это будет более простой интеллект. Но если нынешние знания у нас хотя бы «есть», то «максимально возможных» нигде нет — и никогда нигде не будет, так как приближение человека к максимуму своих интеллектуальных возможностей, очевидно, тоже бесконечно. Поэтому если к сложности нынешнего опыта можно хотя бы приближаться, то за его рамками приближаться не к чему, за рамками нынешней сложности знаний находится уже полная неопределённость.

Как следствие, на практике сложность искусственного интеллекта всегда будет ограничена некоторым уровнем от нынешних знаний, то есть будет всегда ниже сложности интеллекта человека. Непосредственно это будет проявляться в описанных во второй главе проблемах отбора, общий смысл которых в том, что по мере приближения сложности создаваемых систем к сложности интеллекта человека время каждого нового усложнения будет всё быстрее стремиться к бесконечности.

Рассмотрим ещё некоторые аргументы.

Например, как уже говорилось, «мышление» пчелы тоже невыразимо никаким алгоритмом, то есть никакая вычислительная система не сможет во всей сложности воспроизвести работу мозга пчелы по трансформации сигналов рецепторов в активность её мышц и желёз. В то же время мозг пчелы, как и любая система, специализирован — «заточен» под некоторые важные для пчелы функции. Поэтому ограничение на алгоритмизацию его работы фактически говорит только о том, что весь объём способностей пчелы во всей их сложности алгоритм воспроизвести не сможет. Проще говоря, вычислительная система не сможет стать пчелой. Максимум возможного — некое упрощённое подобие интеллекта пчелы. Однако вычислительная система сможет намного превзойти пчелу в отдельных элементах её опыта (например, в богатстве речи, ввиду относительной простоты сигнального языка пчёл), а также иметь множество «способностей», которых нет у пчелы (например, управлять автомобилем, решать математические уравнения), пусть даже сложность этой вычислительной системы всё равно не превысит сложность интеллекта пчелы.

Точно так же никакая вычислительная система не сможет во всей сложности повторить интеллект человека. Но точно так же может существовать такая вычислительная система, которая сможет превзойти наш интеллект в его отдельных способностях (например, запоминать больше точных данных — чисел, формул, текстов, изображений — и оперировать ими с большей скоростью, чем человек, хотя и более простым образом) или иметь интеллектуальные способности, которых нет у человека (пример таковых привести невозможно, так как представление о таких способностях означает их наличие в том или ином объёме).

Однако если речь идёт о вычислительных системах, создаваемых самим человеком, — а именно о них и идёт речь, то способностей, которых нет у человека, у таких вычислительных систем не будет. Человек может ориентироваться только на свой опыт, свои знания, так как никаких других ориентиров у нас нет и в принципе не может быть, поэтому непонятное не станет человеком развиваться в ходе создания, обучения и отбора систем. Причём важно подчеркнуть, что эти знания — это нынешние знания, ведь на знания, которых ещё нет, ориентировать не получится.

Как следствие, максимальная сложность создаваемого человеком искусственного интеллекта будет ограничена некоторым уровнем от сложности нынешнего опыта человека, именно к этому уровню будет бесконечно приближаться сложность вычислительных систем, так как только этот опыт человек может использовать для создания, обучения и отбора систем. Потому что если не сама работа создаваемой системы, то минимум результаты этой работы должны быть понятны человеку, находиться «внутри» его нынешнего опыта, чтобы он мог эти результаты оценить и принять решение об адекватности системы, продолжать разработку систем в этом направлении или прекратить. К примеру, мы не сможем обучить систему игре, если не будем знать правила этой игры и того, что является в ней выигрышем. То же с любыми другими функциями — их сложность будет всегда ограничена представлением человека о этих функциях.

Тогда как сложность интеллекта самого человека равна сложности максимально возможного опыта, так как только максимально возможный опыт характеризует ту сложность, которую может достичь мозг в ходе обучения, то есть реальную сложность интеллекта человека, его реальный потенциал. Однако приближение к максимально возможному опыту бесконечно, то есть этой сложности для самого человека не существует, он не может её оценить, как-либо выразить, измерить, так как именно к этому уровню бесконечно приближается сам человек в ходе познания. Очевидно, всё это говорит о том, что разница в сложности между интеллектом человека и создаваемыми им системами принципиальная.

Тогда, как кажется, выход в том, чтобы снизить жёсткость отбора. На самом деле этот способ уже учтён в его описании во второй главе, тем не менее посмотрим ещё раз, внимательнее.

И алгоритм, и отбор — это знания человека, которые он тем или иным способом вкладывает в создание систем, исходя из своего представления о необходимом устройстве или необходимом поведении системы. В случае прямого алгоритма решения задачи (детерминированный алгоритм) — это точный расчёт и формальный язык, в случае отбора (недетерминированный алгоритм) — это знания более общие, так как отбор подразумевает в том числе и менее формальные основания, более интуитивного характера, которые ложатся в основание создания и оценки поведения систем, работающих по такому алгоритму. Но, как было показано, любой язык качественно проще работы мозга, поэтому действительно, вполне естественно, что уменьшение формального содержания, которое происходит во втором случае, все-таки позволяет создаваемым системам приблизиться к сложности мышления ближе.

Таким образом, снизить жёсткость отбора — это проводить его на основании общих и не строгих соображений об адекватности поведения систем, то есть максимально интуитивно, больше доверяя системам, а не проверяя все их решения. В этом смысле минимальной жёсткостью будет обладать «отбор без отбора», то есть создание систем максимально наугад без какой-либо последующей оценки результата, то есть, по сути, случайным образом. Понятно также, что формальное содержание можно снизить и путём уменьшения такового в самой работе систем, создавая их тоже интуитивно, исходя из общих соображений, как художник рисует абстрактную картину, не используя расчёты и вычисления. Последнее невозможно в случае искусственных нейронных сетей, которые в любом случае являются вычислительными системами, однако гипотетически таким способом можно «ваять» системы сразу из живых нейронов.

Однако если при этом не будет жёсткого отбора, то количество вариантов систем, которые нужно рассмотреть — например, с разной организацией нейронов в сети и свойствами самих нейронов — очень быстро станет неисчислимым. Дело в том, что отбор нужен не только для внешней оценки адекватности систем, но и для того, чтобы изучать устройство созданных систем, выделять в них верные решения и продолжать их в новых системах, пусть даже понять работу систем можно только в некоторых общих параметрах. То есть именно для того, чтобы ограничивать количество возможных вариантов систем, а также развивать теоретическую базу и улучшать технологии. Поэтому снижение жёсткости отбора пропорционально увеличит количество возможных вариантов систем и замедлит развитие технологий. В результате снова устремляя к бесконечности время приближения создаваемых систем к сложности интеллекта человека, только теперь уже по этой причине.

Например, даже попытка копировать какой-либо конкретный мозг, используя для этого живые нейроны, выращенные в некоторой питательной среде или взятые из другого мозга, столкнётся с теми же проблемами. Все нейроны разные, поэтому сразу «собрать» копию мозга не получится, а попытка направленно таковые вырастить равносильна формализации механизмов пластичности нейрона, что не имеет смысла. Как следствие, тот же рост неопределённости и все связанные проблемы.

И наконец снижать жёсткость отбора сверх некоторого уровня нельзя не только по изложенным сейчас причинам. Более того, жёсткость отбора должна, наоборот, расти. О чём говорилось во второй главе, чем сложнее система, тем выше её возможности, а значит, всё важнее становится точная оценка её адекватности, цена ошибки всё выше. Тем самым рост сложности будет тормозить сам себя.

В итоге все аргументы говорят об одном. Какой бы способ ни использовать, не существует возможности самому человеку создать систему, превосходящую сложность его интеллекта или равную ему. Ограничение заключается в том, что чем больше система искусственная, то есть чем больше её работу определяет написанный человеком алгоритм, тем меньше будет её сложность, по сравнению с интеллектом человека. Уменьшение формальной составляющей позволяет на практике достичь большей сложности создаваемых систем, но задолго до цели рост неопределённости лишит смысла и такие попытки тоже.


6.

В этой главе снова обратимся к теоремам Гёделя о неполноте формальных систем. С учётом предыдущих глав, выясним, какой смысл с точки зрения создания искусственного интеллекта всё-таки имеют теоремы, почему они вообще имеют какой-либо смысл, и приведём ещё одну интерпретацию теорем.

Итак, в первой главе мы выяснили, что из ограничений, накладываемых на формализацию математики теоремами Гёделя, следует противоречивость алгоритма мышления. Напомним гёделевский аргумент: если мышление — это алгоритм, то все утверждения человека, включая математические, должны быть выводимыми, в том числе и истинная невыводимая формула. Что приводит к противоречию, так как эта формула невыводимая. 

Но, как оказалось, в мозге нет алгоритма мышления, поэтому и воссоздавать его в искусственном интеллекте не требуется, а значит, можно предположить, что ограничения теорем Гёделя с перспективами искусственного интеллекта не связаны. Такая точка зрения достаточно популярна. Считается, что аргументы теорем Гёделя, возможно, запрещают только прямой алгоритм мышления, но не запрещают искусственную нейронную сеть, равную сложности мозга, так как нейронные сети меняются в ходе обучения. Например, прямой алгоритм мышления противоречив, потому что он позволит выводить противоположные утверждения. Но в нейронной сети, вследствие её изменения в ходе обучения, противоположные утверждения будут итогом вычисления, по сути, разных нейронных сетей, то есть разных алгоритмов, их сравнение не имеет смысла.

Однако против этой точки зрения говорит то, что в искусственной нейронной сети можно описать все изменения, то есть на самом деле у нас одна нейронная сеть, а не разные, а значит, по крайней мере в принципиальном смысле, любую искусственную нейронную сеть можно заменить прямым алгоритмом. Поэтому если мышление можно выразить в искусственной нейронной сети, то всё равно возникает то же самое противоречие — всё утверждения, включая противоположные, в принципиальном смысле становятся выводимыми.

Также, то, что мышление невыразимо никаким алгоритмом, включая искусственные нейронные сети и другие недетерминированные алгоритмы, как кажется, сам по себе ничего не говорит о том, насколько близко алгоритмы могут приблизиться к сложности мышления. Однако ответ на этот вопрос тоже можно обнаружить в теоремах Гёделя — сложности создаваемых систем будет всегда ограничена нынешним опытом человека.

Например, из теорем следует, что посылки теории в рамках самой теории невыводимы, лежат за рамками теории. Проще говоря, теорию нельзя вывести из самой теории, поэтому, например, доказательство непротиворечивости теории тоже находится за её рамками, ведь только извне теории можно оценить её всю целиком. Но, создавая искусственный интеллект, мы фактически выводим себя из самих себя. И, естественно, тоже сталкиваемся с проблемами: чем ближе мы приближаем сложность создаваемых систем к сложности себя, тем стремительнее растёт неопределённость. При этом мы «выводим себя», исходя из нынешних знаний — о себе, о мире. Таким образом, рост неопределённости происходит по отношению к нынешним знаниям человека, а значит, предел сложности, к которому бесконечно приближаются создаваемые нами самими системы — это тоже уровень сложности нынешних знаний человека.

Мы также обратили внимание, что из теорем следует невозможность построения теории всего, так как из теории всего должно быть выводимо всё, но посылки теории всего, согласно теоремам, невыводимы в рамках самой теории всего. На практике это означает, что исходные положения наиболее общей физической теории должны лежать за рамками физики, то есть должны находиться в области метафизики. Иными словами, они не могут быть проверены экспериментально, могут существовать только умозрительно, как некое допущение, из которого мы исходим. Однако метафизика, как просто менее формальная теория, тоже должна основываться на некоторых допущениях, тоже менее формальных — и, таким образом, изначально наше знание возникает из ниоткуда, из неформализованного опыта. Поэтому проследить появление знания от реального мира до нашего представления о нём невозможно, а получает или не получает подтверждение любое знание в конечном итоге через то, повышает оно качество жизни или нет, а не соответствует ли оно реальности, ведь настоящая реальность не может быть известна.

Более того, теория всего равносильна описанию элементарного уровня материи, поэтому элементарный уровень материи принципиально непознаваем, ведь теория всего не имеет смысла. Таким образом, представить верные посылки теории всего не поможет и метафизика, наш опыт всегда привносит в представление о реальном мире субъективную составляющую, Причём несложно показать, что чем глубже мы познаём материю, тем эта составляющая становиться больше, то есть, несмотря на растущую предсказательную силу, адекватность теорий реальному миру должна снижаться. Как это возможно и в чём выражается, речь пойдёт в седьмой главе.

Описанию элементарного уровня материи равносилен алгоритм мышления. Мозг — это некоторая физическая система, поэтому принципиально невозможным алгоритм мышления может быть только в том случае, если мышление непосредственно связано с элементарным уровнем материи, так как только этот уровень материи не может быть описан каким-либо языком и, следовательно, каким-либо алгоритмом, формулой.

В итоге создание теории всего, описание работы мозга, создание искусственного интеллекта и теоремы Гёделя о неполноте формальных систем действительно оказываются связанными, с разных сторон и с разной абстрактностью эти объекты отражают одно и то же — пределы познания.

В то же время нетрудно заметить, что выводы о пределах познания или границах сложности искусственных систем можно сделать и не привлекая математические теоремы. Например, много таких аргументов приведено в первой главе или это аргументы, связанные с сознанием, приведённые в четвёртой главе. Из-за чего, как уже говорилось, можно сказать, что это теоремы Гёделя интерпретируют эти аргументы в математическом ключе: ограничивая возможности формального языка на описание самого себя (если формальная система непротиворечива, то на языке самой системы нельзя доказать её непротиворечивость; если формальная система непротиворечива, то в ней должна быть невыводимая и неопровержимая формула), они, таким образом, ограничивают и описание мышления, как явления, продуктом которого является язык, и описание мира, ведь мышление его часть.

С другой стороны, можно встретить мнение, что теоремы Гёделя ничего не говорят о реальном мире, ведь в них напрямую ничего о нём не говорится, а что они, может быть, только случайно повторяют логику аргументов менее абстрактного характера, сформулированных на естественном языке. Так есть ли связь теорем и этих аргументов? И если есть, то в чём её причина?

Очевидно, связь есть. Наука исследует природу и описывает её законы, а математика — это язык науки, так как только строгие однозначные формулировки позволят выразить точное знание. Поэтому ограничения формального языка — это и ограничения на познание природы, на описание её законов. Но почему формальный язык вообще имеет какие-то ограничения? Почему они совпадают с логикой аргументов языка естественного? 

Все законы природы известны быть не могут. В ином случае принципиально выводимым становится всё — всё прошлое и будущее. В том числе все утверждения, которые только можно сформулировать, включая противоположные. По этой причине теория всего не имеет смысла — и для этого вывода действительно не нужна математика. Но если все законы природы известны быть не могут, то очевидно, что истинных утверждений всегда будет больше, чем выводимых — сказать можно много чего правильного, а доказать получится гораздо меньше.

Однако формальная система — это, по сути, тоже описание некого «математического» мира, со своими законами природы в виде аксиом и языком в виде правил вывода. Поэтому, чтобы не быть противоречивым описанием — когда можно и доказать утверждение, и его опровергнуть — формальная система тоже не должна обладать полным набором аксиом, то есть полным набором законов природы математического мира. И тогда в ней, естественно, тоже должны быть истинные невыводимые формулы — верные утверждения, которые нельзя доказать. 

Таким образом, отвечая на вопросы выше, ограничения формального языка и связь этих ограничений с аргументами менее абстрактного характера есть и возникает она по причине того, что и естественный язык, и язык формальный суть всё более абстрактное выражение нашего опыта. В свою очередь, опыт как целое представляет из себя модель наблюдаемого человеком мира. Эта модель включает в себя и логику событий тоже, то есть не только то, что происходит, но и как это происходит. Которая ложится в основание «правил вывода» нашего мышления — правил логики, отношений объектов, их преобразований. И эта модель в целом непротиворечива (или по крайней мере была непротиворечивой до сих пор), так как возникает в результате естественного отбора и обучения, то есть в непосредственной связи с реальностью, где не бывает такого, чтобы события происходили и не происходили, что-то было и не было, потому что в наблюдаемой природе все «противоположные» события на самом деле разные события. 

Итак, мы рассмотрели две интерпретации теорем Гёделя о неполноте — связь теорем с построением теории всего и их связь с созданием искусственного интеллекта. Тем не менее можно найти ещё более глобальную связь теорем Гёделя с наблюдаемой природой и тем самым интерпретировать теоремы ещё одним способом — связать их с выделенной ролью субъекта в описании природы. Дело в том, что формальная система, как описание математического мира, — это знание субъекта, но и описание реального мира — это тоже знание субъекта. Посмотрим, что из этого следует.

Если описание законов природы будет точным, то описание перестанет быть описанием и станет самой природой, ведь точно соответствует природе только сама природа. Поэтому теория всего не имеет смысла, а в формальной системе, если она непротиворечива, должны оставаться истинные невыводимые формулы. Точно так же если мы проследим связь среды с утверждениями о ней, в точности опишем, как утверждения возникают, то есть без разрывов «соединим» среду и утверждения, то утверждения перестанут отличаться от среды, станут ей. Описание опять перестанет быть описанием, а станет самой природой.

Но описание — это прерогатива субъекта, так как только субъект описывает мир. Поэтому если субъект будет описан и, таким образом, станет просто средой, перестанет от неё отличаться, то и все его знания тоже станут просто средой и перестанут быть описанием. Таким образом, сам субъект уже не может быть описан, такое описание не имеет смысла — а на границы возможного нам указывает сознание, которое невыразимо словами никакого языка. Можно описать всё, но не уровень сознания, то есть, как мы ранее пришли к выводу, не элементарный уровень материи.

Таким образом, вывод, что описание должно отличаться от того, что описывается, говорит о выделенной роли субъекта в описании природы. Субъект описывает природу, это описание часть субъекта, а субъект часть природы. Но, несмотря на это, субъект, то есть его сознание, не может стать частью этого описания, иначе описание утратит смысл. Как следствие, описание ни природы, ни человека не может быть полным, так как субъект из этого описания должен быть исключён.
 
Посмотрим ещё раз. Теория всего не имеет смысла, поэтому любое знание, чтобы иметь смысл, должно иметь границы применимости. Например, это значит, что могут быть только отдельные теории, которые, таким образом, описывают только какие-то отдельные явления природы. И описывают не с абсолютной точностью, так как абсолютная точность тоже равносильна построению теории всего. Причём утверждения в отношении всего нельзя не только подтвердить или опровергнуть на практике, но даже адекватную гипотезу в отношении всего построить нельзя, так как в человеческом языке попросту не может быть такого языка, который бы позволил её выразить. А так как теория всего равносильна описанию элементарного уровня материи, то не имеют смысла утверждения и о том, что происходит на элементарном уровне материи.

Но субъект — это и есть всё. Мир дан нам в ощущениях, весь доступный нам мир — это мир сознания, поэтому, исследуя себя, мы в той же степени исследуем природу, и наоборот. Пока в ощущениях остаётся что-то непонятное и непредсказуемое, очевидно, что природа понятна ещё не полностью, ведь мышление часть природы. И наоборот, пока природа понятна ещё не полностью в ходе мыслительных процессов будет оставаться та или иная доля непредсказуемости.

Следовательно точно так же, как смысл могут иметь только утверждения в отношении отдельных явлений природы, так же смысл могут иметь только утверждения в отношении отдельных элементов сознания. Которое мы делим на явления психические и физические, объективные и субъективные, тот опыт или иной, но не имеют смысла утверждения в отношении всего сознания, то есть «элементарного уровня» сознания — того уровня материи, который сознание образует. Потому что в таком случае потенциально выводимыми станут все ощущения, а значит, и все утверждения, включая противоположные. Выводимым опять станет всё. Поэтому теория сознания, теория всего и алгоритм мышления суть один и тот же не имеющий смысла объект. Вспомним первую главу: «всё мыслимое», «всё сущее» или «самый богатый язык» — это нечто большее, чем просто что-то мыслимое, что-то существующее или какой-либо язык. Но нельзя больше чем мыслить, существовать и говорить, поэтому для того, кто мыслит, существует и говорит, это объекты непознаваемые, недоступные осмыслению.

Математика не оторвана от остального опыта человека. Наоборот, математика — это определённый — формальный — язык, который, описывая структуры, порядок и отношения, является идеализированным отражением нашего опыта. В свою очередь, опыт не возникает из ниоткуда, опыт — это связь потребностей и способностей, мозга и среды. Поэтому не является странным, что, как кажется, даже в чисто математических утверждениях можно обнаружить связь с реальным миром. В данном случае увидеть связь языка и познания, субъекта и среды, интеллекта искусственного и естественного. По мнению автора, ещё более интересные взаимосвязи приведены в следующей главе.


7.

В этой главе рассмотрим пределы и тенденции познания, их связь с субъектом и влияние на фундаментальные научные теории.

Как уже говорилось, помимо искусственного интеллекта другой известной интерпретацией теорем Гёделя является невозможность построения теории всего, понимая её как некую «максимальную» теорию, равносильную всем законам физики, из которой будет выводимо всё сущее, все события и явления, включая начало и конец мира или бесконечность его существования. Теория всего не имеет смысла, аргументы на этот счёт уже были приведены, поэтому сейчас только лишь коротко вспомним некоторые из них.

Но прежде обратим внимание на значение теории всего. Можно предположить, что теория всего является идеей слишком абстрактной, далёкой, не имеющей смысла с практической точки зрения. С практической точки зрения теория всего действительно не имеет смысла, потому что она не может быть построена. Однако теория всего — это ещё и то, к чему познание стремится, как к своему абсолютному итогу. И пусть этот итог недостижим, но, задавая направление, он указывает и на тенденции, которые по мере приближения к теории всего будут становиться всё более заметными. Именно с этой точки зрения теория всего представляет особенный интерес. Поэтому после краткого рассмотрения причин её противоречивости, рассмотрим эти тенденции подробнее.

Как следует из теорем Гёделя о неполноте, самих формальных средств для формализации математики недостаточно, в то же время других средств, кроме формальных, для формализации не существует. Поэтому вся математика формализована быть не может. Несмотря на то, что в случае теории всего речь, как кажется, идёт о реальном мире и физике, на самом деле речь продолжает идти о математике. Дело в том, что в процессе познания человек формализует явления природы, гипотетическим итогом чего должна стать формула, которая опишет всё сущее, тем самым сведя мир в одну глобальную математическую теорию, «максимальную» формальную систему, в которой, как часть природы, будет выводим и сам субъект, и вся математика, и построение самой этой формулы. Но это невозможно, потому что тогда как раз окажется, что математика была формализована только формальными средствами, так как формализовано будет всё, включая и все средства.

На языке теории всего должно быть возможным сформулировать истинное утверждение, которое эта теория не сможет доказать, то есть непротиворечивая теория всего должна быть неполна, но теория всего по определению не может быть неполна. Наоборот, в теории всего выводимым должно быть любое утверждение, которое только можно сформулировать, а значит, в том числе утверждения противоположные и в том числе о ложности самой теории всего, так как все утверждения, которые только можно сформулировать, следуют из этой теории. Но очевидно, что такая теория не будет иметь смысла, теория, в которой можно вывести и утверждение, и его отрицание, является противоречивой.

Теорию всего принципиально нельзя фальсифицировать, то есть представить какое-либо её опровержение, хотя бы гипотетическое, так как это окончательная теория, она описывает всё, поэтому она в принципе не может вступить ни в какое противоречие с опытом. Но это значит, что на теорию всего нельзя будет мысленно посмотреть со стороны, чтобы оценить её истинность или ложность, так как всё, включая всё как-либо мыслимое, в том числе и само представление об истинности и ложности, уже находится внутри теории всего, выводится из неё. Следовательно теория всего не может быть построена, не имеет смысла. 

Итак, бессмысленность теории всего достаточно очевидна, её бессмысленность следует из аргументов однозначно. Поэтому больший интерес представляют следствия этой бессмысленности, возникающие по причине того, что бессмысленность теории всего носит принципиальный характер, то есть теория всего недостижима не просто с практической точки зрения, а именно с принципиальной.

Например, таким следствием является наличие непознаваемого уровня материи, о котором много говорилось в предыдущих главах статьи. Это элементарный уровень материи, только он является принципиально непознаваемым. Элементарный уровень материи — это основание происходящего всех других её уровнях, поэтому теория всего равносильна описанию материи на элементарном уровне.

Ещё одно следствие состоит в том, что познание природы, как приближение к теории всего, есть фактическое приближение к итогу, который не имеет смысла, которого нет. Поэтому, например, гипотезу в отношении всего не просто нельзя экспериментально проверить, прямо или косвенно, но и даже непротиворечиво сформулировать, так как её объект ни в каком представимом виде не существует, является принципиально непознаваемым. Всё — это объект исключительно метафизический, внеопытный. При этом, говоря обо всём, мы в равной степени говорим об элементарном уровне материи, поэтому непредставимость всего суть непредставимость элементарного уровня материи.

Наконец направление познания на утрату смысла означает и то, что чем глубже природу мы узнаём, тем больше познание теряет смысл, так как познание природы — это бесконечное движение к теории всего, которая не имеет смысла. В свою очередь, общее направление на утрату смысла проявляет себя в конкретных тенденциях познания, которые по мере приближения в теории всего будут становиться всё более заметными.

Рассмотрим обстоятельства утраты познанием смысла подробнее. 

Вспомним первую главу. Построение теории всего равносильно построению максимально не финитистского языка, то есть «не языка», полной его противоположности, поэтому ни что-либо на нём сформулировать, ни даже построить такой язык невозможно. Например, сознание нельзя описать никаким языком, но построение теории всего потребует и описания сознания тоже.

Если построение теории всего потребует максимально выразительного языка, то в ходе изучения материи на всё более глубоком уровне, чтобы оставаться адекватным природе, язык физических теорий тоже должен становиться всё более выразительным и, следовательно, всё менее финитистским. Но чем менее финитистский язык, тем меньше он подходит для выражения ясного, точного и однозначного знания, поэтому прогресс языка в эту сторону ограничен. Как следствие, в ходе познания постоянно увеличивается рассогласование между описанием природы возможным и адекватным. В результате фундаментальные теории, которые строит человек, исследуя природу всё более глубоко, с одной стороны, позволяют делать всё более точные предсказания, с другой — теоретические модели (идеализированное представление об объекте теории, его свойствах и связях, то есть о том, что именно описывают формулы) становятся всё менее соответствующими реальному устройству природы.

Пояснить растущую точность теорий и одновременно их всё большее несоответствие реальности можно таким образным примером. Если уметь мыслить только шары, то, заполняя ими явление, которое куб, его описание будет становиться всё более сложным (потому что, умея мыслить только шары, мы всегда будем видеть только их набор) и всё более неадекватным привычному миру (потому что набор шаров будет всё больше стремиться к форме куба, а куб не похож на привычные «мыслимые» шары), но предсказания при этом будут становиться всё более точными, так как поведение всего набора шаров как целого будет всё более точно имитировать поведение куба (хотя и никогда с абсолютной точностью, так как куб из шаров не собрать).

Забегая вперёд (физические основания работы мозга будут рассмотрены в следующей главе), заметим. Качественные переходы от одной теории к другой, а не постоянное уточнение некой «одной теории», «одной модели мира», имеют физические основания в особенностях нашего мышления. Мы не воспринимаем мир непосредственно, наше представление о нём — это сплав среды и опыта, сигналов рецепторов и структуры мозга, то есть сплав объективного и субъективного. В то же время любое переключение внимания — с одной мысли на другую, от отдельных элементов к образу, от смысла слов к смыслу фразы, от данных к теории — это неравновесный фазовый переход, то есть переход скачкообразный и качественный. Как следствие, такими же более или менее выраженными качественными «скачками» меняется и наше представление о мире.

Вернёмся к растущей неадекватности теорий. Как понятно из примера, неадекватность модели не обязательно будет мешать росту предсказательной силы теорий. При этом рассогласование адекватного и возможного описания не наблюдается непосредственно, так как дать адекватное описание в принципе невозможно. Чёткие, однозначные и конечные последовательности действий решения задач — это естественное предназначение мышления, направленного на достижение неких конкретных целей в контексте общей задачи самосохранения и размножения. Это естественное выражение «понимания», мы так устроены. Поэтому уменьшение финитистского содержания в языке теорий в конечном итоге приведёт только к размыванию смысла их утверждений, а не к переходу на новый уровень понимания или к более точному описанию природы.

В результате на практике утраты познанием смысла избежать нельзя, а наблюдать этот процесс можно только по косвенным признакам в растущих проблемах познания. Познание будет становиться всё более трудным и поэтому будет идти всё медленнее. С одной стороны, из-за этого не имея конкретного итога — и в этом смысле познание будет «бесконечным», с другой — по на практике на некотором этапе оно остановится.

Непосредственно всё это будет проявляться в том, что фундаментальные исследования будут становиться всё более интеллектуально, энергетически и материально затратными и в конечном итоге станут полностью невозможными — «потеряют смысл». Одновременно язык теорий будет становиться всё более сложным — «смысл» теорий будет всё труднее понять, а мир, который из этих теорий следует, будет всё сильнее отличаться от мира наблюдаемого непосредственно, также затрудняя понимание смысла теорий и построение новых. Иными словами, в ходе изучения материи на всё более глубоком уровне постановка экспериментов и обобщение полученных данных в теорию будет становиться процессом всё более сложным, а всё-таки сформулированные теории будут всё более труднопредставимыми, необычными и неоднозначными.

Точно такие же проблемы и по тем же причинам, вспомним, будут возникать и в построении искусственного интеллекта — решение этой задачи, ввиду стремительно растущей неопределённости, будет всё больше терять смысл. Создание искусственного интеллекта равносильно изучению собственного, а изучение собственного равносильно построению теории всего, поэтому такая взаимосвязь естественна.

Ещё одним признаком утраты познанием смысла является то, что мир теорий должен становиться не только всё более необычным и сложным, но и всё более «математическим», абстрактным, «бесплотным», в отличие от мира наблюдаемого непосредственно, объекты которого обладают твёрдостью, упругостью, плотностью.

Причина «математизации» в том, что гипотетическим итогом познания должна стать формула, которая опишет всё. Но описать всё равносильно возможности заменить всё языком, формулами. Поэтому в теории всего не может быть ничего внешнего — того, что эта теория описывает — останутся только математические выражения, которые будут выводиться строго сами из себя. Однако теория всего не имеет смысла. Тем не менее приближение к ней — это и есть познание, поэтому в физических теориях мир на всё более фундаментальном уровне будет всё больше представать как только математический объект, не имеющий никакой механической, «вещественной» природы. В том числе и какой-либо «реальной» природы тоже, становясь всё более необычным, невозможным, из-за чего вызывающим толкования и интерпретации.

И в конечном итоге стремясь к такому миру, который уже не имеет и никакой физической природы тоже, понимая таковую как явления, не выводимые в рамках самой теории. Причём учитывая, что построение теории всего равносильно формализации всего и мышления тоже, а мышление есть непосредственный источник математики, то одновременно с тем, как выводимыми станут все законы физики, выводимой станет и вся математика. Это значит, что математика перестанет быть языком, которым мы описываем явления природы, а сама станет явлением природы, разница между языком и объектом описания исчезнет — вместе со смыслом. Поэтому как только из физической теории исчезнет физическая природа, из неё на самом деле исчезнет и математическая природа, и природа любая, так как теория утратит смысл.

Можно обратить внимание, познание действительно движется в этом направлении. Квантовая теория, описывающая материю в наименьшем доступном сейчас масштабе, или общая теория относительности (ОТО), описывающая мир на макромасштабе, действительно чрезвычайно сложны, необычны и абстрактны. Поля в квантовой теории не имеют механической природы, а частицы, являясь квантами полей (одночастичным возбуждением поля), не имеют размера, считаются точечными. Пространство-время, в котором находятся поля и частицы, согласно ОТО обладает только геометрическими свойствами, а тяготение объясняется его деформацией, то есть поле гравитации в ОТО идентифицируется с самим пространством-временем. Таким образом, материя в этих теориях ещё сохраняет физические атрибуты — частиц, полей, пространств, но в то же время она предстаёт уже действительно «бесплотной»: поля, частицы, пространство-время — это «что-то» только в абстрактном математическом смысле. В то же время реальные размеры частиц неизвестны, а в отличие от других фундаментальных полей, квантовать поле гравитации не удаётся. Нужна ещё более фундаментальная теория, которая сможет объединить «геометрическое» описание и квантовое.

Различие между миром, который следует из фундаментальных теорий, и миром который наблюдается, должно возникать также и в самых общих свойствах миров. За самые общие свойства непосредственно наблюдаемого мира отвечает наше сознание, его континуальность и многомодальность, так как именно сознание — это и есть наблюдаемый нами мир. Поэтому если исходить из предположения, что сознание — это материя мозга «изнутри», некое внутреннее проявление работы мозга, а мышление, в свою очередь, связано с элементарным уровнем материи, то логично ожидать, что материя в своём описании на всё более глубоком уровне должна выглядеть всё больше похожей на свойства сознания, то есть в том или ином приближении континуальность и многомодальность сознания должны следовать из физических теорий, выводиться из них. Однако, наоборот, оказывается, что мир, который предсказывают фундаментальные теории, всё больше от свойств сознания отличается. Например, модели квантового уровня никак не приближают к пониманию сознания и даже скорее противоположны его свойствам, ни один элемент квантовой теории с сознанием не совместим.

Одновременно по мере познания переход от мира теорий к миру наблюдаемому должен становиться всё более скачкообразным и загадочным. Но очевидно, что переход от «ничего» к «чему-то» — от бесплотной и необычной математической абстракции к миру привычному, видимому, осязаемому, твёрдому и упругому — другим быть и не может. «Ничего» не может «постепенно» в каком-либо физическом процессе трансформироваться во «что-то», поэтому этот переход и должен быть необъяснимым и происходить мгновенно: есть или «ничего», или сразу «что-то». В том числе этот переход должен быть связан с наблюдением, так как он происходит только в представлении субъекта.

Наиболее выпукло эти особенности познания проявляются на квантовом уровне в так называемой проблеме измерения. Вспомним кратко содержание этой проблемы.

Проблема измерения связана с коллапсом волновой функции. Волновая функция указывает вероятность обнаружить квантовую систему в том или ином конкретном состоянии в той или иной точке пространства, если будет проведено измерение. Волновая функция эволюционирует во времени, поэтому вероятность тоже меняется. Например, электрон с некоторой вероятностью есть везде, и можно лишь выяснить, какова вероятность обнаружить электрон в том или ином месте, в частности, определить, где он окажется с наибольшей вероятностью и эволюцию этой области во времени. Другими словами, согласно квантовой механике (КМ) до измерения любая частица находится в состоянии суперпозиции, то есть с некоторой вероятностью находится везде в пространстве Вселенной и во всех возможных состояниях одновременно. И только в момент измерения происходит коллапс волновой функции и возникает частица с конкретными параметрами.

Следует подчеркнуть, квантовая механика отличается от теории вероятностей, то есть речь идёт не о том, что электрон где-то находится, но нам просто точно неизвестно, где именно. До измерения электрон, как некая конкретная частица, которая перемещается по определённой траектории, не существует. Поэтому в КМ нельзя интерпретировать измерение как раскрывающее некоторые ранее объективно существовавшие свойства системы. Волновая функция, описывающая эволюцию квантовой системы, говорит не о том, что происходит с квантовым объектом до измерения, а скорее о том, что мы могли бы увидеть, если захотим посмотреть.

Волновая функция ставится в соответствие каждой частице и, таким образом, теоретически любому объекту и Вселенной в целом. Однако очевидно, что мы наблюдаем не вероятности, а конкретные объекты, обладающие конкретной траекторией, упругостью, температурой. Проблема измерения заключается в вопросе — как конкретно вероятности преобразуются в реальный, четко определённый классический результат? Каким образом можно установить соответствие между квантовой и классической реальностью?

Если предположить, что коллапс происходит в процессе декогеренции, то есть в момент измерения, когда квантовая система взаимодействует с классическим прибором и тоже приобретает классические черты, то тогда возникает вопрос: как и когда классические черты возникают у самого прибора и, собственно говоря, у всего наблюдаемого мира в целом? Дело в том, что никаких причин для коллапса волновой функции неизвестно. В квантовой механике нет ничего такого, что могло бы стать основанием для «сваливания» волновой функции в одно конкретное состояние наблюдаемого мира, частью которого мог бы быть прибор.

Причём эксперименты с запутанными частицами показывают, что коллапс волновой функции происходит мгновенно, сразу во всём пространстве. Запутанные частицы (такие, состояние которых связывает общая волновая функция, то есть находящиеся в когерентном состоянии), приобретают конкретное состояние одновременно, в момент измерения одной из частиц и независимо от расстояния между ними. В свою очередь, неспособность напрямую наблюдать коллапс волновой функции (ведь измерения всегда дают определённый результат) породила разные интерпретации квантовой механики, которые представляют из себя попытки объяснить проблему измерения.

В том числе, как часть проблемы измерения, из указанных особенностей квантовой механики следует вопрос о роли субъекта. Сама по себе волновая функция эволюционирует гладко, то есть непрерывно и детерминировано, и взаимодействие с прибором, который тоже описывается волновой функцией, ничего в этом плавном течении нарушать не должно. Проблемы возникают, когда появляется наблюдатель, так как именно он обнаруживает не волновые функции, а конкретный — «классический» — наблюдаемый мир и конкретные частицы. Однако если без наблюдателя причин для коллапса волновой функции нет, то, возможно, что появление и классического мира, и конкретных частиц связано не просто с измерением, а именно с наблюдением субъектом. Конкретный результат возникает не в момент взаимодействия системы с прибором, а позже, в момент осознания результата субъектом. Правда, вопросы в этом случае встают уже в отношении субъекта, имеющего такие загадочные свойства. Как выразился по этому поводу Эйнштейн: «Неужели Луна существует только потому, что на нее смотрит мышь?»

Таким образом, непонятно, как из «бесплотных» частиц может возникнуть видимый и осязаемый «вещественный» мир, но если посмотреть глубже, то появление самих частиц оказывается ещё много более парадоксальным. Волновая функция кажется уже не просто объектом «бесплотным», но и совершенно невозможным с точки зрения какого бы то ни было физического воплощения. По сути, из КМ следует, что до наблюдения вообще ничего нигде нет — ведь вероятность, очевидно, не может быть материей — но может появиться, если на мир посмотрит субъект.

Более того, волновая функция описывает вероятность событий, при этом все они сосуществуют одновременно — вспомним, каждая частица с некоторой вероятностью есть везде и во всех возможных состояниях сразу. Но это значит, что в мире, который описывает волновая функция, ничего происходить не может, ведь в этом мире и всё уже произошло, и всё ещё только произойдёт, так как все возможные варианты начала и конца такого мира тоже сосуществуют одновременно. И только субъект с его необычной ролью, которая, по сути, исключает его из квантовомеханического описания, наблюдает некоторое конкретное состояние мира и, таким образом, становится причиной эволюции этого мира и даже самого его существования.

В то же время, как показано выше, все эти ширящиеся парадоксы могут иметь естественную и в каком-то смысле «обыденную» причину в математизации и растущей неадекватности теоретических моделей.

Сохраняя парадоксы квантовой механики, более фундаментальной и ещё более сложной и необычной может стать теория струн — самая известная из разрабатываемых сейчас теорий квантовой гравитации, помимо более глубокого описания микромира, призванная объединить описание природы на микро- и макромасштабе. Разные варианты этой теории содержат от 10 до 26 пространственных измерений, необходимых для описания колебаний ультрамикроскопических бесконечно тонких одномерных объектов — квантовых струн (и, как одномерных, объектов, очевидно, тоже абстрактных), которые воспроизводят все элементарные частицы и их взаимодействия.

Перспективы теории струн неясны — пока нет совершенно никакого представления о том, какой практически осуществимый эксперимент смог бы её подтвердить или опровергнуть. С другой стороны, если теория всего не имеет смысла, то любое знание, чтобы таковой иметь, должно подразумевать границы применимости — некоторый предел расширения на время и пространство, за которыми оно свой смысл теряет. Поэтому научная картина мира и должна состоять из отдельных теорий, дающих хорошие предсказания в своей области применения, которые при попытке свести их в одно целое, будут конфликтовать, требуя качественно нового, более фундаментального взгляда на мир. И хотя теория струн не является теорией всего в описанном смысле, тем не менее это движение в сторону таковой, которое естественным образом становится всё сложнее.

В итоге, действительно, чем больше мы знаем, тем меньше понимаем, «наглядность» теории всё больше заменяет её математический аппарат, «мир вещей» становится «миром идей», превращаясь в мир бесплотных математических структур, процесс познания становится всё более сложным и затратным, модели всё более необычными.

Теперь обратим внимание на связь познания с сознанием.

В предыдущих главах мы выяснили, что сознание, а значит и мышление, связано с элементарным уровнем материи. Причём элементарный уровень материи непознаваем. Непознаваемый уровень материи — это такое явление, которое нельзя выделить из всего. Действительно, элементарный уровень материи — это основание всех остальных её уровней, поэтому элементарный уровень материи равен всему. Но всё уже невозможно выделить из чего-либо, со всем нельзя провести эксперимент, всё невозможно в него включить. Причём всё нельзя наблюдать со стороны даже мысленно, потому что любая «сторона» всегда оказывается частью всего. Именно поэтому сущность сознания нельзя выразить никаким языком, так как иное было бы равносильно возможности наблюдать со стороны всё, и себя в том числе.

Можно возразить, что мы как раз и «наблюдаем» своё сознание со стороны — со стороны нашего Я. Однако в мозге нет глаз, чтобы он сам в себе что-либо «наблюдал», а наше Я — это тоже сознание, поэтому для объяснения сознания «наблюдение» не подходит и не требуется. Если сознание связано с элементарным уровнем материи — находится на этом уровне, то «мы» — это элементарный уровень материи мозга. Но мы не наблюдаем его со стороны чего-либо, мы им являемся, поэтому сама по себе связь сознания с элементарным уровнем материи понять его не позволяет.

В мозге нет экранов, на которые кто-то смотрит, нейронную сеть мозга нельзя разделить на опыт и не опыт, мышление и не мышление, наблюдателя и наблюдаемое. Эффект же наблюдения внешнего мира или своих мыслей со стороны своего Я, по всей видимости, возникает по другой причине. Как ранее говорилось, «мыслит» вся сеть целиком, являясь «маршрутом» перевода потока сигналов от рецепторов в активность нейронов на выходе сети. При этом большое количество входов означает, что ближе ко входу сеть больше связана непосредственно с самими условиями. Поэтому на нижних уровнях сети уровень абстрагирования минимален, сеть воспринимает всё сразу, в целом, комплексно, вначале выделяя только самые общие признаки условий и задавая такое же общее направление поведения. И наоборот, малое количество выходов означает, что ближе к выходу уровень абстракций растёт — выделяются частные признаки, поведение уточняется под конкретные особенности условий.

Поэтому в большей степени «мы» — это эмоционально-мотивирующее самоощущение, восприятие смысла происходящего, как «фон» опыта более общего, связанного с нижними уровнями нейронной сети мозга, на котором распознаются общие признаки условий и формируется общее направление действий — возникает мотив и эмоциональное побуждение. И в меньшей степени «мы» — это образы и фразы языка, как опыт более конкретный, больше связанный с корой и частными особенностями работы сети. Который, как опыт более частный, «мы» поэтому как будто «наблюдаем со стороны», а точнее, «на фоне» опыта более общего. Как следствие, ничего не наблюдая в своём сознании действительно со стороны, а всегда являясь этим, только на разных уровнях мозга, сознание само по себе не помогает понять, как конкретно оно формируется, из чего «состоит».

Связь сознания с элементарным уровнем материи объясняет, почему нельзя создать вычислительную систему, приближающуюся к сложности мышления — создание такой системы равносильно описанию элементарного уровня материи, но такое описание не просто сложно, а в принципе невозможно, ни намеренно, ни случайно. Или почему нет ни одного одинакового нейрона — если механизмы пластичности работают на элементарном уровне материи, то их сложность равносильна построению теории всего. Связь механизмов пластичности с элементарным уровнем материи означает, что нейрон способен учитывать малейшие нюансы окружающей среды, поэтому на каждые условия возникает столь же точно подобранный индивидуальный ответ.

И наконец связь сознания с элементарным уровнем материи объясняет, почему мир физических теорий по мере всё более глубокого описания материи становится всё более отличным от свойств сознания. Почему не получается уточнить связь сознания с работой мозга сверх некоторых общих идей, и даже, более того, чем больше мы узнаём природу, тем эта связь, наоборот, выглядит всё более противоречивой и невозможной.

Потому что если сознание действительно связано с элементарным уровнем материи, то свойства сознания — его континуальность и многомодальность — это и есть свойства элементарного уровня материи, к описанию которого в конечном итоге познание стремится. Но знание элементарного уровня материи не имеет смысла, это тот уровень, даже гипотезы в отношении которого всегда будут противоречивыми. В результате описание мозга или материи в целом на всё более глубоком уровне — это как будто постепенное приближение познания к описанию свойств сознания. Но на самом деле — это приближение познания к итогу, который недостижим и не имеет смысла, в процессе чего мир, предсказываемый теорией, должен выглядеть всё более необычным — и по отношению к свойствам сознания, как свойствам элементарного уровня материи, прежде всего. В итоге на практике, наоборот, получается именно то, что мир теорий от свойств сознания всё больше отличается.

Как говорилось, проявлением фундаментального направления познания на утрату смысла, вероятно, является и проблема измерения: парадоксальный коллапс волновой функции и переход от абстрактного квантового мира к классическому. Скачкообразность и загадочность этого перехода, по-видимому, связана с растущей неадекватностью и математизацией фундаментальных теоретических моделей, то есть в реальности происходит что-то ещё, но мы можем представить эту реальность только такой — или частицами, или волнами. Аналогично тому как в математике есть только точки и континуум, множества счётные и несчётные, но не представимо ничего между ними и ничего больше них. В результате упуская некое «связующее звено», объединяющее эти модели в качественно более сложное целое. Что, возможно, объясняет проблему измерения, или, точнее, её неизбежное появление в том или ином виде в ходе познания и в конечном итоге неразрешимость.

В свою очередь, связь перехода с субъектом возникает по причине того, что именно по отношению к сознанию субъекта этот переход происходит. Физические теории по факту исключают субъекта — сознание — из описания, так как в принципе не способны описать элементарный уровень материи, с которым сознание связано. Другими словами, мир фундаментальных физических теорий — это мир, где субъект невозможен, где его нет. И чем глубже заглядывают теории, тем тенденция на исключение субъекта усиливается. Но важность его включения в теорию, наоборот, растёт, потому что если в поверхностном описании многое можно упростить и не учитывать, то чем описание глубже, тем точность важнее.

В результате возникает ситуация, что пока в исследуемой системе «нет субъекта» её эволюция, может быть, странная, но никаких парадоксов не возникает — вспомним эволюцию волновой функции. Но в измерении субъект явным образом появляется — именно он наблюдает результат измерения — и парадоксы появляются тоже. Именно в этот момент возникает необходимость «совместить несовместимое» — перевести принципиально вычислимый и не реальный математический мир теории в принципиально невычислимый и реальный мир сознания. Естественно, это возможно только скачком и естественно, что переход должен быть связан с наблюдением. Причём сам момент этого перехода должен быть неясен — может быть, он происходит в процессе взаимодействия системы и прибора, может быть, вследствие осознания. Ясность в этом отношении равносильна пониманию конкретных обстоятельств перехода, то есть возможности установить связь физической теории и сознания, вывести одно из другого — но это невозможно.

Действительно, всеми этими особенностями характеризуется коллапс волновой функции. Когда «из ничего» — абстрактной волновой функции, эволюция которой плавная и детерминированная, скачком возникает «что-то» — частица, как «начало» наблюдаемого и осязаемого мира, элемент менее абстрактного характера, чем волновая функция. При этом коллапс происходит «где-то и как-то» между моментом взаимодействием измеряемой системы и прибора и моментом осознания результата измерения субъектом.


8.

В этой главе скажем о физических основаниях жизни и мышления, а также рассмотрим основные проблемы, возникающие в попытках моделирования работы мозга. В том числе ответим на вопрос — есть ли какие-либо конкретные физические основания у сделанных в предыдущих главах выводов? В частности, у вывода о непосредственной связи мышления с элементарным уровнем материи? Прежде чем продолжить, заметим, что явления, которые сделали жизнь возможной, могут показаться очень необычными и даже невозможными, тем не менее это реальные физические процессы.

С точки зрения физики (и в принципиальном отличии от любых вычислительных систем) клетка, мозг, организм в целом — это открытые термодинамически неравновесные системы, конкретно диссипативные структуры, или диссипативные системы. Далее в тексте будем использовать термин диссипативные системы, однако, заметим, он имеет и другое, редко используемое и чрезвычайно широкое значение, фактически обозначающее любые системы, в которых часть энергии рассеивается — например, вследствие трения (трение приводит к тому, что часть энергии преобразуется в тепло и рассеивается в среде), к каковым, по сути, относятся все реальные системы.

Особенностями диссипативных систем, как систем открытых, является их интенсивный обмен со средой энергией/веществом. Обмен со средой неупорядочен, поэтому реакции системы нелинейные, состояние неравновесное, неустойчивое, поведение хаотическое, то есть выглядит случайным, беспорядочным.

Но диссипативные системы способны к самоорганизация (собственно, именно самоорганизация отличает просто открытую термодинамически неравновесную систему от системы диссипативной). Есть разные типы самоорганизации — например, кристаллизация тоже самоорганизация, но конкретно диссипативная самоорганизация — это спонтанное, то есть без какого-либо специфического «организующего» внешнего воздействия, появление в хаотической динамике элементов системы согласованности, наблюдаемой на масштабах всей системы. Другими словами, диссипативная самоорганизация — это появление в хаосе (или «вместо хаоса») некой упорядоченной структуры (из-за чего диссипативные системы — это и диссипативные структуры), созданной согласованным поведением элементов системы, а не жёсткими связями между ними, как в случае той же кристаллизации. Простой пример диссипативной системы — ячейки Бенара, более сложный — класс химических реакций Белоусова — Жаботинского. Последние имеют важнейшее значение для жизни — например, они отвечают за разметку формирующегося органа в ходе морфогенеза.

Самоорганизация — это очень необычное явление, так как мы привыкли, что среда всё только разрушает — например, то, что мы создаём. Однако откуда тогда берётся то, что мы создаём? Почему часы или автомобили не возникают сами, как возникли живые организмы? Откуда вообще в природе берётся сложность, порядок? Ведь порядок, да ещё и сложный, с точки зрения теории вероятности является совершенно невозможным. Есть несравнимо больше неупорядоченных состояний материи, чем упорядоченных. Поэтому много более вероятно, что вещество, предоставленное само себе, всегда будет находиться в состоянии беспорядочном, чем в динамике молекул возникнет согласованность. Даже если островки порядка и будут где-то возникать, то порядок будет простой, и это будут кратковременные, то есть именно случайные события, а не массовое и к тому же постоянно усложняющееся явление, к каковым можно отнести жизнь.












а)                б)

Рис. 2. а) реакция Белоусова — Жаботинского, б) ячейки Бенара.

Ответом на эти вопросы является самоорганизация, её различные проявления. Например, создаваемые нами объекты порождены нашим мозгом, но сам мозг уже некому создавать, он создаётся и усложняется сам, среда только поставляет энергию/вещество. Тем не менее, несмотря на необычность явления самоорганизации, её механизмы в целом понятны, их конкретная реализация в разных типах систем очень разнообразна и может быть как простой и легко объяснимой, так и очень сложной. Далее, узнав ещё некоторые подробности, на простом примере диссипативной самоорганизации — ячейках Бенара — рассмотрим, как конкретно в хаосе возникает порядок, как это возможно.

Диссипативные системы — неравновесные. Как и любое неравновесие (стоять на одной ноге, например) — это состояние неустойчивое, напряжённое, флуктуирующее, чувствительное, активное. Чрезвычайно важное для самоорганизации (и, как следствие, для жизни) свойство неравновесных систем — это свойство целостности. В неравновесном состоянии самое ничтожное воздействие может привести к тому, что поведение сразу всей системы, как одного целого, качественно изменится. Это перестроение называется неравновесный фазовый переход. Простой аналог такого поведения — сход снежной лавины или обрушение песчаной кучи при малейшем прикосновении. Именно свойство целостности позволяет диссипативной системе перестраиваться как одно целое, качественным скачком — от беспорядочного поведения сразу к упорядоченному, без сколько-нибудь выраженных промежуточных этапов.

Говоря более точно, неравновесный фазовый переход происходит как переход через точку бифуркации. Бифуркация — это качественное изменение поведения нелинейной системы при бесконечно малом изменении её параметров. Таким образом, функционирование диссипативных систем действительно может критически зависеть от событий элементарного характера, а предсказания поведения диссипативных систем поэтому отличаются принципиально высокой неопределённостью. Никакое осуществимое на практике измерение не может дать достаточной информации для сколько-нибудь точного предсказания состояния диссипативной системы в сколько-нибудь отдалённом будущем или прошлом. Так как диссипативной системой является любой организм, то активностью и высокой неопределённостью отличается и поведение всего живого.

В отличие от песчаной кучи или лавины, диссипативные системы — это открытые системы, из-за чего после самоорганизации они не разрушаются, а продолжают оставаться упорядоченными, так как их интенсивный обмен со средой не прекращается. Поэтому другой стороной диссипативной самоорганизации является гомеостаз — активное стремление системы поддерживать возникший порядок — одновременно и несмотря на интенсивный и неупорядоченный обмен системы со средой, и благодаря этому обмену. Обмен со средой, с одной стороны, возмущает систему и тем самым как будто стремится разрушить её упорядоченное состояние,  но с другой — он же даёт системе энергию на поддержание упорядоченного состояния.

Теперь, узнав о неравновесных фазовых переходах, бифуркациях и гомеостазе, рассмотрим как конкретно происходит диссипативная самоорганизация на примере одной из самых простых диссипативных систем — ячеек Бенара.

Ячейки Бенара — это возникновение упорядоченности в виде цилиндрических валов в интенсивно подогреваемой снизу жидкости (заметим, есть ещё один тип ячеек Бенара). При  преодолении некоторого критического значения интенсивности нагрева плавная диффузия жидкости с разной температурой не успевает произойти. В результате в жидкости скачком возникают валы, вращающиеся навстречу друг другу (как сцепленные шестерёнки), которые переносят нагретую жидкость вверх и остывшую вниз.

Конкретно происходит следующее. Рост интенсивности обмена со средой ведёт к тому, что резко увеличивается скорость движения молекул воды, они перемещаются всё более беспорядочно. Их столкновения становятся всё более энергичными, то есть растёт количество бифуркаций или, другими словами, растёт количество и сила флуктуаций, развивающихся внутри системы аналогично обрушению кучи песка или сходу снежной лавины из примеров ранее. Во взаимодействии этих флуктуаций, то есть, по сути, конкуренции за возможность своего дальнейшего развития, какие-то направления движения молекул будут взаимно подавляться, какие-то, наоборот, взаимно усиливаться, достигая всё больших масштабов. Одновременно будет расти неравновесное, напряжённое состояние системы, как будто всё сильнее сжимают пружину. В результате в какой-то момент энергия высвободится, и вся система, как одно целое, скачком перейдёт через точку бифуркации, все элементы системы фактически одновременно и сразу со всех сторон системы придут в упорядоченное движение по некоторым отобранным в масштабе всей системы глобальным направлениям.

Этот процесс и есть самоорганизация — неравновесный фазовый переход. Вся система, как одно целое, скачком переходит через точку бифуркации в качественно новое, упорядоченное состояние — хаотическое поведение элементов системы скачком упорядочивается, на масштабе всей системы возникает некоторая самоорганизованная структура их согласованной активности. После чего уже все происходящие в системе флуктуации или работают на поддержание возникшего порядка, или подавляются массами согласованно движущихся элементов — так начинает работать гомеостаз. Причём если интенсивность обмена со средой продолжает расти, то порядок в диссипативной системе может так же скачком усложняться, эволюционировать. Например, при дальнейшем увеличении интенсивности нагрева каждый вал ячеек Бенара в какой-то момент распадается на два вала меньшего размера, и в пределе возникает турбулентный хаос.

В более общем смысле в ходе самоорганизации в системе сами собой выделяются степени свободы (куда можно двигаться, как изменяться), по которым энергия переносится с меньшим сопротивлением, тем самым поведение всех элементов системы упорядочивается в направлении этих степеней свободы.

Жизнь много более сложная диссипативная система, чем ячейки Бенара. Процессы самоорганизации в организме носят сложный многоуровневый характер, проявляя себя в относительно более равновесных и стабильных структурах, задающих общую логику процессов (мембраны и органеллы клеток, молекулы ДНК, скелет, коннектом). И в менее равновесной динамике, определяющей частные параметры реакций — начиная от внутриклеточных процессов и формирования структур организма в ходе морфогенеза до синхронизации нервных импульсов нейронов. Также, в отличие от ячеек Бенара, самоорганизация биологических систем носит химический характер. Организм — это упорядоченный континуум веществ и химических реакций, связанных с автоволновыми процессами (рис. 2, а) и генетической программой. Это не меняет описанные ранее общие свойства организмов как диссипативных систем, но вносит в их поведение дополнительную сложность.

Таким образом, мы не просто среда — а порядок в среде. Порядок не прямое продолжение среды, ведь он противостоит ей, — и в этом наша самостоятельность, но он существует за счёт среды и состоит из неё — и в этом наша связь со средой.

Элементарной жизнью является клетка. Согласно наиболее известной гипотезе появления жизни — гипотезе мира РНК, в начале жизни были ансамбли молекул рибонуклеиновых кислот, способные к самокопированию, и соединения солей жирных кислот, самоорганизующиеся в пузырьки — липосомы, которые могли проходить циклы роста и деления, восстанавливаться после повреждений и обладающие селективной проницаемостью для разных веществ. Считается, что около 4 млрд лет назад произошло объединение липосом как элементов, способных выполнять функцию клеточной мембраны, и РНК, как элементов, способных выполнять функцию хранения генетической информации и катализа химических реакций собственного синтеза. В результате возникает клетка и начинается жизнь. Далее в ходе эволюции возникает современная ДНК-РНК-белковая жизнь, где РНК сохранилась как посредник между ДНК, которая содержит информацию о структуре белков, и белками, из которых состоят клетки организма.

Из сказанного понятно, что деление и самокопирование лежат в самом основании жизни. А так как жизнь — это ещё и диссипативная система, то другое основание жизни — гомеостаз. Как активное поведение, направленное на сохранение системой постоянными своих основных параметров, гомеостаз фактически означает появление цели, к которой система активно стремится — цели самосохранения. И так как любая жизнь является диссипативной системой, то гомеостаз является физическим основанием активного стремления всего живого к самосохранению. 

Деление и самокопирование — это физическое основание размножения. Самоорганизация и гомеостаз — это физическое основание самосохранения. Таким образом, жизнь неразделимо сочетает в себе два стремления — к самосохранению и размножению. Эти стремления заключены во всей структуре биологических систем, по сути, они образуют жизнь.

Если есть активность и есть цель, в поведении сама собой появляется тактика и стратегия, а если цели и среда обитания систем совпадают, возникает отбор наиболее приспособленных. В результате после объединения самоорганизации и самокопирования — самосохранения и размножения — и присущих размножению изменчивости и наследственности возникает механизм естественного отбора и начинается биологическая эволюция.

В объединении клеток возникают диссипативные системы нового уровня — колонии клеток, многоклеточные организмы, популяции организмов, социум, биосфера в целом. На масштабах таких макросистем размножение их элементов становится способом самосохранения этих макросистем, то есть способом их гомеостаза, противостояния среде, обновления и развития, посредством появления новых организмов и избавления от старых. Поэтому размножение — это, как ни странно, не одно из стремлений, а фактически то же самосохранение. Размножение, стремление воспроизводить себя, как будто противоречащее задаче самосохранения, так как требует ресурсов и создаёт конкурентов в борьбе за них, на самом деле обобщает задачи отдельного организма с задачами макросистем, элементом которых он является, и жизни в целом. Например, часто встречается мнение, что любовь нерациональна. Действительно, её рациональность проявляется на уровне вида, социума, биосферы.

Способность диссипативных систем перестраиваться скачком, как одно целое — от одного более простого упорядоченного состояния сразу к другому, более сложному упорядоченному состоянию — лежит в основании усложнения организмов в ходе биологической эволюции. Далее коротко скажем, как происходит морфогенез и как конкретно в нём участвует диссипативная самоорганизация. Но вначале приведём некоторые аргументы, говорящие о том, что она необходима.

Вспомним биологическую эволюцию. Случайные мутации ДНК, результатом которых становилось появление у животного какой-либо новой полезной функции, приводили к тому, что животное получало преимущество в естественном отборе. Однако проблема в том, что появление у организма любой новой функции должно быть связано с одновременным перестроением всех систем организма — кровеносной, нервной, мышечной — чтобы новое могло адекватно взаимодействовать со старым. И если бы за это перестроение отвечал только случай, то эволюции бы не произошло.

Если в ДНК зашифрован план организма, в соответствии с которым он формируется, то мутации ДНК — это, очевидно, отдельные случайные изменения этого плана. Однако в этом случае мутации должны приводить к таким же отдельным изменениям и в организме, а совсем не к взаимосвязанному перестроению всех его систем сразу. При этом вероятность появления в ДНК в одно и то же время необходимого количества строго подобранных случайных мутаций исчезающе мала, поэтому даже если бы они и могли произойти, то никак не с той частотой, которую требует эволюция.

Более того, жизнь вообще не смогла бы возникнуть, потому что «только случай» сделал бы невозможным не только эволюцию, но и само появление жизни. Ведь организм должен быть способен функционировать сразу, то есть он должен возникать сразу «живым», «целым», иначе, «возникая по частям», он будет разрушен средой — точно так же, как среда быстро разрушает любой мёртвый организм — и всё придётся начинать сначала.

Но что так упрощает задачу эволюции, позволяя ей обходиться без полного перебора? Почему в ходе эволюции происходит отбор, по сути, только наиболее эффективных из уже «функционирующих», «целых» организмов, а не отбор таковых из всех возможных сочетаний молекул? Как из всего бесконечного множества состояний материи природа выбирает сразу упорядоченное состояние биологических систем? Если это всё-таки происходит случайно, то почему не разрушается средой сразу, как ненадолго появляется и тут же тает знакомый образ в облаках, а существует миллиарды лет и при этом ещё усложняется?  Как получается, что движение мириадов молекул и протекание бесчисленного множества химических реакций происходит в организме согласованно, в едином порядке? Что их координирует? Если в ДНК всё же нет плана организма, то что им подсказывает, как конкретно нужно перестроиться, чтобы в ходе эволюции у организма могла появиться новая функция?

Всё эти вопросы говорят об одном: чтобы жизнь и эволюция стали возможными, помимо случая в природе должно было быть что-то ещё, какое-то явление, которое позволило бы первому организму возникнуть сразу, а также это должно быть такое явление, которое смогло бы связать отдельные случайные мутации ДНК с перестроением сразу всех систем организма. Причём, по-видимому, за всё это должно отвечать одно явление, так как и появление первого организма сразу как целого, и затем его целостное перестроение в ходе эволюции — это явно процессы одного порядка.

Это явление — диссипативная самоорганизация. Далее коротко скажем, как происходит морфогенез и где в нём диссипативная самоорганизация.

В пространстве растущего организма формирующиеся клетки выделяют специфические вещества-морфогены. В диффузии этих веществ возникают упорядоченные градиенты их концентрации, которые, как разметка будущего органа, обратно влияют на формирующиеся клетки. В результате дифференцировка клеток происходит в соответствии с необходимым устройством органа, и так далее от общего к частному происходит морфогенез всего многоклеточного организма. Появление таких градиентов — это диссипативная самоорганизация, класс реакций Белоусова — Жаботинского (рис. 2, а), протекающих в неравновесной среде.

Таким образом, морфогенез представляет из себя один целостный процесс формирования всего организма, а не набор отдельных, в которых каждый орган формируется отдельно. Поэтому любое изменение в веществах-морфогенах, связанное с мутацией ДНК, плавно перетекает в изменение сразу всех органов и систем, в формировании которых они участвуют. Возникающая новизна в устройстве организма сама собой формируется уже встроенной в организм, а не является чем-то внешним. И далее уже отбор определяет пользу она несёт в нынешних условиях или вред. ДНК при этом не нужно содержать какой-либо план организма, достаточно лишь реагировать на вещества.

Механизм самоорганизации многоклеточного организма в 1952 году в статье «Химические основы морфогенеза» описал известный английский математик Алан Тьюринг. Сформулированный им принцип гласил, что глобальный порядок может определяться локальным взаимодействием, поэтому чтобы получить структурную организацию всей системы, необязательно иметь план системы, а можно ограничиться исключительно заданием правил близкого взаимодействия образующих систему элементов.

Вследствие описанных физических особенностей биологических систем, жизнь есть как таковая и эволюционирует, как в целом более или менее последовательное усложнение организмов по некоторым выделенным направлениям, в которых меньше сопротивление среды или больше ресурсов, из-за чего отбор по этим направлениям наименее жёсткий. Биосфера усложняется и расширяется, захватывая новые ниши, образуя новые экосистемы и связи между ними. В том числе можно говорить о «направленности» эволюции, и не только отдельных видов, но и биологической эволюции в целом. Потому что в ходе эволюции происходит не просто беспорядочное заполнение пространства неупорядоченными объектами и образование между ними случайных связей (что тоже будет усложнением, так как длина описания такого объекта увеличится), а происходит всё более точное приспособление к условиям определённой функции — функции самосохранения и размножения. Как в отдельных видах и для конкретных условий, так и на масштабе всей биосферы, как единой системы, то есть помимо эволюции видов, происходит и эволюция фактически единого организма — биосферы. 

Вернёмся к отдельным организмам. Неравновесный фазовый переход, посредством которых перестраивается диссипативная система — это переход скачкообразный, качественный и невычислимый. Из-за того, что он происходит как переход через точку бифуркации, его предсказание ограничено. Как диссипативной системы, работа организма на всех уровнях тоже связана с неравновесными фазовыми переходами — от внутриклеточных процессов до морфогенеза. Об этом уже говорилось.

Но в организме есть ещё один уровень диссипативной самоорганизации. Это нервная регуляция, то есть, собственно, мышление. Сам по себе одиночный нейрон генерирует нервные импульсы хаотически, беспорядочно, в объединении с другими нейронами импульсы сами собой упорядочиваются. Это явление синхронизации. Синхронизация хаотической активности нейронов в мозге тоже происходит посредством неравновесных фазовых переходов. В результате синхронизации образуются ритмы мозга, во взаимодействии которых на выходе нейронной сети формируется столь же упорядоченная активность нейронов, непосредственно активизирующих мышцы и железы, и возможно усложнение этого порядка — обучение. Как следствие, наше поведение тоже упорядочено, активность всех мышц всегда точно согласованна и может усложняться. Неравновесным переходом является в том числе каждое переключение внимания, нейронный коррелят которого — селективная синхронизация ансамблей нейронов, связанных с воспринимаемым стимулом, на самой высокой частоте ритмов мозга — гамма-ритме, когда в сознании возникает новая мысль, образ.

Из сказанного сейчас про синхронизацию нейронов становится понятно, как в целом в мозге физически реализуется индуктивный вывод, обобщение, появление нового знания — когда внимание переключается от отдельных элементов к образу, от смысла слов к смыслу фразы, от данных к теории — как неравновесный фазовый переход. Однако, ввиду его принципиальной невычислимости, искусственные нейронные сети могут воспроизводить только некоторую общую логику неравновесного перехода, а не действительную суть в её реальной сложности. Поэтому чувствительность и способность меняться у вычислительных систем качественно ниже. Тем более не приходится говорить о какой-либо целостности вычислительных систем, ввиду отсутствия в их работе какого-либо континуума и неравновесного состояния.

Также обратим внимание, что не имеющая границ чувствительность неравновесного фазового перехода и качественный характер последующего перестроения всей системы как одного целого — суть не просто способность мышления выделять самые слабые сигналы рецепторов или самую малую разницу во времени или степени их активизации, но и способность заметить мельчайшее противоречие в опыте, после чего качественно изменить поведение, следуя новым идеям.

Таким образом, мы выяснили, что и сама жизнь в целом, и мышление в частности на всех уровнях связаны с бифуркациями и тем самым с элементарным уровнем материи. Причём связь мышления наиболее сложная, так как самоорганизация активности нейронов имеет в основании ещё два уровня самоорганизации — уровень самоорганизации клеток и уровень самоорганизации многоклеточного организма как целого.

В итоге абсолютная чувствительность мышления, выраженная в принципиальной способности замечать сколь угодно малые события, которую мы ранее вывели чисто логически, действительно находит подтверждение в реальных физических свойствах биологической нейронной сети.

Учитывая особенности мозга как физической системы, можно уточнить другие сделанные ранее выводы. Мозг — это, действительно, только «внешне» нейронная сеть, но на самом деле — это диссипативная система, имеющая нейросетевую организацию. По причине связи с бифуркациями, точность представления о работе мозга значительно ограничена, причём сложная нейросетевая составляющая ограничивает это представление ещё больше. Поэтому если из «внешней» нейросетевой организации мозга что-то перенести в искусственные системы можно, то его внутренняя «диссипативная сторона» всё равно не позволит воспроизвести его работу во всей сложности. В свою очередь, к чему приведёт попытка заменить «качество» сложности мозга «количеством» более простой работы искусственной нейронной сети, говорилось во второй и третьей главе.

Узнав о физической стороне работы мозга, далее рассмотрим основные проблемы, возникающие в его моделировании.

Выражением ограниченного представления о физических механизмах работы мозга является проблема нейронного кода — вопрос того, как мозг кодирует информацию. Например, фундаментальным элементом этого кода все современные модели рассматривают спайк нейрона (потенциал действия, нервный импульс). Предполагается, что информация содержится в количестве спайков за конкретное время (частотный код) или в их точном положении во времени (временной код). При этом сами спайки рассматриваются как идентичные дискретные события. Однако реальные спайки являются континуальными колебательными процессами и отличаются периодом, амплитудой и формой фазового портрета, индивидуальными у каждого нейрона. Для описания возбуждения нейронов широко применяются статистические методы, методы теории вероятностей и стохастических процессов. Но все эти теории всё равно являются вариациями модели дискретного спайкового нейрона. Поэтому они в лучшем случае охватывают только часть наблюдаемых явлений и не могут объяснить другие, и в целом не соответствуют фактической эффективности мозга.

Как кажется, очевидным решением проблемы будет более точная модель нейрона. Однако даже на нынешнем уровне детализации нейронные сети из биологически правдоподобных нейронов требуют огромных вычислительных ресурсов и суперкомпьютеров уже на уровне десятков тысяч нейронов. Причём не все свойства нейронов в той степени понятны, чтобы их можно было перенести в модель.

И наконец точность моделей ограничивает причина более общая и уже неразрешимая. Её частью является описанная выше «проблема дискретного спайка», а значение этой причины растёт тем стремительнее, чем точнее становятся модели.

Чтобы ответ был более наглядным, зададимся вопросом — почему вообще возникла идея, что искусственная нейронная сеть — это некий искусственный аналог интеллекта? Например, вряд ли кто-то подумает, что программа может выполнять функции желудка, печени или лёгких. Очевидно, что программа не переварит пищу, не очистит кровь и не насытит её кислородом. Почему же мы полагаем, что она может мыслить? Потому что считаем, что мозг — это всего лишь некая управляющая система, он только отдаёт команды. Поэтому важно не то, как эти команды конкретно реализованы «в материале», то есть как конкретно они передаются или как конкретно мозг их вырабатывает, а важна только их абстрактная суть, логика, и чтобы их понимала управляемая система.

Проще говоря, кажется, что можно абстрагировать от материи мозга функцию мышления, и затем реализовать её любыми удобными способами и на других носителях аналогично тому, как по-разному можно реализовать, например, отсчёт времени — часы могут быть солнечные, водяные, песочные, механические, кварцевые, электронные, атомные, наручные и башенные, большие и маленькие.

Однако из аргументов других глав, нашедших сейчас подтверждение в физических особенностях биологических систем, следует, что в мышлении важно всё, вплоть до элементарного уровня материи. Поэтому, чтобы воспроизвести функцию мышления, необходимо воспроизвести весь мозг в точности, что невозможно. Это и есть та самая «причина более общая и уже неразрешимая», естественная особенность таких систем, как мозг. А одним из её проявлений как раз является в реальности совсем не дискретный — «не абстрактный» — спайк, и важность подробностей его реального протекания.

Принципиальное несуществование функции мышления — это, другими словами, принципиальная индивидуальность любого мозга, любой личности. Ведь для описания поведения субъекта требуется знание элементарного уровня материи, а значит, для этого не подойдёт никакая физическая теория, только теория всего — но теория всего не имеет смысла. Поэтому не может быть двух одинаковых личностей, на элементарном уровне все системы отличаются.

Индивидуальность в некотором смысле и сама по себе тоже означает сложность и непредсказуемость, потому что чем более индивидуально поведение системы, тем менее оно выводимо из чего-либо, что может быть применимо к другому, известно всем. И так как поведение в данном случае максимально индивидуальное, то оно и в принципе непредсказуемое, не может существовать таких теорий и законов, которые помогли бы его предсказать.

Далее в нескольких следующих абзацах рассмотрим значение неповторимости каждого мозга. Сделаем это с точки зрения аргументов, приближенных к теме этой главы.

Вспомним, что все нейроны разные. Причина этого в том, что диссипативной системой, то есть системой активной, целостной, чувствительной, способной перестраиваться и усложняться, является не только каждый отдельный нейрон, но и вся нейронная сеть как целое. Поэтому индивидуализация биологической нейронной сети связана не только с изменением весов связей, но и с трансформацией всей структуры нейронной сети.

Конкретная среда обитания животного не только обучает нейронную сеть посредством изменения весов связей нейронов, определяя появление личного опыта, но и меняет саму нейронную сеть как структуру, приспосабливая каждый нейрон к своему «месту» в сети в широких пределах. Что также означает появление нового опыта, обучение, только более общего характера, так как вся нейронная сеть — суть опыт, любое её изменение — это изменение опыта. Это свойство мозга перестраиваться называется нейропластичностью и в целом связано с морфогенезом. Как и генерация нейроном спайка, морфогенез тоже имеет в основании неравновесные состояния и бифуркации. Если на уровне нейрона способность перестраиваться заключается в возможности оперативно менять частоту генерации спайков, то на уровне всей сети это перестроение нейронов более общего характера, включая сам их рост и оптимизацию их связей, что также влияет на спайки.

Выше было сказано, что в нейронных сетях широко применяются статистические методы, методы теории вероятностей и стохастических процессов. Дело в том, что поведение человека и вообще работу любой нейронной сети тоже можно связать со статистикой (а значит, вероятностями и случайными событиями), так как чем чаще ситуация повторяется, тем лучше она запоминается, приобретая больший вес в поведении. Вероятностные алгоритмы применяются в обучении. Например, это популярный метод отжига — техника оптимизации, использующая упорядоченный случайный поиск (то есть некоторые параметры алгоритма выбираются случайным образом) на основе аналогии с процессом образования в веществе кристаллической структуры, в том числе при отжиге металлов. Метод отжига позволяет найти более или менее оптимальное состояние сети в процессе обучения без перебора всех возможных состояний, которых может быть очень много. Это эвристический алгоритм, он не гарантирует самый оптимальный результат, но в некоторых случаях позволяет его улучшить, по сравнению с другими методами, и в целом применяется в тех задачах, где сложно произвести полный перебор и найти точное решение.

Но представим статистическую модель человека. Поведение этого человека будет не логически адекватным, а статистически, то есть отражать не реальность, а некую обобщённую статистическую модель реальности. Если эта модель простая, то такой человек будет здороваться не потому, что кого-то встретил, а потому что по статистике он должен поздороваться некоторое количество раз за некоторый промежуток времени. И наоборот, чем полнее статистика, тем логически точнее будет поведение.

Однако за счёт высочайшей чувствительности, недостижимой ни в каких вычислительных системах, и пластичности, как способности перестраиваться, целостно меняя работу в ответ на мельчайшие изменения условий, в мозге эта статистика учитывает среду качественно полнее и точнее и становится действительно логикой. Поэтому логически адекватной человеку модель человека станет только тогда, когда её сложность будет равна оригиналу. Пока этого не произойдёт, будут оставаться такие же проблемы адекватности, которые были описаны нами во второй главе на примере чат-ботов. Относительно обучающих примеров поведение системы будет статистически верным, но относительно реального мира логически неадекватным. И вспомним, в той же главе мы тоже пришли к выводу, что с целью повышения адекватности ответов искусственного интеллекта надо увеличивать сложность систем, опять же приближая их к сложности человека.

Поэтому модель нейрона как обобщение всего множества реальных нейронов — это как обобщённый кирпич для строительства дома, который столь сложен, что все кирпичи в нём индивидуальные. Дом из обобщённых кирпичей получится настолько же проще, насколько они подверглись упрощению. В нашем случае, чем ближе мы подбираемся к строительству такого «сложного дома» — искусственного интеллекта, сравнимого по сложности с человеческим — тем больше будет требоваться превращение вычислительной системы в живой развивающийся организм, в диссипативную систему. Но свойства диссипативных систем — открытых, термодинамически неравновесных, чувствительных, способных качественно перестраиваться и усложняться — противоположны свойствам систем вычислительных.

Например, как говорилось, активность отдельного нейрона хаотическая, но если соединить два нейрона, то генерация ими спайков упорядочивается, нейроны сами собой синхронизируются на некоторой частоте. Большее нейронов — сложнее ритмы. Естественно, что ни в каких искусственных нейронах это явление недостижимо. Моделирование синхронизации требует специальных программных решений и сложность реального процесса не отражает.

Проще говоря, приближение искусственной системы к сложности биологической нейронной сети  — это превращение алгоритма в не алгоритм. Потому что если мышление неотделимо от сознания, то адекватная модель мышления должна обладать сложностью сознания, но, как мы ранее выяснили, сознание никаким языком выразить невозможно. Аналогично ранее мы выяснили, что, в отличие от других явлений, сложность мышления равносильна его описанию на элементарном уровне материи, и в этой главе эти выводы подтвердились. Поэтому если в моделях других явлений — равновесных, линейных, чувствительность которых ограничена — достаточно выразить только некоторую внешнюю суть происходящего, ввиду того, что процессы на более глубоком уровне материи всё равно не оказывают на течение явления никакого значимого влияния, то адекватная модель мышления должна обладать точностью элементарного уровня материи, так как мышление способно на абсолютную чувствительность. Но описание элементарного уровня материи равносильно построению теории всего, которая не имеет смысла. Абсолютная чувствительность мышления уже сама по себе означает, что обобщённые нейроны для создания адекватной модели мышления не имеют смысла, потому что обобщение — это упрощение, но необходимость отразить в модели элементарный уровень материи уже говорит о том, что никакое упрощение недопустимо.

В итоге необходимая точность моделей не только недостижима на практике, но и невозможна в принципе. Задача превращения алгоритма в не алгоритм — это задача превращения знания в не знание, так как за пределами алгоритмов находятся явления, которые описанию недоступны, а значит, они недоступны и познанию. Но вычислительная система, работающая на недоступных познанию принципах — это не имеющее смысла сочетание слов.

Другой стороной проблемы нейронного кода можно назвать проблему связывания: каким образом мозг интегрирует информацию в разнообразное и связанное целое? Проблему связывания можно понимать более узко — как поиск нервных коррелятов такой связи. Как отличается и как связана нервная активность, кодирующая разные элементы образа? Например, оттенки синего, когда мы смотрим на небо? И более широко, в этом случае проблема связывания — это вопрос о том, как конкретно связаны нервная активность и многомодальный мир сознания. Как конкретно активность нейронов становится цветами радуги, светом, темнотой, запахами, звуками и эмоциями. Учитывая аргументы предыдущих глав, понятно, что в последнем варианте реальная сложность проблемы связывания видна лучше.

Тем не менее некоторые общие особенности, которые можно сопоставить некоторым общим особенностям сознания, в нейронных сетях обнаружить относительно несложно. Проблемы возникают только в уточнении того, как конкретно эти особенности связаны друг с другом. Например, точно так же относительно несложно разглядеть в мозге сеть нейронов и установить некоторые общие принципы её функционирования, проблемы возникают только в уточнении этих принципов.

Как известно, от слоя к слою сети уровень абстрагирования растёт. Если не вдаваться в подробности, то это утверждение применимо ко всем нейронным сетям, в том числе искусственным, так как само по себе оно не означает наличие в сети какого-либо сознания, то есть каких-либо реальных абстракций. «Абстрагирование» в данном случае — это всего лишь обозначение способности всех нейронных сетей к распознаванию, то есть выделению признаков условий — чем собственно и является абстрагирование. Чем сложнее сеть, чем больше в ней слоёв нейронов, тем более сложные признаки сеть сможет выявить. Например, чтобы отличать кошек от собак, нужно выделить признаки кошек и собак, и чем сложнее сеть, тем точнее она сможет кошек от собак отличать, сложнее признаки выявить. Алгоритм на это вполне способен и даже не обязательно он должен быть нейронной сетью, но так как такие алгоритмы сложны, то проще не писать его напрямую, а воспользоваться алгоритмами обучающимися. Однако в мозге сознание точно есть, и в этом случае рост уровня абстрагирования можно связать с переходом от эмоций к конкретным образам. Почему последовательность именно такая, говорилось во второй главе.

Но у биологических нейронных сетей есть и такие сопоставимые с особенностями сознания особенности, которых нет в искусственных нейронных сетях.

Например, континуальность и упорядоченность сознания можно связать с целостностью и упорядоченностью работы мозга как диссипативной системы. Клетка, организм, мозг, как диссипативные системы, — это упорядоченный континуум веществ и химических реакций. Но в мозге «над» этим континуумом возникает ещё один уровень самоорганизации — ещё один уровень целостности и упорядоченности — синхронизация нейронов на частоте разных ритмов. Поэтому работа мозга в означенном ряду наиболее энергичная и сложно организованная. И как следствие наиболее высокой энергичности и сложности, именно уровень самоорганизации активности нейронов вносит в сознание наиболее значимую составляющую, то есть сознание прежде всего связано с работой мозга (это упрощённый вывод, на самом деле объяснение связи сознания именно с мозгом более сложное). При этом «порядок» абстрактен, представляя из себя нечто «обобщающее» отдельные элементы в «целое», в нечто «над-элементное», то есть и абстрактность сознания тоже имеет некоторое объяснение.

Наоборот, вычислительный процесс противоположен всем этим свойствам сознания, так как вычислительный процесс — это всего лишь некоторая последовательность отдельных операций, а не упорядоченный континуум чего-либо, к тому же обладающий свойством целостности (основанием целостности является неравновесное состояние системы, но в вычислительных системах таковое может возникать только в микроскопических и локальных процессах, не меняющих общую картину равновесного состояния вычислительной системы).

Таким образом, абстрактности, континуальности и упорядоченности сознания некоторое общее объяснение есть. Как понятно, связи с элементарным уровнем материи объяснение есть тоже. Более сложное объяснение есть и другим особенностям сознания, не упомянутым в этой статье (отсутствию сознания в фазе глубокого сна или временной «протяжённости» сознания, которое даёт ощущение своего «движения» во времени из прошлого в будущее). Тем не менее, вспомним, в принципе невозможно дать какое-либо объяснение модальности сознания, то есть, собственно, самому сознанию, квалиа.

В результате по общим признакам сознанию что-то в работе мозга сопоставить можно, но ответить на вопрос, какова эта связь конкретно и даже есть ли она в действительности, нельзя. Проблемы связывания и нейронного кода, по-видимому, столь же нерешаемые, как непознаваемой является физическая сущность сознания.

В описанных физических особенностях биологических систем как систем диссипативных можно заметить другие указания на ограничение сложности искусственного интеллекта, которые мы не приводили ранее.

Диссипативные системы — это открытые системы, поэтому если в эволюции животных, как открытых систем, максимально участвует среда во всей своей сложности, то в эволюции искусственных систем максимально участвует человек, тем самым ограничивая эволюцию искусственных систем своими знаниями, сложность которых, как показано в статье, не может быть сколько-нибудь равна сложности среды. Похожий аргумент: создание искусственного интеллекта равносильно повторению человеком эволюции нервной системы, при том, что человек много проще биосферы, включающей самого человека, в которой эта эволюция проходила.   

В том числе принципиальное отличие вычислительных систем от систем биологических говорит о том, что ограничена и самостоятельная эволюция искусственных систем. Вне открытости среде, неравновесного состояния, целостности, хаоса и бифуркаций вычислительные системы не могут качественно перестраиваться не только в ходе «мышления», но и в эволюционном смысле появления новых более сложных искусственных систем вместо более простых старых (например, в результате работы генетических алгоритмов). Иными словами, возможность самостоятельного развития или обучения вычислительных систем ограничена по сравнению с биологическими системами в той же степени, насколько вычислительные системы проще — а эта разница носит качественный характер. Что опять возвращает нас к аргументам о границах сложности искусственных систем, которые, таким образом, всегда эволюционируют «внутри» интеллекта человека и не смогут выйти за эти пределы.

Вывод об ограничении самостоятельного развития вычислительных систем следует обосновать подробнее, так как есть мнение, что даже если сильный искусственный интеллект нельзя как-либо создать самому человеку, то, вероятно, он сможет неким образом развиться сам из некого более простого написанного человеком алгоритма.

Начнём с наводящих вопросов. Почему точно так же, как и появление новых организмов в ходе эволюции, переход от одной мысли к другой происходит не «плавно», мысль формируется не «постепенно», а более или менее выраженными скачками — от одной не бессмысленной, сразу «целой», идеи к другой, тоже сразу «сформированной», «целой», а отбор лучших решений происходит фактически уже между «готовыми» идеями, а не перебором всех возможных? Как человек отличает верное решение от неверного, адекватное поведение от неадекватного? Должен быть какой-то критерий, который позволит это сделать. Потому что если его не будет, то поведение должно быть жёстко задано заранее — а это и невозможно, и явно не так, потому что мы обучаемся. Но в ином случае, без критерия, обучение быстро пойдёт вразнос, хаотично, по всем мыслимым направлениям, и поведение скатится к бессмысленному, ведь всех возможных поведенческих реакций неисчислимо больше, чем тех, которые позволят животному не погибнуть и размножаться.

Упростим вопросы. Откуда ячейки Бенара знают, как им нужно реагировать на окружающие их беспорядочные потоки кипящей воды, чтобы не разрушиться? Почему ячейки Бенара возникают сразу организованными, способными противостоять разрушению, и далее могут по тому же принципу скачком усложняться? Почему они не выбирают упорядоченное состояние перебором всех возможных, каков критерий выбора?

Если первые варианты наводящих вопросов показались сложными, то в случае ячеек Бенара дать ответ, вероятно, не составило большого труда, так как их самоорганизация и гомеостаз уже были в этой главе описаны. Но функционирование биологических систем суть та же самоорганизация и гомеостаз, поэтому общие свойства ячеек Бенара проявляются и на уровне биологических систем. Сформулируем эти свойства ещё раз и посмотрим, какие ограничения на самостоятельную эволюцию алгоритмов из них следуют. 

Диссипативная система всегда перестраивается в такое состояние, которое энергетически выгоднее в тех условиях, когда произошло перестроение, то есть это перестроение происходит естественным образом, как движение к равновесию, а не достигается равновесие только по той причине, что система и после перестроения остаётся открытой. Энергетически более выгодным является упорядоченное состояние, так как оно позволяет более эффективно рассеивать энергию, из-за чего порядок возникает и затем продолжает сохраняться, несмотря на неупорядоченный и интенсивный обмен со средой, а также может усложняться, если интенсивность обмена растёт. Понятно почему упорядочение происходит скачком — потому что распределение энергии, наоборот, будет затруднено, если новый порядок будет формироваться в разных частях системы постепенно или в разное время. И наконец понятно, почему реакции гомеостаза тоже имеют неустойчивый, скачкообразный характер — по причине интенсивного обмена со средой поведение системы возникает во взаимодействии флуктуаций, которые в диссипативной системе есть всегда, но просто не всегда достигают критического масштаба перестроения всей системы, а флуктуации как раз носят более или менее выраженный скачкообразный характер.

Сказанное выше означает, что поведение диссипативной системы уже само собой, на физическом уровне, формируется адекватным среде. Потому что на воздействия среды система отвечает реакциями, которые, с одной стороны, непосредственно, без каких-либо посредников, скоординированы со средой, а с другой — так же непосредственно направленными на самосохранение, поддержание системой неизменными своих внутренних параметров, гомеостаз. Поэтому если усложнить диссипативную систему нейронной сетью, то ничего не изменится, за исключением того, что гомеостаз теперь будет выражаться в том числе в перемещении в среде, а неравновесные фазовые переходы к более сложному порядку на уровне мозга станут обучением. И перемещение в среде, и обучение будет естественным образом носить тот же самый характер ответа на воздействия среды, возникающего в тесном с ней взаимодействии, и направленного на самосохранение, как и в простейшем случае ячеек Бенара. Можно добавить — и на размножение, однако, как мы показали, размножение перестаёт быть чем-то отличным от самосохранения, если рассматривать жизнь не как отдельные клетки, а как одну многоуровневую систему их объединений — колонии клеток, многоклеточные организмы, виды, социум, биосферу в целом.

В итоге точно так же, как не перебирают реакции ячейки Бенара, эволюции тоже не нужно перебирать все возможные сочетания молекул в поисках похожего на жизнь сочетания. Естественный отбор работает сразу на уровне уже так или иначе «готовых», «функционирующих» систем, из которых остаётся отобрать те, которые в силу каких-либо особенностей самосохраняются и размножаются лучше остальных. В каждой природной, поведенческой, культурной и социальной нише это могут быть свои организмы, свои поведенческие особенности. Точно так же не перебирает все возможные цели и пути к ним мозг, а последовательно упорядоченными реакциями перемещает организм туда, где больше градиент концентрации ресурсов или меньше сопротивление среды. Этот путь в итоге может оказаться более удачным или менее, но он никогда не случаен, потому что всегда является упорядоченным и целенаправленным в соответствии с задачей самосохранения и размножения.

Таким образом, самоорганизация, как не случайное перестроение, направленное на повышение эффективности обмена со средой, и гомеостаз, как не случайное поведение, направленное на поддержание этого обмена эффективным, на всех уровнях жизни сами собой формируют и оптимизируют поведение биологических систем в сторону самосохранения и размножения в условиях среды.

Здесь же находится и самый общий критерий адекватности. Он в том, способствует ли ответ поддержанию гомеостаза или нет, то есть в целом способствует ли нечто повышению качества жизни или нет. Например, наука способствует, поэтому мы доверяем научному сообществу или научным теориям, даже если их не понимаем.

В свою очередь, стратегия гомеостаза становится стратегией адекватного поведения.

Для сохранения упорядоченного состояния диссипативной системе нужна энергия, но её приток неупорядоченный, заставляя систему постоянно флуктуировать около уровня динамического равновесия, когда она то отклоняется от равновесия больше, то опять приближается. Поэтому стратегией гомеостаза можно назвать принцип: уступать среде в малом — в частных элементах структуры, ради решения основной задачи — сохранения структуры в целом. Чем сложнее диссипативная система, тем сложнее становится эта динамика, на уровне животных превращаясь в такие поведенческие стратегии, как жертвовать частным ради целого, малым сейчас ради большого потом, своим ради общего, ведь одному не выжить. Через труд к успеху, через тернии к звёздам, через альтруизм и самопожертвование к уважению и славе.

Образно говоря, равновесие и покой можно обозначить как идеальную цель диссипативной системы, к которой она всегда стремится. Но диссипативная система может существовать только в интенсивном обмене со средой, а этот обмен означает постоянную неустойчивость, флуктуации и отсутствие состояния, в котором система как организованное целое есть, но её «ничего не тревожит». Поэтому через неустойчивость и флуктуации система как будто постоянно пробует новые пути к равновесию и покою, но каждый из них оказывается всего лишь новым витком бесконечного движения к тому, чего нет. Любую часть этого движения можно обозначить как решение системой некоторой частной задачи или достижение некоторой частной цели на пути к несуществующему идеалу, после чего система стремится к новой цели и так бесконечно. 

Однако самоорганизацию и гомеостаз нельзя воспроизвести алгоритмически — об этом говорят аргументы статьи. Любая возможная модель будет неадекватна сложности поведения реальной системы. Если задать поведение какой-либо создаваемой системы прямым алгоритмом (детерминированным), то поведение этой системы как минимум будет слишком простым. А если прямой алгоритм отвечает за некое развитие системы, то к простоте надо добавить и то, что никакого развития на самом деле не будет, ведь прямой алгоритм означает, что тому, кто его написал, уже известно всё, что может с системой произойти. Если же алгоритм непрямой (недетерминированный), то есть так или иначе поведение системы задано в нём не полностью, то без человека — развивающего технологии, обучающего и отбирающего адекватные варианты — эволюция систем через короткое время остановится. Развитие системы зависит от среды — среда поставляет энергию и вещество. Однако если поведение в алгоритме задано не в точности, а бессмысленных путей развития неизмеримо больше, то система быстро пойдёт именно по одному из них. В результате, не получая от среды ресурсов для развития, эволюция сама собой остановится, и в конечном итоге система будет средой разрушена.

Отсутствие открытости среде, неравновесного состояния и хаотического режима, то есть свойств, необходимых для диссипативной самоорганизации и гомеостаза, приведёт к тому, что поведение системы будет относительно меньше связано со средой, меньше зависеть он неё, меньше ей направляться и ей соответствовать, то есть будет относительно более грубым. Как следствие, развитие такой системы быстро станет неадекватно среде и система будет средой разрушена.

Таким образом, самостоятельная эволюция алгоритмов невозможна. Стартуя со сложности много меньшей сложности интеллекта человека, развитие систем быстро остановится. И этот путь превзойти сложность интеллекта человека не поможет.

Тем не менее, о чём уже шла речь в предыдущих главах, в отдельных задачах вычислительные системы могут и превосходить человека. Например, за счёт более точного соответствия устройства системы задаче или за счёт объёма или скорости выполняемой более простой работы. К примеру, калькулятор считает быстрее человека, а автомобиль может быстрее человека перемещаться в пространстве. Или, выделив в своём опыте задачу, человек может создать систему, которая сможет найти её решение «самостоятельно» в процессе обучения, то есть в последнем случае искусственный интеллект как будто превзойдёт человека именно в интеллекте. Но на самом деле как раз за счёт качественно более высокой сложности человек способен выделить в своём опыте и задачу, и придумать систему, которая, оставаясь много проще человека, в процессе обучения только лишь выявит в задаче некоторые частные закономерности, не замеченные человеком. И только человек сможет понять, что задача решена верно — об этом ему подскажет «чувство удовлетворения», то есть в конечном итоге растёт качество жизни или нет. Вычислительной системе не подскажет ничего. Ей всё равно, есть она или нет.

На практике сказанное означает, что получится или создать искусственную систему, работа которой будет повторять мышление человека в целом, начиная от распознавания условий и до построения действий, но воспроизведённого на очень простом уровне, или систему, которая будет, может быть, и превосходить человека, но лишь на уровне отдельных элементов его опыта. И чем более частный характер носит задача, тем «превзойти себя» человеку будет проще, а превосходство может быть заметнее. И наоборот, по мере приближения возможностей искусственных систем к полноте возможностей интеллекта человека превосходство сменится отставанием. В итоге усложнение систем, способных делать то, что в целом делает человек, то есть ставить задачи и решать их, всегда будет ограничено уровнем сложности много ниже тех же способностей человека.

***


Рецензии