Приложение к статье Гёделевский аргумент...

Редакция — июнь 2025. Формат pdf доступен в разделе ссылок на другие ресурсы — http://www.proza.ru/avtor/laplas

Содержание

В статье в виде самостоятельного текста собраны аргументы, формулировки и подробности, не вошедшие в основную статью "Гёделевский аргумент и вычислимость интеллекта" (название в pdf — "Сильный искусственный интеллект не будет создан. Значение противоречивости теории всего").

Оглавление
Введение 1
1. Мышление и полнота знания 1
2. Сложность мышления 11
3. Трудности усложнения искусственных систем 14
4. Пределы познания 17
5. Искусственный интеллект и эволюция 22
6. Фантастический компьютер 26
   6.1. Детерминированные алгоритмы 26
   6.2. Недетерминированные алгоритмы 29
   6.3. Искусственная нейронная сеть 34
   6.4. Количество против качества 37
   6.5. Ещё некоторые варианты 43
7. Пределы сложности искусственных систем 44
8. Резюмируя 50


Введение

Можно ли создать искусственный интеллект, равный интеллекту человека или сильнее человеческого? Изучить работу мозга и найти все законы мышления? Или, вероятно, можно копировать мышление, оцифровать и перенести личность в компьютер? Какие в этом могут быть сложности?

По-видимому, сложности есть. С точки зрения разных областей знания в статье показаны принципиальные препятствия в создании искусственного интеллекта, приближающегося к человеческому.

 
1. Мышление и полнота знания               

В этой главе приведём логические аргументы, из которых следует, что мышление — это не совсем обычное явление, а также рассмотрим, что это означает для создания интеллекта искусственного.

В качестве предпосылки вспомним, что искусственная нейронная сеть (ИНС) — это алгоритм. Алгоритм своеобразный, недетерминированный, но тем не менее алгоритм. Что такое недетерминированные алгоритмы, в чём их своеобразие, рассмотрим в других главах, сейчас это не важно. Алгоритм — это инструкция, запись команд для исполнителя, путь к решению, то есть пошаговое описание того, что нужно делать, чтобы достичь некой цели, прийти к ответу. Например, компьютерная программа — это реализованный конкретными средствами алгоритм.

Из сказанного понятно, что работу искусственной нейронной сети можно описать, потому что алгоритм — это, собственно, и есть описание, инструкция. «Описать» — это, другими словами, «формализовать», то есть ясно, точно выразить неким языком, формулой. Например, языком формальным, математическом — точным, строгим, однозначным, который обычно и понимается под формализацией.

В свою очередь, возможность описать работу ИНС означает, что можно описать то, как конкретно сигналы на входе ИНС преобразуются в сигналы на выходе. И действительно, это не является тайной, хотя такое описание на практике будет чрезвычайно громоздким, ввиду сложности современных ИНС. Например, именно по причине сложности нейронные сети обучаются — они слишком сложный алгоритм, чтобы его можно было написать сразу как готовое решение задачи, и приходится вначале создавать нейронную сеть, исходя из неких общих соображений о её параметрах, а затем точнее «подгонять» сеть под верный ответ обучением. Подробнее об этих особенностях нейронных сетей речь тоже пойдёт в других главах, а пока нам важно только то, что описание того, как ИНС приходит к тому или иному решению, возможно.

Но можно ли, хотя бы в принципиальном смысле, описать работу биологической нейронной сети? Например, если нельзя, то это будет означать, что естественный и искусственный интеллект — это принципиально разные физические системы, то есть работающие на разных физических принципах, так как одни хотя бы теоретически поддаются описанию, а другие нет, не поддаются принципиально.

Ответ на этот вопрос несложен. Разве что, может показаться, что мы начнём ответ слишком издалека, но, как станет понятно, на самом деле нет.

Итак, кажется очевидным, что любое явление имеет свои причины, то есть происходит по некоторым законам. Естественно, эти законы ни в чём не могут противоречить законам физики, так как любое явление, в том числе и мышление — это часть физической реальности. Поэтому если вся реальность в принципе может быть формализована, то, как часть реальности, будет формализовано и мышление.

Никакое противоречие законам физики действительно невозможно, однако если реальность можно формализовать, то есть свести всё сущее к строгим формулам некой всеобъемлющей физической теории — теории всего — то окажется, например, что неверная физическая формула должна так же в точности соответствовать законам физики, как и формула верная. Потому что если формализовано всё, то формализовано будет и мышление, а если будет формализовано мышление, то формализован будет и вывод всех утверждений, которые только можно сформулировать, в том числе и всех мыслимых формул, а значит, и формул ложных, бессмысленных, так как нам ничего не мешает сказать что-нибудь ошибочное, бессмысленное, соврать, сделав это намеренно или случайно.

Другими словами, сформулированная ложная формула будет точно так же выводиться в теории всего, как и формула истинная. Но тогда ложная формула тоже будет истинной, так как верная теория не может доказывать неверные утверждения. Таким образом, ложная формула будет и ложной, и истинной одновременно, то есть попросту бессмысленной. Но истинная формула тоже тогда станет бессмысленной, так как она, получается, ничем не будет отличаться от ложной — на каком же основании её тогда считать истинной?

Поясним ситуацию с «истинно-ложными» формулами более наглядно. Любому истинному утверждению можно придумать противоположное — такое, где истинное утверждение отрицается. Но верным должно быть только какое-то одно. Однако в теории всего верны все утверждения, которые только можно сформулировать, потому что из теории всего следует всё. Это значит, что бессмысленной является сама такая теория — теория, в которой можно доказать и утверждение, и его отрицание, является противоречивой. Например, с другой точки зрения, ложным будет утверждение, которое выходит за границы применимости теории всего, но у теории всего не может быть границ применимости, потому что из неё выводится всё, включая саму идею каких-либо границ применимости.

Кажется, в нашем рассуждении есть ошибка — ложным или истинным может быть только смысл — смысл утверждения, смысл формулы, а не сама формула, как просто некая запись, фраза, идея. Однако у нас теория всего, поэтому и смысл в ней тоже формализован, так как в ней формализовано всё — и все содержание сознания в том числе. Посмотрим, можно ли формализовать смысл.

Смысл — это составляющая сознания, психическое восприятие обобщённой перспективы ситуации, например, это радость, энтузиазм, грусть, смущение, скука, то есть такие переживания, которые в целом можно разделить на ощущения хорошо/плохо. В свою очередь, сознание, очевидно, неотделимо от мышления, то есть смысл физичен, материален, проще говоря, он есть. Следовательно, если можно формализовать мышление, то вместе с ним будет формализован и смысл.

Но если смысл может быть формализован, то мы приходим к уже знакомому противоречию, потому что все формулы — и ложные, и истинные — становятся в этом случае одинаково истинными, потому что их истинный или ложный смысл сам становится истинной формулой, обычной частью теории всего. Но если всё одинаковое, то ни истина, ни ложь не существуют, а значит, опять же, теория, в которой будет формализован смысл, тоже становится ни истинной, ни ложной, то есть такая теория не будет иметь никакого смысла.

Таким образом, мы пришли к выводу, что формализация и только мышления, и всей природы в целом принципиально ограничена. Невозможность формализации мышления — это, если говорить конкретнее, принципиальная невозможность описать то, как конкретно сигналы рецепторов на входе биологической нейронной сети преобразуются в активность нейронов на выходе сети. И если это невозможно, если тайны из мышления неустранимы, то нельзя построить ни теорию мышления, ни теорию всего. Например, это означает, что сложность и только мышления, и всей природы в целом одинаково бесконечна, с той точки зрения, что их формализация одинаково невозможна.

Таким образом, ответ на вопрос из начала главы об отличии искусственных и биологических нейронных сетей нами получен. Искусственные и биологические нейронные сети всё-таки отличаются принципиально — работу искусственных описать можно, хотя это и сложно, а биологических нельзя в принципе.

Теперь посмотрим, в чём конкретно отличие, почему конкретно работу биологической нейронной сети нельзя описать.

Построение теории всего равносильно формализации элементарного уровня материи, так как элементарный уровень материи — это основание всех других её уровней, знание элементарного уровня материи по крайней мере в принципиальном смысле позволит вычислять всё. Таким образом, формализация мышления тоже равносильна формализации элементарного уровня материи.

Проверим.

Если мы формализуем мышление, то все утверждения и вообще всё как-либо мыслимое станет выводимым, но если всё мыслимое станет выводимым, то круг замкнётся и познание остановится, познавать будет попросту больше нечего. За рамками теории мышления уже ничего не останется, из неё будет следовать всё, любой вопрос получит ответ. Иными словами, теория мышления — это и есть теория всего. Никакой другой теории всего не может быть.

Таким образом, действительно, мышление, как теория всего, связано с элементарным уровнем материи. В свою очередь, непознаваемость элементарного уровня материи означает, что невозможно описать не только всё, но и любую часть всего, если описание требует глубины элементарного уровня. Точно так же связь мышления с элементарным уровнем материи уже сама по себе означает, что невозможно сколько-нибудь точно описать ни «всё» мышление, ни любую его «часть» — какой-либо конкретный мыслительный процесс, то как конкретно мы приходим к тому или иному выводу, утверждению.

Например, из этого следует одно важное обстоятельство. Что необязательно рассматривать конкретную организацию мыслительного процесса в мозге, чтобы прийти к выводам о невозможности описания этой работы, так как приведённые сейчас аргументы позволяют сразу установить невыразимость мышления каким-либо языком, вне зависимости от того, что конкретно мышление из себя представляет. Поэтому в дальнейшем, говоря о невозможности формализации мышления, будем понимать, что речь идёт о невозможности описать работу биологической нейронной сети или в целом работу мозга.

Невозможность формализации означает, что отличие между искусственными и биологическими нейронными сетями заключается не в количественном аспекте — например, количестве нейронов в нейронной сети или связей нейронов — а в аспекте качественном, то есть в том, что работа биологической нейронной сети непосредственно связана с элементарным уровнем материи, и именно поэтому описать её работу в принципе невозможно. Мыслительный процесс в его реальной сложности невыразим словами любого мыслимого языка.

Причём, исходя из того, что смысл ничем принципиально не отличается от остального сознания, невозможность формализации смысла, говорит о том, что сознание — это не некое обычное «частное» явление природы, а элементарный уровень материи как таковой, основание всех явлений, потому что не имеет смысла только формализация элементарного уровня материи, ввиду того, что только описание элементарного уровня материи равно теории всего, а она противоречива. Таким образом, сознание должно всегда оставаться за рамками любых мыслимых теорий.

У теории всего не может быть границ применимости, но у такой теории нет и смысла. Следовательно, чтобы иметь смысл, теории должны иметь некоторый предел их расширения на время и пространство, за которыми они свой смысл теряют. Причём суть этого предела такова, что за пределами познаваемого всегда должен оставаться смысл, то есть субъект, его сознание.

Рассмотрим ещё некоторые следствия сделанных выше выводов.

Невозможность формализации мышления означает, что формализовать можно только отдельные составляющие мышления — отдельные функции, элементы и не самые глубокие уровни мышления, но не весь процесс во всей сложности. Поэтому искусственные системы максимум тоже смогут воспроизводить эти отдельные функции и элементы, всегда оставаясь проще мышления как такового.

Точно так же, как и в случае мышления, невозможность формализации элементарного уровня материи означает, что установить можно только отдельные законы физики, то есть описать отдельные явления и не самые глубокие уровни материи, но не объединить их в единой теории всего.

Если установить все законы физики невозможно, то нет и оснований считать какое-либо нынешнее знание строго истинным или строго ложным — знанием окончательным, неизменным. Так как в дальнейшем познании всегда может оказаться, что смысл происходящего иной, чем кажется сейчас, — и пока всё точно не установлено, в единую формулу не сведено, отрицать такую возможность нельзя. Поэтому «неуверенность» в истинности знания, его принципиальная гипотетичность — это обязательное условие его непротиворечивости. В то же время «неуверенность в непротиворечивости», естественно, не может быть и доказательством непротиворечивости. Таким образом, утверждения, которые сейчас считаются неверными, всего лишь противоречат тем, которые сейчас принято считать верными, а как обстоят дела «на самом деле» — известно быть не может.

Другими словами, в ходе познания истинность отдельных утверждений всегда будет ограничена отсутствием точного понимания их оснований. Например, известные сейчас фундаментальные физические постоянные, такие как скорость света, постоянная Планка, постоянная тонкой структуры, гравитационная постоянная и другие, входят в физические теории, но сами ни из каких теорий не выводятся и характеризуют непосредственно измеряемые свойства материи. Возможно, в будущем какие-то из них будут выведены, но или не все, или появятся новые.

Приведём ещё один аргумент против теории всего.

Познание — это фактически приближение к теории всего, то есть к построению такой формулы, из которой в точности выводятся все явления природы, включая саму эту формулу. Но описание природы не может быть абсолютно точным, иначе оно станет полностью равносильно самой природе, то есть перестанет быть описанием и станет самой природой. Поэтому теория всего не имеет смысла и на практике это выражается в том, что приближение к ней бесконечно, а непротиворечивое описание природы возможно только через отношения невыводимых из каких-либо теорий объектов и явлений (например, полей, частиц и так далее) — именно эти отношения могут быть непротиворечиво описаны математическим языком.

По известному выражению Альфреда Коржибски, польского и американского учёного, основателя общей семантики, — «карта не есть территория». Например, если бы знание абсолютно точно отражало объективную реальность, то в процессе познания в мозге должны были бы появляться сами познаваемые явления непосредственно. И так как это, очевидно, невозможно, то реальность субъективная и объективная должны отличаться.

Другими словами, знание о явлении — это не само познаваемое явление, не его точный «слепок», «отражение» или абсолютно точное описание. Причём этот аргумент в том числе говорит о том, что невозможно узнать, как конкретно из элементов объективной реальности возникает реальность субъективная, потому что в ином случае абсолютно точное описание природы будет как раз возможно. Но, не понимая, как конкретно возникает знание, невозможно понять и каков познаваемый мир «на самом деле».

Может показаться, что вывод об отсутствии истин равен выводу об отсутствии смысла вообще, так как если нет абсолютно истинного и абсолютно ложного знания, то истина и ложь равны. Однако если формализовать всё — когда, как кажется, истинное можно будет абсолютно точно отделить от ложного — то наоборот, смысл и ложного, и истинного исчезает, так как смысл сам становится истиной формулой. Следовательно, чтобы смысл был, ему должно быть «место» — отдельные формулы должен связывать в «целое» не строгий формализм других формул, а нестрогий смысл, то есть та неформальная «часть» мышления субъекта, которая формулы создаёт и их смысл «понимает». В результате формулы есть, но так как с объективной реальностью их связывает неформальное основание, то истинность и ложность любых формул всегда под вопросом.

С другой стороны, если никакое знание не является истиной, то, вероятно, и само утверждение, что никакое знание не является истиной, тоже не истина, а потому истины, наоборот, возможны? Однако утверждение, что истины возможны, получается, опровергает своё собственное основание в виде утверждения, что никакое знание не является истиной, и, таким образом, само теряет смысл. В то же время утверждение, что никакое знание не является истиной, действительно не истина, иначе оно само стало бы бессмысленным утверждением, не имеющим границ применимости. «Не истинность» утверждения, что никакое знание не является истиной, в том, что оно имеет границы применимости, которые задают предпосылки, из которых это утверждение исходит. Эти предпосылки — нынешние знания, а они не равны теории всего. Поэтому в ходе познания всё ещё может измениться, включая и саму идею, что теория всего не имеет смысла и познание бесконечно. Однако будущие знаний нам ещё неизвестны, а исходя из нынешних, есть только одна неопровержимая истина — существование себя.

В скобках заметим, утверждение, что никакое знание не истина, и одновременно утверждение об истинности существования себя, кажутся взаимоисключающими, но на самом деле это не так. Подробнее ситуация рассмотрена в статье «Эволюция методов познания» в главе «Абсолютная истина».

Если познание не имеет какого-либо конкретного итога, и этот итог не просто невозможен на практике, но и не имеет смысла, то в процессе познания теории должны всё больше терять смысл. Теоретические модели должны становиться всё более необычными и неоднозначными, математический язык всё сложнее, а также, как следствие трансформации смысла, всегда будет выясняться, что смысл происходящего другой, чем кажется сейчас. Иными словами, познание связано не только уточнением уже существующих представлений о мире, но и с изменением их смысла, то есть с более или менее качественными переходами от одного представления о мире к другому. Изменение возможно на любом этапе познания и может быть связано не только с появлением новых теорий, но и даже с развитием нового отношения к реальности в целом и появлением новых форм познания.

Рассмотрим ещё одно возражение. Не все теории имеют прямое экспериментальное подтверждения, так как поставить такой эксперимент может быть слишком сложно. Например, невозможно воспроизвести эволюцию, чтобы доказать теорию эволюции в прямом эксперименте. Однако верные теории имеют предсказательную силу: используя теорию можно предсказывать неизвестные или незамеченные ранее частные события, тем самым подтверждая теорию в целом. Тем не менее бессмысленность теории всего — это не следствие проблем прямой экспериментальной проверки гипотез в отношении всего, а следствие принципиальной невозможности такую гипотезу даже сформулировать, так как теория всего не просто сложна, а её не может существовать, по мере приближения к такой теории теряют смысл любые знания. В результате объект «всё» ни в каком представимом виде не существует, не имеет смысла. Поэтому представление о началах всего или, аналогично, об элементарной сущности всего всегда будет противоречивым и недостаточным для формулировки прямо или косвенно проверяемых гипотез.

Итак, выше мы пришли к выводу, что познание мышления ограничено, так как это потребует формализации элементарного уровня материи. Но этот уровень материи не может быть формализован, то есть не может быть выражен каким-либо языком, алгоритмом, быть элементом какой-либо физической теории, так как такая теория будет противоречивой.

Проверим эти выводы с других позиций.

Принципиальная невозможность формализации явления означает, что в той же принципиальной степени явление нельзя отделить от остальной реальности. Например, чем точнее необходимо понять алгоритм работы часов, тем больше физических нюансов их механизма придётся учитывать. В то же время с практической точки зрения достаточно будет некоторого относительно невысокого уровня точности описания механизма, так как многие его параметры можно будет обобщить — абстрагировать существенное от не существенного. К примеру, в точности знать характеристики материала шестерёнок необязательно. Однако чем сложнее часы, чем больше в них деталей, тем важнее становится точность, то есть исследовать часы придётся на всё более глубоком уровне материи, иначе даже малые упрощения, накапливаясь, могут привести к значительному несоответствию отсчёта времени моделью часов и реальными часами.

Таким образом, чем сложнее явление, тем на всё более глубоком уровне материи его потребуется исследовать, то есть чем сложнее явление, тем больше сложность представления о нём будет приближаться к знанию элементарного уровня материи. Следовательно, знание самого элементарного уровня материи действительно является максимально сложным знанием. Но теория всего не имеет смысла, приближение к максимально сложному знанию бесконечно, а значит, связь мышления с элементарным уровнем материи действительно означает его бесконечную сложность.

Для большей уверенности рассмотрим сделанные выводы ещё раз.

«Формализацию» можно определить как процедуру, цель которой — дать предельно четкое, однозначное и исчерпывающее описание явления, подлежащего формализации. Таким образом, формализацию можно рассматривать как итог познавательного процесса, «идеал», к которому стремится познание. Возможность создания адекватной формализованной модели явления указывает на то, что о явлении получена исчерпывающая информация. Неформализуемость, напротив, указывает на неполноту знаний. Например, полностью формализованная научная теория должна представлять собой некоторую совокупность формул, записанных без всяких пояснительных слов или предложений, написанных на естественном, неформализованном языке.

Формализация, как итог познания, имеет естественные основания, так как понимание необходимого алгоритма действий — «формулы» удовлетворения потребностей в некой ситуации — позволит животному достичь желаемого с наименьшими затратами времени и энергии, предвидя развитие событий и заранее распределяя усилия. В отличие от животных более простых, человек способен выразить этот алгоритм словами, а используя формальный язык, однозначность правил которого позволит точно отразить суть действий, передавать его неизменным, исключая неверное понимание. В том числе использовать для вычисления протекания явлений в разных условиях, не прибегая к экспериментам, то есть, по сути, точно так же «предвидеть» развитие событий, только на уровне более высоком, чем на это способны животные более простые.

Но если формализация — это итог познавательного процесса, то точное и конкретное знание действительно исходит из знания не точного и не конкретного, то есть формальное содержание опыта действительно обуславливается неким содержанием «неформальным». К примеру, ни одна формальная теория без естественного языка обойтись не может, пусть он и используется только для пояснения, а не как элемент самой теории. В свою очередь, это означает, что истинность никакого знания нельзя подтвердить строго, так как сама «строгость» имеет границы, исходит из «не строгих» соображений.

И всё же из написанного следует и то, что процесс познания в конечном итоге всё-таки приводит к формализации явления. Поэтому, вероятно, есть кардинальный способ избавиться от всех «не строгих соображений» — просто нужно понять все явления. Или, другими словами, нужно установить все законы физики, описать элементарный уровень материи и достичь полноты знания, то есть нужно создать теорию всего, из которой будет выводимо всё. Как показано, это невозможно и даже не имеет смысла, тем не менее не будет лишним проверить столь глобальный вывод ещё раз.

Мышление — это часть физической реальности, проходящий в мозге физический процесс. Поэтому если законы элементарного уровня материи, как основания всех явлений от природных до социальных и психических, станут в точности известны, будут полностью формализованы, сведены к системе абстрактных формул, то все степени свободы (упрощённо говоря, куда можно двигаться, как изменяться) мышления тоже станут в точности известны, каждый шаг любого субъекта можно будет просчитать, все мысли и чувства будут вычислимы.

Если бы всё происходящее в мышлении стало понятно, то, моделируя процесс мышления, знания можно было бы просто вычислять. Получается, с одной стороны, субъект ещё не знает того, что ему не известно или известно не точно, ему ещё непонятно, как он поступит в тех или иных условиях, но с другой — он уже это знает, так как ему точно известны законы, по которым возникают все его решения. Иначе говоря, возможность описать процесс мышления равносильна возможности выйти «за знания», взглянуть на знания «со стороны», знать больше, чем знания, или аналогично — выйти «за самого себя», имея возможность наблюдать себя со стороны во всей полноте своих действий, мыслей и чувств. Очевидно, что это не имеет смысла.

Можно предположить, что теория всего — это просто слишком сложное знание, чтобы к нему мог когда-нибудь приблизиться человек, но сама по себе теория всего возможна. Тогда, например, написать теорию всего могли бы некие более умные представители внеземных цивилизаций, создать счётную машину, в которой она запрограммирована, и отдать её человеку. В результате человек всё-таки получил бы возможность смотреть на себя со стороны и без непосредственного знания теории всего — однако возможность «выйти за себя» от этого не выглядит более реальной. Например, «умные инопланетяне», построив теорию всего должны получить возможность формализовать и свое поведение тоже — они же тоже часть среды, то есть инопланетяне также получили бы возможность наблюдать себя со стороны. Что не имеет смысла как в отношении человека, так и в отношении любых мыслимых инопланетян.

Другими словами, формализация мышления означает и формализацию познания, что равносильно формализации всех возможных знаний, так как знание процесса появления знаний — это возможность вычислить любое возможное знание. Проще говоря, чем точнее становится понятен процесс познания, тем больше становится знаний, и потому полное понимание процесса мышления означает знание всех возможных знаний. Таким образом, формализация мышления будет равносильна знанию всех возможных знаний заранее, «формуле всех формул», решению всех задач, ответу на все мыслимые вопросы — но это не имеет смысла. Действительно, если мышление связано с элементарным уровнем материи, то формализация мышления невозможна без формализации этого уровня, но формализация элементарного уровня материи как раз равносильна знанию всех знаний, ответу на все мыслимые вопросы.

Надо заметить, несмотря на то, что все знания заранее не существуют, они не могут возникать и на «пустом месте», так как необходимо какое-то основание, задающее врождённое направление реакций. В ином случае изменения в мозге, соответствующие появлению новых знаний, будут отражать что угодно, но не потребности познающего. Следовательно изменения мозга должны быть связаны, с одной стороны, с этим направляющим основанием, с другой — с познаваемой средой. Также о познании нельзя будет говорить, если реакции мозга всегда линейны, пропорциональны воздействию среды, так как линейность реакций также равнозначна отсутствию у объекта каких-либо «собственных» задач, потребностей, которые заставляют объект реагировать на окружающие условия не только пропорционально силе или интенсивности воздействия, но и более сложным образом, «нелинейно» выделяя «важное» и не замечая «не важное». Причём реакции должны меняться, отражая возникающие в процессе обучения более сложные отношения «важного» и «не важного».

Таким образом, мозг, мышление, интеллект — это должна быть нелинейная система, которая в процессе взаимодействия со средой способна обучаться, усложняться. Эволюционировать из некоторого более неопределённого к некоторому более упорядоченному состоянию, соответствующему уточнению врождённых потребностей до конкретных задач и их решений. И чем сложнее будет «направляющее основание», тем более сложные задачи система сможет решить и в перспективе продвинуться к теории всего ближе.

И тем не менее, несмотря на всё сказанное, может быть, теория всего всё-таки возможна? Тогда выводы выше неверны и формализация мышления будет иметь смысл.

Например, все конкретные и неконкретные знания — подразумевая под этим какие бы то ни было ощущения и эмоции, поведенческие реакции в целом — возникают в мозге как некоторой «мыслящей» структуре. И если постепенно накапливать опыт, всё точнее и точнее познавать реальность, то когда-нибудь, вероятно, можно будет понять её всю — и потому понять и мышление. Получается, всё-таки можно познать познание познанием — физическое физическим, «масло маслом»?

Действительно, если все уровни материи станут известны абсолютно точно, то у измерений не будет погрешностей, фантазию можно будет абсолютно точно отделять от реальности. И в мышлении тоже всё будет понятно — все мыслительные процессы станут в точности известны и просчитать поведение в тех или иных условиях в принципиальном смысле труда уже не составит. Конечно, теория всего означает бессмысленную возможность наблюдать себя со стороны, точно знать своё будущее, но, может быть, это всё-таки возможно? Имея неодолимую силу, вероятно, можно сдвинуть камень, который невозможно сдвинуть? Поэтому, всё точнее познавая реальность, познание или остановится, столкнувшись с какими-либо трудностями, или в конечном итоге будет понято всё вообще, включая и мышление.

Теория всего означает возможность делать абсолютно точные утверждения обо всей реальности на любое время и в будущее, и в прошлое, так как все её элементы известны абсолютно точно. При этом подтвердить абсолютную точность можно только вечной проверкой, так как только вечность позволит установить, что действительно абсолютно всё было учтено и потому нет никаких отклонений от предсказанного. Другими словами, абсолютно точное знание равносильно нахождению вне реальности — вне пространства и времени, имея возможность наблюдать всю реальность в любое время. Однако в этом случае какое-либо сообщение с реальностью станет невозможным, потому что с ней не останется ничего общего, никакого обобщающего взаимодействия, и в результате наблюдать будет попросту нечего. Следовательно теория всего не имеет смысла.

Подобно теории всего, абсолютно точное измерение любого параметра реальности тоже равносильно выходу «за реальность», включая самого себя, — чтобы можно было измерять, но не вносить возмущения. Об том же, например, говорит и непознаваемость элементарного уровня материи — точность измерений в любом случае будет всегда ограничена этим уровнем.

Можно возразить, что достаточно понять «почти всё» — столько, чтобы иметь твёрдую уверенность в окончательности теории. Например, некоторые современные теории позволяют делать чрезвычайно точные предсказания. Однако, как уже говорилось выше, если итог в виде полноты знания не имеет смысла, то есть не может существовать, то наблюдать его тоже невозможно, а приближение к нему бесконечно и на любом конечном промежутке времени близко приблизиться нельзя. Поэтому точно так же на любом конечном промежутке времени не удастся достичь и уверенности в окончательности какой-либо теории. Как следствие, до тех пор, пока всё абсолютно точно неизвестно, не может быть известно и то, что ещё неизвестно и сколько ещё неизвестно, как сильно поменяется наше представление о мире, стоит попробовать его ещё хотя бы немного уточнить.

Против полноты знания можно привести другие аргументы. Познание — это преобразование материи в структуру знания. При этом для познания необходима такая форма материи, как энергия, поэтому чтобы всю материю переработать в структуру знания, материи нужно больше, чем её есть. Преобразование материи в структуру знания суть упорядочение материи. Однако увеличение порядка на одном уровне материи происходит за счёт такого же роста энтропии — увеличения беспорядка на другом уровне материи, то есть познание всегда происходит за счёт разрушения. Поэтому «понять суть всего — это разрушить абсолютно всё, включая и сами знания. Причём разрушение неких элементарных оснований реальности невозможно — на то эти основания и элементарные, что их уже невозможно разделить на ещё более элементарные составляющие. Но это значит, что элементарный уровень материи принципиально непознаваем. Элементарный уровень материи — это основание всех других её уровней, поэтому знание материи на элементарном уровне равносильно теории всего, следовательно такая теория не имеет смысла. Или можно сказать так: у теории всего нет границ применимости, а значит, нет и смысла. Всё — это и ничего, так как ничего не выделено — нет субъекта, который бы выделил объект «всё», потому что субъект часть этого объекта. Поэтому так же как у ничего нет никакого смысла, так же никакого смысла нет и у всего, а значит, нет смысла и у законов, из которых выводимо всё. Или так — у всего нет никакого смысла, так как у всего есть все смыслы сразу.   

Подведём итог главы. Из приведённых аргументов следует, что мышление принципиально отличается от создаваемых человеком вычислительных систем, так как мышление связано с элементарным уровнем материи. Связь с элементарным уровне материи означает, что никаким языком и ни в каком алгоритме работу мозга выразить нельзя, потому что столь глубокое знание материи не имеет смысла. «Не имеет смысла» и в переносном смысле — так как теория, в которой описан элементарный уровень материи, будет противоречивой, и в буквальном — так как формализация элементарного уровня материи означает формализацию и смысла тоже, что приведёт к его утрате. 


2. Сложность мышления

Тем не менее пусть описать ход мыслительного процесса невозможно, но, видимо, можно создать некую «приблизительную» систему мышления? Пусть и не настолько сложную, как естественное мышление, но практически вполне достаточную, чтобы, например, «перенести себя» в компьютер с «минимальными потерями». К примеру, законы множества других явлений можно понять очень точно и строить их такие же точные модели. Или, вероятно, можно копировать мышление? Например, каким-нибудь образом сканировать ход всех мыслительных процессов и оцифровать их? В конце концов посредством случайных мутаций и естественного отбора природа смогла создать мышление, почему бы это не повторить и человеку? Может ли быть, что тут тоже возникнут проблемы?

Любое явление — это часть физической реальности, поэтому принципиальная неполнота знания на самом деле не позволит с абсолютной точностью понять никакое явление, а не только мышление. Как говорилось, понятное исходит из непонятного, знание из незнания, и точная формализация любого явления неизбежно потребует формализации и всего непонятного тоже — и тем самым в конечном итоге всей реальности. Иными словами, если рассматривать явления с точки зрения их абсолютно точного описания, то на самом деле все явления будут обладать бесконечной сложностью и будут неотделимы от среды. Поэтому все теории приблизительны, то есть в принципиальном смысле ни одно явление нельзя свести к абсолютно точной формуле, так как невозможно с абсолютной точностью установить все нюансы явления, измерить что-либо абсолютно точно. Что тем не менее не обязательно мешает на практике, где сама по себе абсолютная точность и не нужна, достаточно, чтобы точность знания была адекватна решаемой задаче.

Однако мышление — это не «одно явление», а все возможные к познанию явления сразу, поэтому проблемы должны возникнуть даже в попытке приблизиться к пониманию мышления сколько-нибудь близко. Отличие мышления от других явлений в том, что сложность исследования мышления должна обобщать сложность исследования сразу всех познаваемых явлений, всех решаемых задач, всех алгоритмов и формул, возможных к отражению в опыте, от самых простых до самых сложных, потому что мышление задаёт границы сложности всем возможным знаниям. В результате трудности в исследовании мышления станут стремительно расти задолго до понимания мышления сколько-нибудь точного.

Иначе говоря, мышление — это некоторый физический процесс, физическое явление, следовательно познание мышления связано с познанием природы. Но, в отличие от других явлений, эта связь непосредственная, так как по причине непосредственной связи мышления с элементарным уровнем материи, каковая была описана в предыдущей главе, познание мышления равносильно познанию сразу всей природы. Но теория всего недостижима, приближение к ней бесконечно и за любой конечный промежуток времени сколько-нибудь близко приблизиться нельзя.

Таким образом, принципиальная непознаваемость природы предстаёт в мышлении в «концентрированном» виде, делая мышление столь же непознаваемым, насколько ограничено приближение к теории всего. Возникающий в итоге уровень сложности, непознаваемости и непредсказуемости настолько выделяет мышление среди других явлений, что понятия формализации, исследования, алгоритма, моделирования — применимы к процессам «мыслительного» характера несравнимо более ограниченно, чем к явлениям другого полюса реальности.

Поэтому познание мышления возможно, как и познание природы вообще. В то же время трудности познания станут стремительно расти задолго до приближения сложности знания к сложности мышления сколько-нибудь близкого, так как познание мышления равносильно познанию всей природы сразу, всех её явлений — от физических до социальных, от самых простых до самых сложных, от тех, понимание которых требует мало времени до тех, время понимания которых не отличается от бесконечности. В результате, ввиду бесконечной сложности итога, сложность знания, даже сколько-нибудь близко приближающейся к мышлению, является на практике недостижимой.

Сложность столь качественного высокого уровня проявляется в некоторых особенностях мышления как физического явления — и не только в мышлении человека. Более того, некоторые из этих особенностей можно наблюдать в явлениях, лежащих в физическом основании мышления, так как если мышление развивалось в процессе эволюции, то оно, очевидно, имеет начало в явлениях неживой природы, которые на первый взгляд «мыслительными» ещё не выглядят. Очевидно также, насколько эти особенности затрудняют изучение интеллекта естественного, настолько же они должны затруднять и создание интеллекта искусственного. Речь об этих особенностях пойдёт в следующей главе.

Сейчас же ответим на вопрос: как может быть, что «идеал познания» — это формула, алгоритм явления, и при этом сам алгоритм в принципе не может выразить мышление?

Алгоритм — это инструкция, порядок действий, ведущий к цели за конечное число шагов. Алгоритмом также будет описание динамики явления — хода изменений явления под влиянием действующих на него факторов. По своей сути алгоритм — это отражение целенаправленного поведения и поэтому последовательного переключения внимания, шаг за шагом выделяющего важные изменения в условиях и действия, которые следует совершить в ответ. Поэтому явления, которые в принципе не могут быть представлены в виде последовательности шагов сколько-нибудь адекватно их сути, в той же степени не могут быть и выражены алгоритмом.

Другими словами, алгоритм явления — это не описание самой физической сущности явления, а только её некоторой «внешней», известной субъекту динамики. Например, последовательность шагов алгоритма можно образно сравнить с точками, которыми выделены важные вершины в объёме явления, — но очевидно, что никакое счётное количество точек объёмом не станет. Поэтому никакой порядок слов, формула, программа, сколько бы точными они ни были и сколько бы быстро ни происходило вычисление, физическую реальность в принципе не выразят, описывая всегда не реальность как таковую, а только некоторое «внешнее» проявление физической реальности.

С точки зрения математики отношение шагов алгоритма и реального физического процесса можно представить как мощность бесконечного счётного множества — например, множества всех натуральных чисел (1, 2, 3... и т. д.), и мощность несчётного множества — континуума, равномощному множеству всех вещественных чисел или множеству всех точек отрезка. Несмотря на бесконечное количество и натуральных чисел, и точек, на которые можно разделить отрезок, количество последних будет несравнимо больше. Любое натуральное число само по себе конечно, но первое же число континуума, идущее после нуля, уже будет бесконечно малым: 0,000…01. Таким образом, в отличие от хоть и бесконечного, но всё же счётного множества натуральных чисел, количество точек, которые могут поместиться в любом самом коротком отрезке (или самом малом объёме), не только бесконечно, но и несчётно, то есть «качественно» больше. Причём количество точек в любой части отрезка будет столь же несчётным, как и во всём отрезке.

Поэтому если мышление — это не тот процесс, в котором можно ограничиться некоторым уровнем точности описания, а важен может быть весь объём структуры мышления во всех подробностях на всех уровнях материи, то данное обстоятельство как раз и может определять качественное различие мышления и алгоритмов. Проще говоря, в этом случае никакого мыслимого алгоритма «не хватит», чтобы описать процесс мышления сколько-нибудь точно, так как нельзя «заполнить» алгоритмом весь объём системы, причём независимо от того, мышление ли это насекомого, человека или те явления природы, которые лежат в основании мышления. Например, согласно сильному тезису Чёрча — Тьюринга, может быть вычислен любой физический процесс, который не использует аппарат, существенным образом связанный с непрерывностью и бесконечностью. Но необходимость абсолютной точности описания, по сути, означает, что мышление именно тот процесс, который такой аппарат использует.

Более того, о чём говорилось в первой главе, сознание в принципе не может быть выражено каким-либо языком, то есть сознание — это больше, чем какой-либо континуум в известном математическом или физическом представлении. Невыразимость сознания словами какого-либо языка, становится более наглядной, если представить ситуацию, когда требуется объяснить «красноту» красного цвета, вкус апельсина или звук рояля тому, кто никогда не видел ничего красного, не ел апельсинов или не слышал рояля. Объяснить будет в принципе невозможно, выразить этот опыт словами не удастся. С тем же успехом можно попытаться выразить словами своё эмоциональное состояние.   

Поэтому если «обычный» континуум хотя бы более или менее понятен, пусть он и связан с несчётной бесконечностью, то про континуум сознания можно сказать только то, что он существует. Другими словами, сложность мышления столь высока, что не просто невычислима, а «более чем невычислима», так как аппарат, который использует мышление, связан с чем-то явно бо;льшим, чем просто какая-либо известная математическая непрерывность и бесконечность.

Надо заметить, последнее вполне логично. Чтобы понять явление, необходимо, что называется, «посмотреть на него со стороны», то есть включить представление о явлении в свой опыт. Который, очевидно, должен быть качественно сложнее исследуемого явления, так как иначе смысл явления будет неясен, модель исследуемого явления попросту «не поместится» в опыт, чтобы его можно было исследовать. Таким образом, чтобы иметь возможность «наблюдать» и исследовать в опыте несчётную бесконечность, опыт должен быть качественно «больше» неё, качественно «богаче», «бесконечнее». В результате наше сознание, как проявление этого опыта, действительно не просто континуум, а континуум многомодальный (понимая под модальностями элементы этого континуума, то есть разные оттенки всего спектра субъективных переживаний от самоощущения и эмоций до ощущений), мощность которого настолько отличается от мощности известного континуума, что никаким языком этот объект уже невыразим, любой мыслимый язык для него будет недостаточно богат.

В заключение следует заметить, что одинаково бесконечная сложность работы любого мозга возникает только с точки зрения формализации этого процесса. Тем не менее исходя из объёма и его доступной для наблюдения структуры, разницу в сложности между, например, мозгом человека и мозгом более простых животных оценить возможно. Но эта оценка всегда будет в той же степени общей и не точной, как ограничена возможность формализации оцениваемой системы.


3. Трудности усложнения искусственных систем

Из аргументов предыдущих глав следует, что познание естественного интеллекта принципиально ограничено. Изучение работы мозга будет сталкиваться со всё большими трудностями и на практике станет невозможным задолго до представления о его работе сколько-нибудь точного. В свою очередь, в той же степени, очевидно, будут расти трудности и в создании искусственных систем по мере их усложнения. В чём будут проявляться эти трудности?

Значительная общность поведения всех животных, включая людей, говорит о том, что взаимодействие мозга со средой происходит в контексте некоторых общих принципов, одинаковых у всех животных. Следовательно в этой части, то есть в некотором общем, понимание процесса мышления будет возможно, так как неизменная воспроизводимость общих принципов в устройстве любого мозга позволит их относительно легко выделить и повторить в системах искусственного интеллекта.

Однако так же, как сложно предсказать более частные действия животного, в той же мере сложности будут возникать в уточнении общих принципов связи мозга со средой до конкретных параметров этой связи. Сложное поведение — это и сложный процесс, происходящий в мозге, поэтому так же как у всех животных мышление одинаковое в общем, так же оно будет отличаться и усложняться в частном.

В той же степени, следовательно, проблемы будут возникать и в создании систем искусственного интеллекта — их необходимое конкретное устройство также будет непонятно. И чем сложнее искусственный интеллект, тем больше будет возможных вариантов его частных параметров, так как если общие принципы, взятые из естественного интеллекта, будут неизменны во всех вариантах ИИ — от самых простых до самых сложных, то количество непонятных более частных параметров по мере усложнения ИИ будет увеличиваться.

Невозможность теории всего означает и невозможность абсолютной точности, то есть точные границы тоже невозможно провести, а значит, ни одно явление невозможно абсолютно точно выделить из среды, строго обозначить конец и начало явления. Другими словами, нельзя не только описать весь объём явления, но и строго отделить одно явление от других. И чем сложнее явление, тем эти особенности будут проявляться всё более явно. Как ранее было показано на примере с часами, чем сложнее явление, тем на всё более глубоком уровне материи его потребуется исследовать, в пределе стремясь к элементарному уровню материи. Но сложность элементарного уровня материи равносильна исследованию сразу всех явлений, так как он находится в основании всего. Таким образом, чем сложнее явление, тем менее оно отделимо от среды. Говоря по-другому, связь с элементарным уровнем материи, чем характеризуется мышление, означает высочайшую чувствительность явления, то есть опять же неотделимость мышления от среды. 

Например, задача мышления — это управление мышцами и железами в общем контексте самосохранения и размножения, стремления к лучшему качеству жизни. И чем точнее знание себя и окружающей среды, тем точнее можно выстроить необходимую стратегию поведения, а теория всего и вовсе позволит достичь максимально возможного качества жизни. Но теория всего не имеет смысла, поэтому точно так же не имеет смысла максимально возможное качество жизни, а значит, не существует и итог мышления. Нельзя сколько-нибудь точно обозначить также и начало мышления, потому что любой организм ведёт свою историю от появления первой клетки в процессе эволюции.

Таким образом, начало мышления неизвестно, конец мышления не существует, конкретные параметры мышления сколько-нибудь точно установить нельзя. Это значит, что если какие-либо другие физические явления можно отделить от среды с высокой точностью, и с той же точностью исследовать, как на их течение влияют разные начальные условия, тем самым изучая все особенности явления, то с мышлением это невозможно. 

В свою очередь, это означает, что ни конкретную цель, ни единственно верную «траекторию» поведения субъекта обозначить нельзя. Нельзя проверить создаваемый вариант искусственного интеллекта на соответствие некому «эталонному мышлению», так как такого эталона в принципе не существует. Поэтому поведение каждого варианта искусственного интеллекта придётся проверять, основываясь на некоторых общих соображениях о требуемом поведении, а не в сравнении с эталонным образцом, несоответствие которому можно найти и исправить. И проверять во всех будущих условиях, так как если работа системы непонятна, то поведение в проверенных ситуациях не позволит с уверенностью сделать вывод о её поведении в ситуациях ещё не проверенных. Например, точно так же нынешнее адекватное поведение человека ещё не гарантирует его адекватности в будущем или в новых условиях. В то же время, чем сложнее искусственный интеллект и шире условия его применения, тем меньше такая проверка будет возможна, так как она будет требовать всё больше времени. Потому на практике, чем искусственный интеллект сложнее, тем в относительно менее широком круге условий его можно будет проверить. В результате оценка адекватности будет становиться всё менее точной.

Иными словами, если в естественном мышлении в принципе могут быть известны только некоторые общие параметры процесса, то и заложить в «мыслящую» искусственную систему также можно будет только максимум эти общие представления. Тем самым задать системе не точное устройство, которое необходимо для решения задачи, а только приблизительную «выразительность», некоторый приблизительный «объём возможностей».

В свою очередь, эта начальная неопределённость, возникающая в создании «мыслящей» системы, потребует или угадывания сразу нужного варианта в точности — что не имеет смысла из-за множества параметров, которые заранее не известны, или дальнейшей оптимизации созданной наугад системы, чтобы упорядочить её «объём возможностей» под решаемые задачи. Иначе говоря, потребуется обучение, когда в процессе взаимодействия с обучающей средой в системе формируется некоторое конкретное поведение требуемого направления. Поэтому если в природе обучение необходимо по причине заранее неизвестных условий жизни животного, то в создании искусственных систем обучение необходимо по причине невозможности задать требуемое поведение прямо.

Может показаться, что отсутствие «единственно верных» решений в создании систем искусственного интеллекта, наоборот, должно упрощать их создание, так как такие системы можно создавать приблизительно — точнее говоря, только приблизительно и можно — после чего обучить систему. Иными словами, может показаться, что обучение для искусственных систем — это не недостаток, а достоинство.

Если нельзя точно установить пригодность системы для решения какой-либо задачи заранее, исходя из некоторых строгих соображений, то конкретный вариант системы можно создать только более или менее наугад. Например, нейросетевая структура алгоритма искусственных нейронных сетей слишком сложна, чтобы можно было проверить ход вычислений мысленно. В свою очередь, это значит, что определить необходимый вариант системы можно только методом перебора, обучая каждый конкретный созданный наугад вариант. Однако по мере усложнения систем их возможных вариантов будет становиться всё больше и каждый потребует всё более длительного обучения. При этом, как говорилось, в ходе обучения не всегда есть возможность проверить систему во всех ситуациях, которые возникнут в её реальном применении. И не только потому, что этих ситуаций может быть чрезвычайно много, но и потому, что верный выход из них может быть долог и заранее непонятен, а многие заранее неизвестны, а даже известные не всегда можно создать. Например, обучать автопилот автомобиля правильно реагировать в опасной ситуации, очевидно, нельзя в реальных авариях.

И чем сложнее система и чем большему её можно обучить, тем таких ситуаций будет становиться потенциально больше. Другими словами, наличие в устройстве системы случайной составляющей означает, что поведение системы за пределами проверенных ситуаций будет заранее непредсказуемым, а значит, возможно, неадекватным — и таких белых пятен по мере усложнения систем будет становиться всё больше. В итоге достоинства, связанные с относительной простотой создания, по мере усложнения систем будут всё больше нивелироваться растущей сложностью обучения.

И наконец указанные затруднения, которые должны возникать в создании искусственного интеллекта, не являются только лишь возможными где-то в перспективе. Все они в полной мере уже сейчас присущи искусственным нейронным сетям, которые в различных вариантах считаются основными, а по большому счёту и единственными кандидатами на звание искусственного интеллекта. Например, создание ИНС подразумевает не точный расчёт их устройства под решаемую задачу, а случайный выбор параметров на основании общих представлений о функционировании нейронных сетей вообще и прошлого опыта решения сетями похожих задач. Затем нейронная сеть обучается, в ходе чего работа сети оптимизируется под решаемую задачу, причём обучение естественным образом также подразумевает неформальную составляющую.

Тогда, вероятно, можно копировать мышление? После чего оцифровать копию и, таким образом, получится не только понять весь ход «мыслительных» процессов в мозге, но, например, и перенести личность в компьютер?

Однако копирование какого-либо объекта на элементарном уровне материи равносильно созданию его абсолютно точной копии, то есть абсолютно точному измерению, но абсолютная точность не имеет смысла. А на практике задолго до приближения к ней мозг в любом случае разрушит интенсивность измеряющего воздействия. По тем же причинам, не получится и копировать мозг по частям, разобрав его на элементы — это тоже никак не отменяет того, что элементарный уровень материи нельзя исследовать и описать. Наконец, как будет понятно в следующих главах, в отличие от других систем, не утратив критический объём информации, мозг невозможно разобрать даже на части крупные.

Посмотрим с другой стороны.

Несжимаемость с точки зрения теории информации — это фундаментальное свойство ряда случайных чисел. Чтобы сжать данные, нужно прежде выявить в них закономерности, то есть найти в них некую общность, суть, тем самым сократив данные до описания этой сути. Однако в случайных данных никакие закономерности выявить, естественно, нельзя, так как отсутствие закономерности, можно сказать, и есть единственная закономерность случайности. Например, согласно русскому и советскому математику, одному из крупнейших математиков XX века А. Н. Колмогорову, наибольшей сложностью обладает совершенно не упорядоченный случайный шум, хаос, так как для своего точного определения он потребует наибольшего объёма вычислительных ресурсов.

При этом найти закономерности в мышлении можно. Поведение не беспорядочно, поэтому мышление — это не случайный процесс. Следовательно в найденном объёме неизменного, периодического и воспроизводимого мышление можно «сжать» — можно отделить функцию личности от подробностей физического устройства мозга. Но узнать можно далеко не все закономерности мышления, так как знание всех закономерностей означает возможность описать мышление, что не имеет смысла. Поэтому описать можно только некоторые общие принципы или некоторые отдельные элементы работы мозга. Точно так же, например, можно предсказать некоторое общее направление поведения субъекта или его действия на короткий срок.

В итоге за пределами общих направлений и коротких времён работа мозга непредсказуема, а значит, несжимаема. Поэтому в своей реальной сложности мышление может быть только самим собой — самим физическим процессом мышления непосредственно. Принципиальная невозможность сколько-нибудь точно описать мышление, как ни странно, означает и то, что мышление невозможно копировать без качественной потери информации о нём.


4. Пределы познания

В предыдущих главах мы выяснили, что познание мышления принципиально ограничено. Из-за чего невозможно перенести мышление на какой-либо другой носитель или сколько-нибудь точно предсказывать поведение субъекта. В то же время появлению мышления в природе его непознаваемость и непредсказуемость не помешала. Сможет ли человек создать искусственный интеллект, не уступающий собственному, повторив способ, которым действовала природа? Прежде чем перейти к этому вопросу, рассмотрим, насколько вообще можно понять природу. Сделаем это с несколько иных точек зрения, чем этот вопрос уже рассматривался в главах ранее.

Смысл — это эмоционально воспринимаемая обобщённая перспектива явления по отношению к задачам субъекта. Например, смысл пищи будет меняться, если сыт или когда голоден. Поэтому чтобы оценить явление, «понять его смысл», нужно посмотреть на явление со стороны — со стороны своих задач, своего опыта, то есть, другими словами, осмыслить явление, представить его, сопоставить ему перспективу в опыте. Однако невозможно выйти за всё и посмотреть на всё со стороны, потому что тогда, например, придётся выйти и за любой смысл тоже, включая смысл задачи оценить всё. В результате будучи частью реальности её невозможно наблюдать всю, а не будучи частью реальности её невозможно наблюдать вообще, так как наблюдатель или часть всего, или его нет.

Таким образом, всё, как объект, не имеет смысла. Такой объект «снаружи» не существует, так как у всего не может быть «снаружи». Но это значит, что у всего не может быть и каких-либо границ во времени и пространстве. А «изнутри» есть только частные явления — но их все нельзя соединить «в целое» в одной теории всего, потому что такая теория как раз и будет равносильна возможности взглянуть на всё со стороны. В итоге любая попытка вывести смысл всего не имеет смысла, любой вывод обо всём — об истоках или границах всего, о законах или элементарной сущности всего, о том, что было до всего или будет после всего, о том, каков мир «на самом деле» — нельзя ни доказать, ни опровергнуть, так как это утверждения о принципиально непознаваемом, сколько-нибудь уточнить сущность всего невозможно.

Поэтому, чтобы внутри бессмысленного «всего» возник смысл, должен быть объект, который будет одновременно и частью среды, и сможет отражать в своих реакциях перспективу явлений. Иначе говоря, реагировать не только пропорционально «силе» или «интенсивности» воздействия среды, но ещё и пропорционально «важности» воздействия. Очевидно, на физическом уровне такое возможно, только если объект будет обладать неравновесной динамикой, которая может совпадать или не совпадать с нынешними воздействиями среды, масштабируя или нивелируя их в реакциях объекта, придавая его поведению нелинейный характер. Объект будет реагировать как будто бы исходя из «личного» смысла ситуации, «обращая внимание» на важное и «не замечая» не важное. В результате, оставаясь частью реальности, объект приобретёт свойство «стороннего наблюдателя», «субъекта», «оценивая» воздействия среды со стороны своего «опыта».

В свою очередь, открытость среде определяют способность системы к самоорганизации и дальнейшей эволюции — упорядочению элементов системы и возможность перехода ко всё более сложным формам порядка. При этом после самоорганизации поведение системы приобретает смысл гомеостаза, то есть на физическом уровне у системы возникает стремление к самосохранению, а любое усложнение системы становится усложнением этой задачи. И потому мир теперь тоже не бессмысленный — он помогает или мешает самосохранению, он хороший или плохой. 

Таким образом, чтобы возник смысл, помимо процессов разрушения, упрощения, движения к равновесию и покою, в природе должны быть процессы эволюции, усложнения, стремления балансировать на грани. Тогда на одном уровне реальности будет простота — на другом сложность, на одном уровне останется равновесие и движение к покою — на другом появится неустойчивость и активность, на одном будет хаос и рост энтропии — на другом возникнет упорядочение, эволюция. И на уровне сложности, неустойчивости и порядка находится субъект.

Чтобы понять явление, надо быть много сложнее него — чтобы связать свой опыт, то есть собственную динамику, со всеми важными параметрами явления. Тем самым оценить явление «со стороны», выявить смысл явления — перспективу явления в контексте своих потребностей и способностей. И потому чем больше объём опыта, тем смысл явления будет понятнее. Другими словами, чем сложнее собственная динамика и выше возможности её трансформации, тем сложнее явления можно понять. В то же время возможности трансформации ограничены, так как общий контекст врождённых потребностей и способностей не может меняться значительно, задавая общее направление изменениям, которые будут формировать конкретный опыт.

Такие особенности познания означают, что представление о мире всегда будет искажённым, так как ход наблюдаемых процессов невозможно точно отделить от собственной динамики, то есть смысл исследуемого явления невозможно точно отделить от опыта в целом. И принципиальная невычислимость мышления говорит о том, что это невозможно в принципе. В результате познание заключается не только в том, чтобы точнее «измерить» явление, но и в том, чтобы точнее отделить объективную реальность от субъективного представления о ней. Прежде чем что-то «измерять», нужно понять, что измерять, представить модель исследуемого явления.

Причём ввиду того, что познание, по сути, есть приближение к полноте знания — а полнота знания не просто не достижима, но и не имеет смысла, то по мере все более глубокого познания природы смысл явлений, очевидно, должен становиться всё более «бессмысленным» — парадоксальным, странным, несоответствующим привычному, а язык теорий всё сложнее.  Другими словами, вывод об отсутствии у теории всего смысла — это не просто вывод о невозможности что-то точно измерить, наблюдать, предсказывать или поставить эксперимент, но и вывод о невозможности адекватно понять измеренное, предположить, что вообще нужно измерять, построить адекватную модель явления и усиление этих тенденций.

Но природа действительно так сложна или её сложность лишь кажущееся следствие того, что познать всю природу, оставаясь её частью, невозможно? Однако «со стороны» мир, наоборот, показался бы «слишком простым», так как действительно со стороны, то есть без какой-либо связи с ним, мира бы для такого наблюдателя не существовало. Поэтому или ничего нет, или сложность того, что есть, бесконечна. И наконец в любом случае не допуская однозначных ответов, по мере познания природа будет выглядеть всё сложнее и сложнее. В итоге вопросы обо всём — о том, каков мир «на самом деле», в том числе сложный он или простой — не имеют смысла.

Одновременно с ростом сложности, чем точнее знание описывает реальность, тем больше требуется энергии на получение знания. К примеру, если на некотором начальном уровне познания достаточно наблюдения и размышления, то дальше необходимы уже всё более технологически затратные способы уточнения измерений, наблюдения непосредственно не наблюдаемых процессов, моделирования или экспериментального воссоздания явлений реальности. И в конечном итоге познание станет принципиально невозможным, так как всей доступной энергии для этого будет уже недостаточно.

Из этого соотношения также понятно, что сложность знания можно выразить через время познания. Например, сложности с привлечением энергии будут отражаться в росте времени её привлечения. Точно так же увеличит время познания необычность явления и сложность математического аппарата теории. Поэтому можно сказать, что для познания одних явлений энергии потребуется больше, чем её есть, что равносильно бесконечному времени познания, для познания других явлений времени потребуется больше, чем его есть, что равносильно затратам бесконечной энергии.

Более частные границы познанию задают физиологические и интеллектуальные особенности человека, которые определяют параметры его взаимодействия с окружающим. Например, диапазон пригодных для жизни условий, объём рецепторных данных и разнообразие рецепторов, сложность структуры мозга или скорость процессов мышления, тем самым ограничивая максимальную сложность практически достижимых технологий. Поэтому ещё задолго до того как описание природы достигнет принципиально возможного уровня, познание начнёт сталкиваться со всё быстрее растущими сложностями различного практического характера, лишая фундаментальные исследования смысла.

Организм, мозг — это диссипативная система. Общий принцип организации мозга задаёт возможность познания, то есть возможность упорядочения работы мозга в контексте решения некоторой задачи, а конкретная организация определяет конкретное направление познания. Но организация одновременно задаёт не только возможность познавать, но и границы познания. Как границы частные, зависящие от особенностей организации конкретного мозга, так и принципиальные, зависящие от свойств диссипативных систем в целом, от принципа функционирования всякого интеллекта вообще.

Например, познавая окружающий мир, мы одновременно познаём и себя, как часть мира. Но познавая уровень реальности, где находимся мы сами — уровень сложности, неустойчивости и порядка, мы познаём себя «более непосредственно». Приведённая в главе «Мышление и полнота знания» аналогия «масло маслом» в этом случае подходит гораздо больше, чем к познанию явлений «простого» уровня. Поэтому понять явления сложного уровня можно гораздо более ограниченно — как говорилось раньше, все возможные трудности познания на этом уровне будут представать в «концентрированном» виде.

Иными словами, познавая себя, мы познаём все возможные знания, но всех возможных знаний, очевидно, много больше, чем тех, которые достижимы на практике за какое-либо конечное время. В результате понять себя можно только в той же степени ограниченно. Но познавая природу мы тоже познаём все возможные знания. Поэтому познание только себя и познание всей природы — это одно и то же, множество истинных формул всегда будет больше множества доказуемых формул.

Непознаваемость себя говорит о том, что в основании мышления должны лежать такие явления, которые бы принципиально не позволяли понять мышление сколько-нибудь точно. Принципиально нельзя понять только элементарный уровень материи. И действительно через неравновесные состояния и бифуркации адекватное описание мышления требует точности элементарного уровня материи. В свою очередь, через элементарный уровень материи сложность изучения мышления связана с познанием всей природы. И действительно, мир дан нам в ощущениях, поэтому бесконечная сложность природы должна концентрированно проявляться в сложности ощущений. Но так и есть — сознание нельзя описать никаким языком.

Более конкретно, в исследовании систем, к которым относится и всё живое, — сложных систем, открытых среде, термодинамически неравновесных и нелинейных, связанных с хаосом, бифуркациями и самоорганизацией — проблемы будут возникать по следующим направлениям.

Любое явление, процесс или объект, в том числе мозг, можно представить как динамическую систему. Если динамическая система находится в состоянии близком к равновесию, стремится к покою, то реакции системы близки к линейным — можно сказать, прямо пропорциональны силе и интенсивности воздействия. Поэтому пропорционально уточнению параметров системы так же всё точнее можно будет предсказать её поведение, получая возможность использовать явление как понятный инструмент для решения каких-либо практических задач.

Но если состояние неравновесия увеличивается, то есть внутренние напряжения в системе растут и, следовательно, чувствительность системы также возрастает, система будет реагировать на то, что раньше не замечала. В результате, чтобы сохранить точность предсказаний, описание системы необходимо будет уточнять дополнительно — и чем выше неравновесие, тем требование к точности описания будет расти стремительнее. И в точке бифуркации, когда система обладает абсолютной чувствительностью, чтобы сохранить адекватность предсказаний, точность описания тоже должна быть абсолютной, так как «столкнуть» систему к новому режиму работы сможет событие уже самого элементарного характера. Но такое описание не имеет смысла, а приближение к нему будет сталкиваться со всё большими сложностями.

Образно говоря, совершая постоянные неравновесные переходы, то есть постоянно достигая критического состояния и переходя через него, структура мозга «чувствует» сразу всю Вселенную, запутывается со всей реальностью, становясь частью всех её процессов на всех уровнях. Как следствие, в отличие от поведения равновесных систем, описание мышления невозможно ограничить некоторым уровнем материи без значительной потери в точности предсказаний.

По мере роста неравновесия требование к точности описания системы растёт, а возможность дать такое описание, наоборот, уменьшается. Но, важно заметить, уменьшается не только потому, что описывать систему требуется со всё большими подробностями, а ещё и потому, что в неравновесном состоянии система приобретает свойство целостности, её невозможно разобрать на детали, не потеряв информацию о ней.

В итоге чем выше неравновесие, тем большей точности описания система требует, но при этом она всё больше приобретает свойства чёрного ящика — о том, что происходит в системе можно только догадываться.

Дополнительно усложняет поведение системы пространственная сложность, наличие множества подсистем или пластичность системы во времени (динамическая эволюция). Всё это есть в мозге. Общая структура мозга — сеть нейронов. Вход сети связан с рецепторами внутренней и внешней среды, а выход с мышцами и железами, то есть суть мышления заключается в преобразовании сигналов рецепторов в активность мышц и желёз. Узлы этой сети — тела нейронов, а отростки нейронов образуют связи сети, определённым образом объединяющие как близкие, так и далёкие друг от друга нейроны между собой. Таким образом, пространственная сложность структуры мозга, включая спинной, — это сложность архитектуры связей сети нейронов (коннектома); подсистемы — это сами нейроны, каждый из которых тоже является открытой термодинамически неравновесной системой, как весь и мозг в целом, и непонятного в которых не намного меньше, чем в работе всего мозга; пластичность во времени — это рост и обучение нейронной сети, её способность изменяться в контексте условий среды и наследственных факторов и сохранять изменения.

Подведём итог главы. Мы уточнили причины, почему сложность познания мышления будет расти в той же степени, что и познание сразу всей природы, не позволяя понять мышление сколько-нибудь точно. Тем не менее, может быть, познание мышления всё-таки не равно его созданию? Например, создавая искусственный интеллект, не обязательно повторять естественное мышление в точности. В таком случае сами по себе сделанные выводы, вероятно, ещё не ограничивают сложность искусственного интеллекта?


5. Искусственный интеллект и эволюция

Действительно, несмотря на всю сложность мышления, природа создала его без каких-либо ориентиров или образцов для подражания, а с помощью только естественного отбора. Используя изменчивость и наследственность, когда животное, отличающееся от других в результате некоторой случайной мутации, либо погибало, будучи слишком неподходящим для данных условий, либо выживало, давая потомство. Возникали новые виды — и так постепенно жизнь осваивала Землю, всё больше заполняя её во всех нишах и на всех масштабах, сейчас уже выбираясь в космос и на другие планеты. Почему бы не создать искусственный интеллект, повторив и ускорив этот процесс?

Если природа создала интеллект «наугад», используя только естественный отбор, то можно попробовать по тому же принципу естественного отбора пытаться угадывать варианты ИИ, в том числе основываясь на том, что уже известно об интеллекте естественном, проверять их, оставляя лучшие и отсеивая негодные, подмечая закономерности и учитывая их в создании новых систем. Иначе говоря, по примеру природы попытаться изобрести интеллект заново, и при этом обойтись без точного понимания интеллекта естественного, раз уж это в любом случае невозможно.

Как понятно из предыдущих глав, сравнение изобретения искусственного интеллекта с появлением интеллекта в ходе биологической эволюции сделано не случайно. Процесс познания, обучение — это процесс самоорганизации, усложнения нейронной сети мозга. Однако и биологическая эволюция, естественный отбор — это тоже процесс самоорганизации, усложнения — только биосферы. Нейронная сеть мозга возникает и усложняется применительно к условиям в целом в ходе биологической эволюции, а в процессе познания происходит усложнение нейронной сети мозга конкретного субъекта применительно к конкретным условиям его жизни. Таким образом, познание, то есть, по сути, эволюция нейронной сети мозга, происходит в контексте выразительных возможностей биологической эволюции.

Подобно биологической эволюции, в процессе познания также происходит «естественный отбор» — только последовательностей поведенческих действий. Способствующих повышению качества жизни, более полному и точному решению задачи самосохранения и размножения, в чём в целом заключается суть любого знания. Возникая интуитивно, более или менее неожиданно, какие-то идеи сразу отвергаются, какие-то уточняются, развиваются и дают начало новым идеям. И так постепенно знание всё более точно и полно описывает природу, подобно тому как эволюция наполняет её разными организмами.

При этом неудачные варианты поведения со временем становятся всё более очевидными и потому все сколько-нибудь похожие на них идеи отсеиваются быстрее, им уделяется всё меньше внимания. В результате даже без полного перебора всех возможных вариантов, которых может быть бесконечно много, в хаосе гипотез постепенно упорядочивается некоторое определённое направление познания — не обязательно «истинно верное», но по крайней мере подтверждённое положительным опытом. В основании выработанного направления, таким образом, будут лежать наиболее проверенные знания — и уже в этом контексте будут возникать новые гипотезы. Этот принцип касается как познания отдельного индивида, так и хода прогресса или биологической эволюции в целом. Например, опыт субъекта формируется в определённом контексте врождённых задатков и условий среды, в том числе среды культурной, в результате появление одних идей становится более вероятно, чем других. Аналогично в ходе эволюции становятся маловероятными некоторые мутации, биосфера упорядочивается таким образом, что некоторые новые животные будут в ней нежизнеспособными — хотя, может быть, они успешно выжили бы в прошлом или будущем. В то же время «маловероятно» — не означает никогда, поэтому какой-либо тупик, например в познании, создав новые условия, в конечном итоге будет разрешён возвращением к тому, что когда-то показалось ошибочным.

По мере развития речи и письма появляется возможность накапливать и усложнять знания из поколения в поколение. Поэтому уже можно говорить о начале цивилизации, то есть эволюции людей уже не только как вида, но и о начале социальной эволюции, возникновении культуры, социума. Познание становится не только функцией отдельного субъекта, но и всего человечества, что, разумеется, расширяет возможности познавать. В результате если следствием биологической эволюции является расширение видового разнообразия и усложнение животных, то следствием идущей в её контексте социальной эволюции является рост разнообразия и сложности знаний, алгоритмов, подразумевая под этим прогресс во всех областях деятельности человека от технологического уровня до социального или культурного.

Таким образом, эволюционные процессы не просто взаимосвязаны, но и вложены друг в друга: познание субъекта происходит в контексте эволюции социума, который эволюционирует в ещё более общем контексте биологической эволюции, и всё это в общем контексте неживой природы.

Однако если и познание, и биологическая эволюция по своему общему принципу — это один и тот же процесс естественного отбора, то создание искусственного интеллекта — это повторение биологической эволюции, только в объёме возможностей интеллекта человека и возможностей социума объединять усилия людей. И с тем важным отличием, что природа проводит отбор вариантов интеллекта всегда «экспериментально» — непосредственно создавая варианты организмов, тогда как человек может делать это ещё и мысленно, в ходе мысленных экспериментов, прибегая к эксперименту реальному только с целью проверки уже предварительно отобранных в ходе мыслительного процесса гипотез.

Естественно, предварительный отбор нежизнеспособных идей в уме требует мало времени и энергии, так как в отличие от эксперимента сам по себе не является повторением изучаемых явлений. Почему некоторого уровня знаний, исходящего из легко доступных для наблюдения и анализа явлений, можно достичь относительно быстро и с минимальными затратами. И наоборот, так как возможности человека наблюдать и анализировать ограничены, то чем сложнее знание, тем значение эксперимента становится выше.

Как показано в предыдущих главах, сложность изучения естественного интеллекта стремительно растёт, не позволяя понять его сколько-нибудь точно. В результате непонятно что и как следует перенести в интеллект искусственный, тем самым фактически заставляя изобретать интеллект заново, на основании того немного, что удалось понять в работе мозга. Однако если понимание мышления принципиально ограничено некоторым общим уровнем от его настоящей сложности, то по мере приближения сложности искусственных систем к этому уровню, их работа точно так же должна становиться всё менее понятной, следовательно конкретные варианты систем придётся создавать всё больше наугад, а не рассчитывать точно под задачу.

Именно так и создаются искусственные нейронные сети, конкретные параметры которых выбираются наугад, исходя из общих соображений о принципе работы нейронных сетей и прошлого опыта решения сетями похожих задач. После чего сеть обучается, и обучение точно так же не может быть формализовано полностью. Если работа системы непонятна, то есть её работу нельзя проследить мысленно, то и создать систему можно только более или менее наугад, и для того, чтобы точнее «подогнать» под задачу в процессе обучения тоже приходится действовать более или менее на ощупь.

Причём наличие некоторого объёма непонятного в работе искусственного интеллекта очевидно и с другой стороны. Если речь идёт об «интеллекте», то система и должна уметь «мыслить», то есть решать задачи более или менее «самостоятельно», а не выдавать решения по заранее в точности просчитанному человеком алгоритму — иначе, получается, мыслить будет человек. И потому чем выше интеллект системы, тем больше в её поведении будет доля «не заданного заранее», «самостоятельности», а значит, в той же степени будет возрастать и доля не просчитанного, непредсказуемого.

В итоге по мере приближения к сложности мышления понятного в работе искусственных систем будет становиться всё меньше. Поэтому проверять выбор на практике придётся всё чаще, так как количество возможных вариантов систем будет стремительно расти, а возможность их мысленного анализа, ввиду роста сложности, будет, наоборот, всё быстрее уменьшаться. Иными словами, по мере усложнения ИИ возникает ситуация, которая называется проклятием размерности. Суть проклятия размерности — экспоненциальный, «взрывной» рост необходимых экспериментальных данных в комбинаторных задачах. Полностью аналогично тому, как растёт значение эксперимента в процессе изучения природы или работы мозга, в разработке искусственного интеллекта тоже будет расти относительная доля экспериментов. В результате создание систем искусственного интеллекта будет всё больше становиться повторением эволюции. Вместо быстрого «естественного отбора» вариантов искусственного интеллекта в уме придётся, как и природе, всё больше проводить отбор с помощью экспериментов, создавая варианты искусственного интеллекта, обучая их и проверяя в работе непосредственно.

Однако отличие в том, что в этой «экспериментальной дисциплине» невозможно не только обогнать биологическую эволюцию, но и хотя бы уложиться в тот же срок.

Природа проверяет сразу множество «вариантов мышления» — таковым можно считать любое животное, включая каждого человека, — для всех вариантов условий и решений задачи самосохранения и размножения, и её попытки никогда не прекращаются. Причём аналогично ходу эволюции невозможно каким-то образом «перепрыгнуть» через этапы более или менее постепенного усложнения к сразу сложным системам, так как создание искусственного интеллекта точно так же обусловлено сложностью среды. В данном случае это «среда» опыта людей, их знаний, в том числе уровень технологий, то есть та среда, в которой происходит «эволюция» искусственного интеллекта.

Например, ещё пару сотен лет назад вряд ли можно было не только угадать многие привычные сейчас устройства или научные теории, но и совместить их с прошлыми знаниями, технологиями, задачами и вообще с прошлыми представлениями о мире. Поэтому даже если бы разумная по нынешним меркам гипотеза пришла в голову, она была бы отброшена, как бессмысленная. Точно так же нельзя «опередить время» и в создании систем искусственного интеллекта — без соответствующего уровня теоретических знаний и технологий нельзя ни построить систему, ни понять, в каких задачах её можно применить, ни адекватно обучить, ни даже предположить её устройство.

Независимо от конкретной реализации, любой искусственный интеллект является некоторым частным элементом эволюции социума, то есть некоторым частным проявлением способности человека к познанию и способности людей к объединению усилий. В свою очередь, и отдельный человек, и весь социум являются некоторыми частными элементами биологической эволюции, частным проявлением её способности создавать животных с разным интеллектом. Поэтому интеллектуальных возможностей человека и возможностей социума привлекать для познания время и энергию в принципе не может быть достаточно, чтобы воспроизвести биологическую эволюцию и реализовать какую-либо систему, способную достичь сложности интеллекта человека, стать сколько-нибудь полноценным участником социума или тем более создать свой мир «рядом», «вместо» или «над» человеческим.

На практике сложность создания может выражаться в энергетической, экономической, технологической или интеллектуальной затратности экспериментов, но в целом сложность можно выразить через совокупное время решения проблемы. Однако мышление — это процесс, не имеющий конкретного итога, относительно достижения которого можно было бы оценить процесс объективно. Например, ошибочный вывод о неадекватности человека может быть сделан из-за незнания действительных причин его поведения. Иначе говоря, незнание стратегии не позволяет верно оценить тактику, следовательно наиболее объективная оценка поведения субъекта может быть дана только по совокупности всех его поступков, то есть после наблюдения жизни субъекта в целом, причём оценка может меняться в историческом контексте. Поэтому по мере приближения к сложности интеллекта человека оценка искусственных систем станет так же требовать всё больше времени. Количества возможных вариантов ИИ будет стремительно расти, их будет всё сложнее разрабатывать, обучать, отделять адекватные варианты систем от неадекватных.

И по мере приближения к сложности интеллекта человека время, требующееся на каждое новое усложнение искусственных систем, начнёт увеличиваться всё быстрее. Поэтому даже если представить, что за счёт мысленного анализа на каком-то начальном этапе человек смог обогнать эволюцию нервной системы, то скоро преимущество сменится отставанием и отставание начнёт стремительно расти. Возможности мысленного анализа ограничены, а возможности экспериментировать у природы несравнимо богаче, поэтому ни «догнать», ни «обогнать» природу невозможно.

Тем не менее на приведённые аргументы, кажется, есть возражение. Как говорилось, человек много проще биологической эволюции, поэтому воссоздать эволюцию в своей деятельности он способен лишь в той же малой степени. Однако социум сложнее человека, так как состоит из множества людей. Следовательно социум, как более сложное целое, должно быть, всё-таки способен создать искусственный интеллект, вероятно, даже сложнее интеллекта человека, как своего более простого элемента. Возможно ли это на самом деле, рассмотрим в главе «Пределы сложности искусственных систем», а пока обратим внимание на ещё один способ приблизить искусственные системы к сложности интеллекта человека — теперь фантастический.


6. Фантастический компьютер

Итак, познание мышления ограничено, понять мышление можно только в некоторых общих и простых элементах, относительно его реальной сложности. Тем же уровнем, следовательно, будет ограничена и сложность искусственного интеллекта, так как устройство систем большей сложности тоже не может быть понятным. Похожие затруднения будут возникать и в попытках создать интеллект «наугад», исходя из того, что в мышлении понять всё-таки удалось, так как по мере приближения искусственного интеллекта к сложности интеллекта человека совокупное время отбора адекватных вариантов систем будет стремительно расти к бесконечности.

Но если представить компьютер фантастически большой вычислительной мощности, способный просчитывать варианты искусственного интеллекта бесконечно быстро, сможет ли он качественно изменить ситуацию?




6.1. Детерминированные алгоритмы

Нервная система организует работу мышц и посредством желёз координирует с работой мышц работу остального организма. Таким образом, задача мышления — преобразование сигналов рецепторов в активность мышц и желёз, то есть распознавание условий и построение действий. Но пытаясь воспроизвести процесс мышления, мы сталкиваемся или с принципиальными сложностями в изучении мозга, чтобы сделать искусственную систему по его подобию, или со стремительным ростом времени практической реализации каждого нового усложнения — в попытке повторить эволюцию и изобрести интеллект самостоятельно.

Однако можно попробовать обойтись без исследований мозга и вообще попыток повторения мышления. Поведение можно задать и тем способом, что сразу написать алгоритм действий системы во всех будущих условиях, которые только могут системе встретиться. Такой алгоритм будет «детерминированным», так как все действия системы в нём уже в точности предусмотрены человеком заранее.

Детерминированный алгоритм — это привычный алгоритм, ведущий от данных к результату за определённое количество шагов. К примеру, таким алгоритмом является инструкция, предписывающая порядок действий в некоторой ситуации, или компьютерная программа. Поэтому можно сказать, что система, работающая по детерминированному алгоритму, «не мыслит», а только исполняет, так как за неё все решения уже приняты написавшим этот алгоритм человеком.

Чем сложнее алгоритм такой системы, тем, по сути, больше «знаний» он в себе содержит. В то же время так как алгоритм написан человеком, то знания системы — это знания человека, следовательно знания системы не могут быть сложнее знаний человека. Таким образом, уже понятно, что поведение системы, действующей по детерминированному алгоритму, не сможет быть сложнее мышления человека. Иначе говоря, компьютер не сделает чего-либо «сам» — например, если реальный мяч покатится «сам», достаточно только по нему ударить, то моделируемый компьютером мяч «покатится», только если этот процесс будет полностью отображён в программе. Можно возразить, что если прописать в программе все необходимые свойства мяча, то в дальнейшем компьютер сам будет вычислять его перемещение во всех условиях. Однако и свойства мяча, и условия прежде должны быть поняты человеком. В результате программу необходимо писать со всеми подробностями требуемого от системы поведения, а её сложность поэтому будет прямо зависеть от известного об этом поведении человеку.

Тем не менее даже опыт человека не может быть перенесён в программу полностью. Задать в программе можно только конкретные действия, дать точные инструкции, однако, как показано в предыдущих главах, формальное знание исходит из не формального смысла, точное знание из неточного, очевидное из не очевидного. Поэтому и написать алгоритм получится только в отношении той малой части опыта, которую можно формализовать, то есть только некоторые конкретные «итоги мышления», а не «само мышление», которое непонятно.

И даже случайный выбор из нескольких вариантов, который можно задать, включив в программу генератор случайных чисел, ничего не изменит, так как варианты всё равно должны быть известны заранее. Ведь программа не может их «придумать», она только механически реализует то, что задано человеком. Причём любое отклонение от программы, как и в обычном механизме, будет означать только сбой в её работе. И наконец если варианты известны заранее, то проще сразу задать лучший вариант.

В результате максимально достижимая сложность поведения системы, работающей по детерминированному алгоритму, всегда будет много проще мышления человека, который умеет не только действовать по раз и навсегда заданному алгоритму, а ещё и непонятным для самого себя образом вырабатывать новые алгоритмы, приобретать новые знания. Поэтому как возникают сами знания — как в мозге происходит распознавание условий, формирование целей и построение движений — всё это для детерминированного алгоритма будет в той или иной степени недоступно, так как непонятно и самому человеку.

Коротко вспомним особенности мышления, не позволяющие понять его сколько-нибудь точно. С точки зрения физики самая общая суть процесса мышления заключается в том, что мозг, будучи диссипативной системой, постоянно восстанавливает порядок, нарушаемый воздействиями среды. Что отражается в работе мышц и желёз, с которыми мозг непосредственно связан, или в наших переживаниях, мыслях, которые всегда разные, но всегда упорядоченные, в целом направлены на самосохранение и размножение и по мере обучения становятся сложнее. При этом наблюдение диссипативных систем принципиально ограничено некоторым «внешним» уровнем происходящего в системе, в то время как поведение системы связано со всеми уровнями её материи. В результате формализация мышления не имеет смысла, предсказать поведение субъекта точнее общего направления или коротких промежутков времени становится невозможным, сложность даже небольшого уточнения начинает быстро стремиться к бесконечности. При этом сложное поведение в природе реализовано только диссипативными системами (в общем смысле хаотическими), включая биосферу, животных, человека или социум. Поэтому, получается, что по мере усложнения диссипативных систем в природной реализации сложного поведения понятного становится всё меньше, а никаких других образцов для исследования и копирования сложного поведения не существует.

В итоге, таким образом, мы пришли к и так достаточно очевидному выводу: если само мышление, как источник всех алгоритмов, можно понять только на относительно общем и простом уровне, то и детерминированный алгоритм сложнее этого уровня написать тоже невозможно. Чем сложнее становится создаваемой человеком алгоритм, тем больше его сложность приближается к сложности мышления человека — и возникают все описанные в главах ранее проблемы.

Но у нас есть фантастически быстрый компьютер. Тогда, если нет вычислительных ограничений, вероятно, можно просто перебрать все возможные варианты поведения во всех возможных условиях и выбрать оптимальные?

Верный вариант поведения можно найти или творчески — угадав его, или перебрав и проверив все возможные варианты. Однако угаданный вариант тоже нуждается в проверке, то есть проверять альтернативные ему варианты всё равно имеет смысл — нет иного способа установить верность решения, кроме как в сравнении его с альтернативными решениями. Проверка не обязательно должна быть явной, так как многие варианты поведения «очевидны», то есть альтернативы им так или иначе отсеяны ранее, в том числе предками человека, которые участвуют в наших нынешних решениях через врождённый опыт или окружающую человека культурную среду. Тем не менее всё знать невозможно, поэтому чем сложнее условия и дальше стратегии, тем больше становится и вариантов поведения, которые уже не очевидны и требуют проверки. В конечном итоге таких вариантов оказывается настолько много, что перебор всех становится невозможен, так как это потребует уже слишком много времени. Иначе говоря, происходит комбинаторный взрыв — резкий, «взрывной» рост временной сложности решения задачи перебором при увеличении размера входных данных.

Но в нашем случае само по себе стремительно растущее количество вариантов, как кажется, не является проблемой, так как речь в главе идёт о компьютере с фантастической скоростью вычислений и просчитать любое количество вариантов развития событий для него труда не составит. Однако на самом деле комбинаторный взрыв возникает только в идеальных условиях, например, в математических задачах, где известны все элементы перебора. В реальности же проблемы связаны ещё и с незнанием условий, так как даже малые неточности в описании элементов условий, помноженные на их количество, быстро вырастают в полную неопределённость сколько-нибудь далёких предсказаний. В результате задать системе в любом случае можно только относительно простое поведение, в котором нюансы условий не играют особой роли.

Иными словами, компьютер может делать расчёты, только исходя из того, что известно об условиях человеку. Поэтому, как и в примере с мячом, чтобы фантастический компьютер что-то рассчитал, вначале сам человек должен точно понять что и как надо считать и вложить эти знания в программу компьютера. Следовательно какие бы расчёты и с какой бы скоростью ни производил компьютер, они всё равно не смогут выйти за пределы конкретных знаний человека, за пределы того, что человеку хорошо понятно, что он смог формализовать и вложить в программу.

Больше того, чтобы перебор был возможен, нужно знать не только элементы перебора, но и критерий остановки перебора, то есть критерий решения задачи. Однако чем меньше понятны условия, тем сложнее конкретизировать задачи, которые в них можно решить, и наоборот, чем точнее поставлен вопрос, тем больше он становится ответом. Поэтому, например, в бессмысленном пределе теория всего будет равносильна решению абсолютно всех задач. И так как достичь теории всего, то есть понять все условия и конкретизировать все задачи, в принципе невозможно, то на практике взаимосвязь условий и задач означает, что конкретизировать можно только те задачи, которые соответствуют хорошо понятному в условиях.

Таким образом, сама по себе высокая скорость вычислений не позволит детерминированным алгоритмам не только сравняться со сложностью мышления человека, но даже стать сложнее его наиболее формализованной части опыта. За пределами которого неопределёнными становятся не только условия и, как следствие, способы решения задач, но и сами задачи. Например, это означает, что никакие суперкомпьютеры, включая перспективные квантовые (о которых подробнее скажем ниже), по сложности с мозгом человека попросту несопоставимы — они много его проще, хотя и могут на порядки быстрее самого человека выполнять вычисления по написанному им алгоритму.

Подведём итог. Работа системы должна соответствовать задачам, которые она решает. Поэтому работа системы, которая может решать задачи, самому человеку ещё не понятные, тоже не может быть ему понятной. Но если работа система непонятна, то и задать её детерминированным алгоритмом невозможно. Детерминированные алгоритмы для сложного поведения не подходят.


6.2. Недетерминированные алгоритмы

Итак, детерминированный алгоритм полностью связан с формальной частью опыта, поэтому такой алгоритм «не мыслит» — не порождает ничего заранее человеком не заданного, не действует «самостоятельно», назначение детерминированного алгоритма всего лишь описать конкретный путь к конкретному результату.

Следовательно если алгоритм не будет полностью связан с формальной частью опыта, то, получается, это будет алгоритм, наоборот, способный «мыслить», принимать решения «самостоятельно», так как решения такого алгоритма не просчитаны человеком заранее. Причём как связанный не только с формальным и понятным, это, видимо, будет уже «недетерминированный» алгоритм, не заданный человеком в точности, потому что ни точный смысл вычислений системы, функционирующей по такому алгоритму, ни решаемые этой системой задачи тоже не будут полностью понятными.

Несмотря на то, что сочетание «недетерминированный алгоритм» выглядит оксюмороном, такой тип алгоритмов существует. Недетерминированный алгоритм — это действительно не точная инструкция, однозначно определяющая путь от данных к результату, а способ решения, подразумевающий случайный выбор, интуицию. Как связанный со случаем, то есть чем-то неформальным, неточным и непонятным, этот алгоритм, очевидно, выходит за рамки формального опыта человека, а значит, вероятно, сможет сложность формального опыта превзойти. Действительно ли это так? И если такой алгоритм будет «мыслящим», то не сможет ли он мыслить и лучше человека?

С другой стороны, искусственные системы тем и хороши, что они делают только то, что задано человеком, но если весь ход «мышления» искусственной системы не просчитан человеком заранее, то как тогда направлять и контролировать поведение таких систем? Естественный интеллект у человека уже есть — это сам человек, и создавать подобных себе человек уже «умеет», поэтому нужен интеллект искусственный, который будет не менее сильным, но «мыслить» тогда и в том направлении, как это требуется человеку.

Прежде ответа на эти вопросы, рассмотрим формальное различие детерминированных и недетерминированных алгоритмов. Это различие можно объяснить на примере задачи коммивояжера и машины Тьюринга. Так как речь пойдёт о задачах и алгоритмах, заметим, что когда говорят о сложности задачи, понимают сложность наилучшего алгоритма для решения этой задачи.

Задача коммивояжера заключается в поиске самого короткого маршрута через заданные города с последующим возвратом в исходный город. Она относится к одним из самых сложных, например, является трансвычислительной. Это значит, что при числе городов 66 и более, вследствие комбинаторного взрыва, объём информации, который потребуется обработать для её решения, будет превышать предел Бремерманна. Предел Бремерманна равен 1093 бит, задача превышающая этот предел не может быть решена методом перебора вариантов гипотетическим компьютером размером с Землю, работающим с максимально возможной скоростью, за период времени, равный общему времени существования Земли. В то же время алгоритм, который сможет дать точный ответ без перебора, для задачи коммивояжера неизвестен. Сложность этой задачи иллюстрируют также такие примеры: если для 15 городов существует 43 миллиарда маршрутов, то для 18 их будет уже 177 триллионов; если находить решение для 30 городов за час, то добавление ещё двух увеличит время решения в тысячу раз, то есть потребует уже 40 суток.

В свою очередь, машина Тьюринга (МТ) символизирует исполнителя алгоритма — человека, следующего инструкции, или вычислительную систему, перерабатывающую данные в результат. Другими словами, МТ — это абстрактный исполнитель алгоритма, абстрактная вычислительная система, формализация понятия алгоритм. Например, детерминированная МТ — это абстрактный исполнитель обычного — детерминированного — алгоритма, ведущего от данных к результату единственным путём.

Если этот алгоритм «быстрый», то есть время вычисления не сильно (полиномиально) зависит от размера входных данных, то задачи, решаемые этим алгоритмом, относятся к классу сложности P (полиномиальной сложности). Однако, например, в задаче коммивояжера добавление городов приводит к резкому — экспоненциальному — росту количества возможных маршрутов, и так как точное решение этой задачи требует их полного перебора, то экспоненциально растёт и время её решения. В результате даже при небольшом количестве городов много быстрее будет обойти их хоть как-то, чем искать самый короткий маршрут. Задача коммивояжера поэтому относится уже к классу NP (недетерминированной полиномиальной сложности). В класс NP попадают задачи, для решения которых необходим полный перебор всех вариантов и при этом нет эффективного детерминированного алгоритма просеивания этих вариантов в поисках оптимального ответа.

Возможен ли вообще быстрый детерминированный алгоритм решения задачи коммивояжера? Проще говоря, можно ли в общем случае избежать перебора всех вариантов? Интуитивно кажется, что нельзя, такие задачи, как задача коммивояжера, по-другому точно решить невозможно, потому что в незнакомых условиях нужно проверить все варианты, прежде чем выбрать лучший. Тем не менее если бы это оказалось возможным, то есть если бы классы P и NP оказались равны, то многие задачи можно было бы решать значительно быстрее, чем сейчас, к примеру, самое очевидное, взламывать шифры, формировать логистику, производить поиск информации.

Проблема равенства классов P и NP включена в одну из семи задач тысячелетия, за решение которой Математический институт Клэя назначил премию в миллион долларов США. Доказательством равенства этих классов было бы точное решение любой задачи из класса NP за полиномиальное время, без полного перебора. Тем не менее, как считает большинство учёных, эти классы не равны, перебора не избежать. Однако и строго доказать неравенство классов, по-видимому, тоже невозможно, так как эта гипотеза, вероятно, является слишком общей и потому невыводимой из каких-либо других конкретных положений. Иначе говоря, в этом случае наблюдаемое различие в сложности классов можно только принять в качестве аксиомы, а не вывести из других.

Тем не менее некоторый способ быстрого решения сложных задач есть — это упомянутые недетерминированные алгоритмы и недетерминированная машина Тьюринга. Формально решение заключается в следующем. Если детерминированная МТ для решения задачи коммивояжера следует единственным путём от данных к результату, и потому она должна последовательно пройти всеми возможными маршрутами, чтобы выявить самый короткий, то недетерминированная МТ в подобных затруднениях просто размножается на нужное количество копий и следует сразу всеми маршрутами, после чего остаётся только та копия, которая прошла самым коротким. Таким образом, решение задачи происходит за полиномиальное время, то есть, по сути, качественно быстрее, чем на это способна детерминированная МТ.

Однако, как в реальном алгоритме воплотить недетерминированную машину Тьюринга, неизвестно. Тем не менее элементами её способностей обладают квантовые алгоритмы. Например, предполагается, что совершенный квантовый компьютер сможет решать задачу коммивояжера для сотен и тысяч пунктов за вполне разумное время: от нескольких секунд до нескольких часов. Рассмотрим, в чём отличие квантовых алгоритмов от обычных детерминированных.

Обычный компьютер оперирует битами, которые могут принимать значение либо 0, либо 1. Квантовый компьютер оперирует кубитами, имеющими значения одновременно и 0, и 1, то есть значения 0 и 1 с разной вероятностью — «в какой-то степени 0» и в «какой-то степени 1». Такое состояние является чисто квантовым, оно не наблюдается непосредственно, потому что при взаимодействии со средой разрушается (возникает или 0, или 1) и называется состоянием суперпозиции. Состояние суперпозиции отличает квантовый компьютер от вероятностного. Популярный пример состояния суперпозиции — состояние одновременно «кот жив» и «кот мёртв» в известном мысленном эксперименте Шрёдингера. Тем не менее, несмотря на парадоксальность, нахождение системы в таком состоянии означает, что система из кубитов может вместить в себя экспоненциально больше информации, чем система из битов. Причём, вследствие квантовой запутанности, сколько бы ни было кубитов, их состояние может меняться одновременно, в отличие от последовательных вычислений обычного компьютера. Что обеспечивает беспрецедентный параллелизм вычислений, а скорость в теории может в экспоненциальное число раз превосходить классические вычисления.

Параллелизм в данном случае означает, что если обычный алгоритм должен последовательно проверить каждый вариант из возможных, то квантовый алгоритм может находиться в суперпозиции всех возможных вариантов, то есть в каждом из возможных вариантов с некоторой вероятностью. Поэтому манипуляции проводятся сразу со всеми вариантами, а естественной особенностью квантовых вычислений является то, что квантовая система даёт результат, который является правильным только с некоторой вероятностью. Причина в том, что для получения ответа, нужно провести измерение, которое состояние суперпозиции разрушает, и с некоторой вероятностью возникает один конкретный вариант ответа, который верен тоже только с некоторой вероятностью. Однако за счёт увеличения операций в алгоритме можно сколь угодно приблизить вероятность получения правильного результата к единице.











Примерное положение BQP на карте классов P и NP.

Но перспективы квантовых вычислений не очевидны. На данное время квантовые алгоритмы скорее больше интересны, чем полезны. Основной проблемой является неконтролируемое разрушение состояния суперпозиции по причине случайного взаимодействия кубитов со средой. Чем сложнее система и сложнее задача, тем больше эта проблема становится важной. Например, задачу коммивояжера квантовый алгоритм пока может решать только в теории. Второй проблемой является то, что вследствие своих особенностей квантовые алгоритмы дают преимущество только в некоторых задачах. Поэтому считается, что класс сложности задач, которые могут быть решены квантовым компьютером — класс BQP — является строгим надмножеством класса P (см. рис. выше). Это значит, что есть задачи, которые эффективно решаются квантовыми компьютерами и не решаются с помощью детерминированных классических компьютеров. Но в то же время считается, что класс BQP меньше, чем NP, то есть BQP не равен NP (точное отношение классов BQP, P и NP неизвестно). Таким образом, квантовые компьютеры могут решать некоторые задачи значительно быстрее обычных, но эквивалентными недетерминированной машине Тьюринга они всё же не являются.

На полях заметим, что после NP есть и более высокие классы сложности, например, PSPACE, EXPSPACE и другие, каждый последующий класс включает в себя предыдущие. Во всех классах используется понятие детерминированной и недетерминированной машины Тьюринга, но сложность задач оценивается не по времени решения (как в P и NP), а по требованию к объёму памяти — так называемая пространственная сложность (space complexity).

Таким образом, как в реальном алгоритме воплотить недетерминированную машину Тьюринга, неизвестно, поэтому может возникнуть ситуация, когда быстрый детерминированный алгоритм решения неизвестен, известный требует полного перебора и потому непригоден, способный на большее квантовый алгоритм не разработан, и в довершение всего какие-либо пути к решению могут быть попросту неясны, потому даже в гипотетической перспективе квантовый компьютер не поможет.

Тогда для «быстрого» решения сложных задач остаётся только один способ — это угадать путь к решению, например, пользуясь некоторыми общими соображениями о целесообразности того или иного выбора. Иными словами, на практике недетерминированный алгоритм как будто оставляет за скобками все неверные пути и пытается указать сразу верный путь. Поэтому на практике недетерминированный алгоритм связан с интуицией, случайным выбором, повторами, пробами и ошибками, подразумевает наличие более одного пути к решению, так как оптимальный путь всё равно неизвестен. Как следствие, недетерминированный алгоритм не гарантирует оптимальный результат и не имеет точного математического обоснования, из-за чего иногда выбор оказывается более успешным, иногда менее, если ответ далек от оптимального.

В качестве примера простого недетерминированного алгоритма можно привести алгоритм покупок по списку. Если предписано покупать товары строго в том порядке, как они указаны в списке, то это детерминированный алгоритм, если порядок покупок никак не задан и можно покупать товары в любом порядке, то это недетерминированный алгоритм.

В указанном примере можно заметить и другие особенности недетерминированных алгоритмов. Например, так как порядок покупок никак не задан, то любой порядок, то есть все пути к решению, будут одинаково «верными». В то же время не все пути могут быть одинаково «полезными» — например, один порядок покупок может отнять больше времени, чем другой, так как путь обхода отделов магазина будет длиннее.

Подразумевая угадывание пути к решению, недетерминированный алгоритм, следовательно, подразумевает такие составляющие, как интуиция, творчество, эвристика — как некоторый неформальный способ сделать оптимальный выбор, поэтому к недетерминированным алгоритмам относятся также и эвристические алгоритмы.

Простой пример эвристического алгоритма — это относящийся к методам Монте-Карло способ определения числа Пи, который был предложен французским учёным и писателем Бюффоном в 1777 году. Суть способа заключается в бросании иглы на плоскость, расчерченную параллельными прямыми. Подсчитав долю игл, пересекающих прямые, можно приближенно определить число Пи. При увеличении количества попыток точность результата будет увеличиваться. Различные эвристические алгоритмы также есть и для решения задачи коммивояжера. Например, современные методы позволяют находить решения для чрезвычайно больших проблем (эквивалентных миллионам городов) в разумные сроки, которые с высокой вероятностью отклоняются от оптимального решения всего на 2–3%.

Как видно из примеров, решение недетерминированным алгоритмом происходит в два этапа. На первом имеется сам недетерминированный алгоритм, генерирующий возможное решение задачи — что-то вроде попытки угадать решение, следуя некоторой эвристике. На втором этапе полученный ответ проверяется обычным детерминированным алгоритмом. Каждый этап по отдельности не сложен, то есть требует полиномиального времени. В то же время на практике для получения оптимального решения число таких попыток может оказаться экспоненциальным, то есть чем точнее требуется ответ, тем быстрее будет расти количество попыток. Таким образом, на практике недетерминированные алгоритмы позволяют «быстро» решать сложные задачи, но оптимальность решений не гарантирована.

Надо заметить, вряд ли можно представить алгоритм покупок «мыслящим», однако обладая некоторой фантазией, пусть и в самом простейшем виде, атрибуты мышления можно заметить в способе Бюффона: разные результаты бросков постепенно всё больше компенсируют друг друга, тем самым как будто бы происходит «обучение» — сама собой формируется упорядоченная динамика, сходящаяся к «не бессмысленному» результату — всё более точному значению числа Пи. Поэтому чем сложнее недетерминированный алгоритм и сложнее будут становиться не бессмысленные результаты, тем реальнее будут казаться и «мыслительные» способности алгоритма.


6.3. Искусственная нейронная сеть

Как несложно догадаться, вспомнив предыдущие главы, к недетерминированным алгоритмам относятся и искусственные нейронные сети. Понятие нейронных сетей возникло при изучении процессов, протекающих в мозге, и при попытке смоделировать эти процессы. Искусственные нейронные сети — это математические модели, их программные или аппаратные воплощения, построенные по принципу организации и функционирования биологических нейронных сетей. Точкой отсчёта в создании искусственных нейронных сетей считается середина XX века, когда нейрофизиолог У. Маккалок и математик У. Питтс сделали первую попытку формализации работы нейронной сети в статье о логическом исчислении идей и нервной активности.

Искусственные нейронные сети кардинально отличаются от вычислительных систем традиционной архитектуры (архитектуры фон Неймана). В отличие от обычных компьютеров, где основной объем памяти хранится не в логических электронных схемах процессора, а отдельно, в специальных запоминающих устройствах, наоборот, сама структура сети несёт в себе одновременно и функцию хранилища памяти, и функцию переработки входящих сигналов в исходящие, так как реакцию сети формирует сама структура сети по мере прохождения сигналов от входа к её выходу.

В целом работа искусственной нейронной сети заключается в следующем. Входов у нейронной сети больше, чем выходов, поэтому поток сигналов от рецепторов, поступая в сеть, перемешивается и «сжимается» в активность выходных нейронов. В этом «сжатии» и «конкуренции всего со всем» в сигналах рецепторов сами собой выделяются некие зависимости — признаки условий, которые отражаются в активности выходных нейронов. Поэтому чем сложнее сеть, чем больше в ней нейронов, слоёв, чем сложнее организованы связи нейронов, тем более сложные признаки в условиях сеть сможет распознать.

В биологической нейронной сети, этот процесс связан с неравновесными состояниями. Вследствие интенсивного обмена биологической нейронной сети со средой, изначально хаотическая активность нейронов упорядочивается, в свою очередь, порядок постоянно флуктуирует, что проявляет себя как смена мыслей, эмоций, поведенческих реакций в целом. Динамику этих флуктуаций можно представить как скатывание шарика с вершины горки, где шарик находился в неустойчивом равновесии. Даже минимум знакомых признаков заставит биологическую нейронную сеть «скатиться» к наиболее близкому хранящемуся в её памяти опыту — сеть узнает знакомое. Старый порядок в активности нейронов разрушится и возникнет новый порядок — одну мысль сменит другая. Ещё точнее аналогия со шпагой: на шпагу, поставленную вертикально на остриё, сверху всё сильнее давят так, чтобы её лезвие не изгибалось, в какой-то момент давление станет столь высоким, что достаточно будет малейшего прикосновения, чтобы лезвие шпаги разлетелось на кусочки. Таким же скачком, как разрушение шпаги, перестраивается картина активности нейронов в мозге.

Но искусственные нейронные сети не являются открытыми термодинамически неравновесными системами и потому не способны к какой-либо реальной самоорганизации. Искусственные нейроны — это всего лишь обычные и несложные процессоры, их работа происходит в соответствии с некоторым алгоритмом. Продолжая аналогию со шпагой, если в мозге вследствие постоянного интенсивного притока энергии условная шпага вначале насыщается энергией, а потому скачком разрушается, естественным образом стремясь к равновесию и минимуму энергии, то в искусственной нейронной сети все этапы работы выполняются механически, в соответствии с некоторым алгоритмом и требуя затрат энергии. Тем не менее, пусть «механически» и  чрезвычайно упрощённо, ИНС моделируют «нейросетевой» уровень самоорганизации нейронов в мозге.

Теперь подробнее рассмотрим обстоятельства, которые делают искусственные нейронные сети недетерминированным алгоритмом и другие их особенности.

Искусственные нейронные сети используются в условиях, когда исследуемые данные непонятны, то есть быстрого и при этом понятного способа найти в них закономерности нет. Поэтому если какой-то быстрый способ найти в них закономерности вообще существует, то он может быть тоже только непонятным. Другими словами, решение должно исходить из некой иной логики, недоступной человеку с его «последовательным» ходом суждений, ведь в доступной логике решения нет.

И правда, у нейронной сети действительно своя — «нейросетевая» логика работы, которая заключается в множественных, разнонаправленных, прямых и обратных, взаимозависимых и одновременных процессах — см. рис. 1. В реальности такая динамика возможна только в диссипативных системах, которые являются функциональным континуумом прямых и обратных связей. В искусственных нейронных сетях эта логика преобразована в последовательности вычислительных операций — см. рис. 2.
 


Рис. 1. Схематичное изображение нейронной сети. Кружочками обозначены нейроны, стрелочками — их связи. В отличие от изображённой, реальная биологическая нейронная сеть во множестве содержит связи обратные (от нейронов ближе к выходу к нейронам ближе ко входу) и связи нелокальные (напрямую соединяющие отдалённые участки сети) и в целом имеет много более сложную неоднородную архитектуру, подразделённую на зоны и отделы, архитектура связей в которых отличается. В том числе выход в нейронной сети мозга в некотором смысле находится там же, где и вход, так как нервные волокна, передающие сигналы «вниз» к мышцам и железам, проходят через нижние отделы мозга и спинной мозг, где происходит первичная обработка сигналов рецепторов.


       Рис. 2. Математическая модель нейрона. Пунктиром обозначено тело (сома) нейрона.
      
    1. Нейроны, выходные сигналы которых поступают на вход данному, w — веса входных сигналов.
    2. Сумматор входных сигналов.
    3. Вычислитель передаточной функции (функции активации).
    4. Нейроны, на входы которых подаётся выходной сигнал данного

Вычисления происходят следующим образом: входящие в нейрон сигналы умножаются на коэффициент веса связи, по которой они поступили, получившиеся на всех связях значения суммируются, после чего в соответствии с функцией активации нейрона (которая может быть разной) вычисляется его выходной сигнал. И так с каждым нейроном в слое. Вычислив таким образом выходной сигнал каждого нейрона, переходят к следующему слою, для нейронов которого эти сигналы будут входящими. Как понятно, добавление в сеть обратных связей значительно усложнит алгоритм.

В результате по причине этих многочисленных операций конкретный ход вычислений нейронной сети непонятен. Точнее говоря, он слишком сложен для того, чтобы мысленно воспроизвести его сколько-нибудь точно, поэтому непонятно и как конкретно сеть приходит к тому или иному ответу.

Например, в случае детерминированного алгоритма мы как будто последовательно прокладываем путь — от данных к результату, то есть привычным для нас образом выделяем цепочки событий и формируем цепочки ответных действий. Поэтому весь ход вычислений всегда можно мысленно проследить — мысленно пройти этот путь. Но нейросетевые вычисления — это фактически описание внутренних изменений сложной структуры, где нет цепочек событий, а есть объём разнонаправленных и взаимозависимых событий. Но наш мозг в этом случае пасует, мы не можем мысленно объять все эти изменения, а раскладывая их на цепочки, теряется их смысл шагов применительно к конечному результату.

Как следствие, решениям сети можно только верить, не имея возможности точно понять их основания. Другими словами, оценить адекватность решений нейронной сети можно только «снаружи» — по самим решениям, а не мысленно охватив всё происходящее в ней, точно понимая смысл всех шагов и этапов переработки данных в решение, однозначно представляя роль всех элементов алгоритма в конечном выводе, как это происходит в случае детерминированных алгоритмов. Из-за чего, например, можно встретить определения, что нейронная сеть — это система «чёрный ящик».

В результате, ввиду непонимания конкретной логики работы искусственной нейронной сети, её конкретные решения заранее неизвестны, а её конкретные параметры поэтому можно задать только наугад, исходя из общих соображений о принципах работы нейронных сетей вообще и прошлого опыта решения сетями схожих задач. Что в итоге и делает алгоритм искусственной нейронной сети недерминированным.

Образно говоря, нейронная сеть как будто «живёт свой жизнью», её нельзя создать точно под конкретную задачу, логику её решений нельзя точно понять. Как следствие, по своей сути каждое применение нейронных сетей — это эксперимент, как и полагается эксперименту, с заранее неизвестным результатом. Поэтому можно сказать, что искусственные нейронные сети, в отличие от более простых недетерминированных алгоритмов, — это если и не полноценное мышление, то системы, «мыслительными» задатками уже явно обладающие. Нейронные сети способны порождать решение сложных задач «самостоятельно», ввиду того, что человек, создавая нейронную сеть, фактически задаёт только направление к решению, а не само решение.

Другим следствием непредсказуемости работы нейронной сети является обучение, что делает параллели с мышлением ещё более оправданными.

Очевидно, что чем сложнее задача, тем сложнее должна быть нейронная сеть, а значит, тем больше её возможных вариантов, оптимальность которых заранее установить нельзя. Упростить выбор помогает обучение, которое оптимизирует нейронную сеть со случайно выбранными параметрами под конкретную среду — конкретную задачу, то есть под те конкретные данные, в которых требуется выявить закономерности.

Общие принципы обучения ИНС упрощённо повторяют некоторые известные особенности биологических нейронных сетей. Прежде всего, для того чтобы обучение было возможным, в нейронной сети должны быть свободные параметры, в которых повторяющиеся в условиях особенности, по мере их повторения, будут формировать нейронную сеть «под себя». Часто повторяющиеся особенности условий будут вносить больший вклад в изменения этих параметров, а редкие, следовательно, меньший. Свободные параметры — это веса связей нейронов, которые, изменяясь, меняют прохождение сигналов внутри сети и в результате меняется активность нейронов на выходе сети. По аналогии с биологическими нейронными сетями, связи искусственных сетей могут быть «возбуждающими» и «тормозными», то есть умножающими исходный сигнал на некоторый положительный или отрицательный коэффициент веса связи. Поэтому некие важные признаки в условиях могут быть масштабированы, не важные нивелированы.

Итогом обучения является то, что сеть, к примеру, предназначенная для классификации изображений кошек и собак, будет на предъявленное изображение кошки отвечать одной определённой активностью нейронов на выходе, а собак другой. Причина этого в том, что в ходе обучения характерные признаки собак по мере их повторения на картинках всё больше меняли сеть под себя, а кошек под себя. Так как признаки разные, то изменения происходили больше в разных областях сети, тем самым опыт всё больше разделялся в пространстве сети, всё больше «концентрируясь» в своих областях. Как следствие, даже минимум признаков кошки или собаки на картинке, активизируя связи с большими весами, приведут к активности «своих» нейронов на выходе сети — сеть узнает кошку или собаку. Нейронная сеть выявила некие признаки кошек и собак и теперь может обобщить их на те изображения кошек и собак, которых в обучающей выборке не было. Добившись адекватной работы сети в требуемой области применения, веса связей фиксируются, а обучение новой задаче может стирать старый опыт.

Проводя аналогии, можно сказать, что структура искусственной нейронной сети задаёт её «врождённые потребности и способности», а наличие свободных параметров — это возможность уточнения «врождённого» сообразно конкретной среде. Причём если животному обучение необходимо, чтобы приспосабливаться к конкретной среде обитания, которая изменчива и заранее неизвестна, то человеку, создавая вычислительную систему для решения конкретных задач, было бы проще сразу задать путь к решению, а не тратить время на обучение системы. Однако так как мысленно охватить происходящее в ИНС можно только приблизительно, то и создать её можно только более или менее наугад, предполагая точнее «подогнать» под условия посредством обучения. Поэтому так же лишь предполагая, а не точно зная, что данный вариант сети в конечном итоге сможет правильно обучиться, то есть, взаимодействуя с примерами обучающей выборки, сможет «эволюционировать» к правильным решениям.

В результате обучение искусственной нейронной сети, так же как и её создание, тоже не является понятным процессом с предсказуемым результатом, может вестись разными способами, обычно с высокой степенью участия человека, подразумевая творческий подход и те же недетерминированные алгоритмы решений. Можно сказать, что один понятный, но невозможный, процесс создания нейронной сети точно под задачу в реальности приходится разделять на два процесса малопонятных, но зато возможных, — создания сети и её обучения. В первом — «грубом» — более или менее случайным образом создаётся общая структура сети, во втором — «тонком» — с той же неопределённостью общая структура сети уточняется до конкретной, способной решить задачу.


6.4. Количество против качества

Итак, в главах ранее мы выяснили, что искусственные системы являются качественно более простыми по сравнению с биологическими. Точно так же искусственные нейронные сети на качественно упрощённом уровне моделируют некоторые нейросетевые элементы естественного мышления, поэтому их представление как модели мышления не соответствует реальности в той же степени. Тем не менее вернёмся к искусственным нейронным сетям и рассмотрим их возможности внимательнее.

В создании нейронных сетей заранее есть только общее представление об искусственных нейронных сетях, но конкретные параметры сети выбираются наугад, на основании общих и неформальных соображений. Возможность выбора, ограниченного только общими рамками нейросетевого устройства вычислительной системы, означает возможность экспериментов в поисках лучших решений. Поэтому, комбинируя конкретные параметры сети, может быть, всё-таки получится создать искусственную нейронную сеть, не менее сложную, чем мышление человека?

Например, вместо перебора вариантов поведения, который был описан в главе про детерминированные алгоритмы, теперь можно попробовать перебирать сразу варианты «мышления». Если раньше проблема была в том, что за пределами точных знаний элементы перебора и критерий его остановки становились неопределёнными, тем самым значительно ограничивая возможную помощь фантастического компьютера, то, может быть, теперь «фактор фантастического компьютера» сработает, ведь сейчас, кажется, всегда есть что перебирать?

Надо заметить, надежда на удачный исход как будто действительно имеет основания. Доказано, что искусственная нейронная сеть является универсальным аппроксиматором, то есть, проще говоря, искусственная нейронная сеть может с любой точностью вычислить любую функцию — а значит, вероятно, сколь угодно близко к сложности оригинала воссоздать и мышление человека. Причём в любом даже самом сложном случае от сети потребуется только достаточное количество нейронов и богатство их связей, а от самих нейронов — нелинейность функции активации, то есть требования к сложности элементов нейронной сети минимальны. Таким образом, «мыслительные» возможности искусственной нейронной сети на первый взгляд не имеют каких-либо явных ограничений, следовательно если благодаря фантастическому компьютеру перебор вариантов получится ускорить, мышление, вероятно, всё же получится выразить алгоритмом.

Однако проблема в том, что мы не знаем, какую «функцию» представляет из себя мышление. Или, другими словами, у нас нет критерия остановки перебора. Сам по себе перебор не имеет смысла — вариант ИИ нужно не только создать, но и проверить, оценить адекватность его решений. Иначе говоря, чтобы повторить эволюцию и создать систему, не уступающую в сложности человеку, нужен не только перебор, но и отбор — аналогично естественному отбору.

Компьютерный «отбор» — это заданный компьютеру критерий остановки перебора, достигнув которого перебор остановится. Без такого критерия перебор не имеет смысла — с тем же успехом можно перебирать варианты расстановки букв в надежде написать роман. Может быть, в какой-то момент он компьютером и будет написан, но об этом никто не узнает, так как перебор не остановится.

Однако, как показано ранее, чем сложнее система, тем сложнее конкретизировать какой-либо однозначный критерий её оценки, так как и работа системы, и решаемые ей задачи становятся всё менее понятными. Причём точно понятных и легко проверяемых критериев и не должно быть, ведь тогда сложность искусственного интеллекта так и останется в пределах задач, решение которых человеку и так в точности известно. Но если однозначных критериев отбора нет, то никакой компьютер в отборе не поможет, так как оценить систему можно будет только субъективно, по неким более или менее общим соображениям. Иными словами, оценивать придётся самому человеку, проверяя все решения нейронной сети на практике, то есть фактически экспериментально, и потому со скоростью более или менее приближённой к реальному времени.

В итоге необходимость участия человека на всех этапах создания нейронных сетей означает, что наш фантастический компьютер что-то принципиально противопоставить проклятию размерности не способен и ускорить процесс создания ИИ не поможет. Какой бы ни была вычислительная мощность фантастического компьютера, как и в случае детерминированных алгоритмов, она всё равно будет нивелирована возможностями человека. Теоретические возможности искусственных нейронных сетей, неограниченные в идеальном математическом мире, ещё не означают столь же безграничное воплощение этих возможностей в мире реальном.

Посмотрим с другого ракурса.

Самый очевидный способ создания искусственного интеллекта заключается в том, чтобы исследовать своё мышление «изнутри», то есть во всех необходимых подробностях изучить работу мозга и перенести понятое в работу искусственных систем. Однако понять работу мозга сколько-нибудь точно невозможно — об этом говорит связь мышления с элементарным уровнем материи и в целом аргументы главы «Физика жизни» основной статьи. Поэтому остаётся только способ мышление «изобрести». В этом случае способ создания искусственного интеллекта в основном связан уже с попыткой изучить своё поведение, свои задачи и их решения для того, чтобы иметь возможность оценивать поведение создаваемых наугад нейронных сетей, отбирать лучшие из них и закладывать проверенные идеи в устройство новых, тем самым постепенно продвигаясь к нейронным сетям всё более сложным.

Но мышление и поведение суть одно и то же. Таким образом, какой бы способ ни избрать, он потребует понимания своего мышления. Но сколько-нибудь точно понять работу мозга невозможно.

В результате прямая связь между созданием искусственного интеллекта и познанием интеллекта естественного приведёт к тому, что по мере приближения к сложности мышления человека создание искусственного интеллекта будет всё больше требовать «познания непознаваемого» — мышления человека. Ведь по мере того, как поведение искусственного интеллекта будет становиться всё сложнее, образец — наше собственное поведение — будет становиться всё более непонятным. Поэтому создание искусственного интеллекта будет всё больше превращаться в задачу «сделать то, неизвестно что». На практике это будет выражаться в том, что количество возможных вариантов систем и время оценки каждого варианта будет расти, стремясь к бесконечности. И задолго до итога рост неопределённости лишит дальнейшие попытки усложнения всякого смысла.

Посмотрим ещё раз. В первом случае мы выдвигаем гипотезу в отношении работы мозга и проверяем её, наблюдая за его работой, то есть в конечном итоге наблюдая за поведением самих себя — и этот способ сколько-нибудь точно понять мышление не позволяет. Во втором случае мы выдвигаем гипотезу в отношении устройства искусственной системы и проверяем её, в конечном итоге опять же сравнивая поведение создаваемой системы со своим поведением, своими задачами и их решениями. Но очевидно, что эти подходы по своим возможностям равнозначны. Поэтому так же, как себя нельзя понять, так же себя нельзя и создать.

В обоих подходах недостижимым пределом сложности создаваемых систем является сложность самого человека, как их создателя. Потому что, независимо от того, исследует ли человек свой мозг, чтобы перенести понятое в искусственные системы, или исследует своё поведение, чтобы использовать понятое для оценки создаваемых наугад систем, или совмещает оба этих подхода, человек всё равно всегда исследует самого себя — но знание себя принципиально ограничено, ведь оно равносильно знанию всего, что в принципе возможно знать — от знаний простых до тех, приближение к которым бесконечно. Поэтому если первый способ позволяет выявить некоторые принципы мышления — но далеко не все, то второй позволяет создавать искусственные системы — но тоже не сложнее мышления человека.

Рассмотрим сделанные выводы ещё раз.

Задать работу системы можно двумя способами. Первый способ — это написать детерминированный алгоритм её работы, то есть явным образом вложить в устройство системы алгоритм решения всех возможных задач, которые только могут системе встретиться. При этом возможность написать детерминированный алгоритм, по сути, подразумевает, что все необходимые эксперименты поставлены, все альтернативные пути к решению задач так или иначе уже исследованы, среда, в которой будет действовать система, и собственное устройство системы стали во всех требуемых нюансах понятны. Поэтому наиболее оптимальный путь к решению задач может быть в точности воплощён в конкретном детерминированном алгоритме и конкретных параметрах устройства системы.

Однако если речь идёт о детерминированном алгоритме, равном по сложности мышлению, то знание всех возможных путей решения всех возможных задач, которые только могут системе встретиться, равносильно знанию всех возможных путей решения всех возможных задач, которые только могут встретиться человеку в принципе. Что равносильно не имеющей смысла теории всего, достичь каковой невозможно и приближение к которой бесконечно, следовательно не имеет смысла и детерминированный алгоритм, по сложности приближающийся к мышлению.

Второй способ задать работу системы — это попытаться угадать её необходимое устройство, применяя различные эвристики, в том числе искусственные нейронные сети (а также другие недетерминированные алгоритмы, например генетические). Данный способ, по сути, означает, что исследования ещё не окончены — ни среда, ни решения стоящих перед системой задач, ни конкретное устройство системы ещё непонятно, поэтому создаваемая система — это пока только одна из гипотез по всем этим пунктам, которая ещё требует экспериментальной проверки.

Но ставит эксперименты и оценивает их результаты человек, все возможные критерии отбора находятся внутри его опыта и не могут выйти за эти пределы. Например, чем сложнее будет становиться искусственная система, тем сложнее будут становиться и задачи, которые она решает. Но чем дальше задачи и решения будут выходить за пределы уже известного и точно понятного, тем всё более субъективной будет становиться оценка работы системы, приближаясь к полностью неопределённой.

Это означает, что на практике по мере приближения искусственного интеллекта к сложности мышления человека всё больше будет возможных вариантов систем, всё сложнее станет отделять адекватные системы от не адекватных, всё труднее их обучать и находить причины их ошибочных реакций, разрабатывать новые системы и формировать пути дальнейшего развития искусственного интеллекта.

Например, если работа системы непонятна, то доверять такой системе без предварительной проверки её решений может быть опасно (обычно такая проверка является частью процесса обучения и в целом процесса разработки нейронной сети). И чем сложнее система и потому важнее решаемые ей задачи, тем цена ошибок будет выше, поэтому важность предварительной проверки будет расти. Но чем сложнее система и сложнее её поведение, тем оно важными решениями богаче, поэтому проверка будет отнимать всё больше времени и носить всё более фрагментарный характер, так как точной оценке будет доступно всё меньшая часть всего поведения системы.

Всё более сложное поведение — это и всё более далёкие стратегии решений (например управленческих), разумность которых проверить сколько-нибудь быстро невозможно уже в принципе. Так же невозможно проверить поведение системы в конкретных критических ситуациях — опасных, аварийных, так как их нельзя создать и не все из них можно предусмотреть и смоделировать.

Если система создаётся наугад, если её работа непонятна, то всегда возможно, что за пределами проверенных ситуаций, работа системы будет неадекватной. Но если обучение системы предполагается и в ходе применения, то такая опасность существует даже и для уже проверенных ситуаций, так как в следующий раз реакция может быть другой. Причём одну и ту же систему можно обучить по-разному. Это значит, что найденный удачный вариант сети и удачный вариант обучения не отменяет возможной опасности системы, если она будет обучена по-другому. И даже если предположить, что система сможет сообщать основания своих решений, точно так же невозможно будет проверить адекватность уже этой информации.

О чём уже говорилось в первой главе, опасным может быть даже искусственный интеллект простого уровня. Например, более продвинутые диалоговые системы типа Алисы или Сири будут вести адекватную беседу по всем предложенным разработчиками темам, но нельзя проверить систему во всех возможных диалогах. И за рамками проверенных ситуаций такая Алиса может оказаться неадекватной, снабжая человека ложной информацией, давая опасные советы. Условная Алиса или возьмёт ответ из уже проверенного источника, например энциклопедии, или сформирует ответ сама из разных источников по тому же принципу, как человек объясняет что-то «своими словами». Но в первом случае не нужен искусственный интеллект, а во втором никогда заранее не известно можно ли системе доверять. Ограничить круг источников информации только достоверными источниками невозможно, так как невозможно выработать такой критерий — он равен бессмысленной возможности точно отделять ложь от истины. Причём стремление к большей строгости ограничит опыт системы, что теперь уже по этой причине тоже приведёт к росту неверных ответов или попросту их отсутствию. В результате в обучающейся системе ответы всегда могут быть внешне правдоподобными, но при этом ошибочными. Поэтому в любом сколько-нибудь ответственном случае ответы всё равно придётся перепроверять. Это проблема, с которой разработчики таких систем сталкиваются уже сейчас.

В итоге как раз именно интеллект в искусственном интеллекте и оказывается тем меньше востребованным, чем сложнее становится система и растёт важность её решений, так как самостоятельность принципиально непонятной системы становится всё более потенциально опасной или просто излишней, ненужной. Как система пришла к решению — неизвестно, адекватна ли она вообще — тоже, сколько-нибудь полноценная предварительная проверка её решений невозможна. Мы получаем от системы готовые решения, а направлять её к этим решениям умеем только приблизительно, и чем сложнее алгоритм системы, тем более приблизительно.

Не стоит ожидать и того, что принципиально непохожая на нас система сама правильно поймёт недостающее, как этого можно ожидать от человека. Поэтому по мере усложнения искусственный интеллект станет всё больше приближаться к естественному и в том, что всё больше будет делать не то, что хотят его создатели, а что «хочет» он сам. Причём, в отличие от человека, речь идёт не о некой «свободе воли», «способности к творчеству» или «человечности», возникающей у искусственных систем (что для каких-то целей, может быть, и неплохо), а о неадекватном поведении сложной системы, призванной решать сложные ответственные задачи. Ведь у искусственных систем нет «встроенного» стремления к самосохранению и размножению, которое делает нам более или менее понятным и предсказуемым поведение любого животного.

Искусственная система — это не человек, поведение которого выверено миллиардами лет биологической эволюции. Который так или иначе всегда стремится к самосохранению и размножению, что уже на физическом уровне организует любой опыт в этом направлении, из-за чего даже за рамками проверенных решений от человека можно ожидать ошибок, но не какой-либо глубокой неадекватности. В свою очередь, индивиды, к неадекватному поведению, наоборот, склонные, заметны заранее по множеству признаков. Но ничего из этого не стоит ожидать от искусственных систем. Они не обладают стремлениями на физическом уровне, а без понимания работы системы и без общности устройства системы с собой никакие признаки нельзя интерпретировать сколько-нибудь точно или сколько-нибудь достоверно экстраполировать поведение системы в проверенных ситуациях на ещё не проверенные.

Поведение человека как диссипативной системы — это гомеостаз, постоянный «поток» реакций, направленных на самосохранение и размножение. Любой опыт возникает в этом общем контексте и работает на эту общую цель жизни, становясь частью этого потока. Поэтому можно сказать, что всё живое разумно уже по этой причине, адекватность «встроена» в биологические системы ещё на самом общем физическом уровне. Ничего этого нет у систем искусственных, их всему надо учить.

В итоге чем сложнее становятся создаваемые наугад системы, тем больше становится их возможных вариантов и вариантов их обучения. А так как создать в конечном итоге нужно «то, не знаю что», то количество вариантов не просто начинает стремиться к бесконечности, но и вовсе не имеет параметров оценки. При этом одновременно и всё быстрее растёт сложность вариантов и важность решаемых ими задач, а значит, всё быстрее растёт важность адекватного поведения систем. Но возможность оценить адекватность, наоборот, всё быстрее уменьшается, так как вариантов систем становится всё больше, а их поведение становится всё богаче, в том числе стратегическими решениями, которые вообще невозможно проверить сколько-нибудь быстро. Как следствие, чтобы отделять адекватные системы от не адекватных, будут требоваться всё более сложные и длительные исследования с целью понять, как различные особенности устройства и обучения систем влияют на особенности их поведения. В результате чем ближе искусственные системы будут подходить к сложности интеллекта человека, тем быстрее и по всем параметрам будет расти неопределённость, и потому всё быстрее к бесконечности будет стремиться и время, требующееся на каждое новое усложнение.

Обобщим сказанное.

Мышление происходит на всех уровнях материи мозга, поэтому познавая себя, мы в той же степени познаём материю, а значит, познаём сразу весь мир. Но создавая себя — любым способом, пытаясь ли написать детерминированный алгоритм или угадать устройство и обучить систему «мыслящую» — мы опять познаём себя, выделяя свои задачи и находя их решения, а значит, опять познаём сразу весь мир. Круг замыкается: мир дан нам в ощущениях, поэтому познание мира, познание себя или создание себя — это одно и то же. В отличие от более частных явлений, невозможно продвигаться в решении любой из этих задач, не продвигаясь в той же степени в остальных — познание природы, познание себя и создание себя возможно только в комплексе. Но познание природы ограничено, следовательно в той же степени ограничено и познание себя, и создание себя, и наоборот. С какой бы стороны ни подходить, сложности будут расти одинаково, не позволяя приблизиться к решению ни одной из задач сколько-нибудь близко.

В итоге как нельзя познать познание познанием, так же познание познанием нельзя и создать. Как ограничены возможности исследования физического физическим — «масла маслом», так же ограничены и возможности создания мышления мышлением. И чем ближе сложность создаваемой системы будет приближаться к сложности создателя, тем больше времени будет отнимать каждое новое усложнение. Поэтому ни превзойти, ни даже повторить сложность интеллекта человека не помогут и недетерминированные алгоритмы. Несмотря на наличие у таких алгоритмов некоторых «мыслительных» способностей, мыслить лучше человека они не смогут. 

В заключение главы можно обратить внимание на соответствие сделанных выводов парадоксу Моравека — принципу в области искусственного интеллекта, который в 80-х годах прошлого века сформулировал Ханс Моравек, Марвин Минский, а также другие учёные. Согласно Моравеку относительно легко достичь уровня взрослого человека в таких задачах как тест на интеллект или игре в шашки, однако сложно или невозможно достичь навыков годовалого ребёнка в задачах восприятия или мобильности. Другими словами, вопреки распространённому мнению когнитивные процессы высокого уровня требуют относительно небольших вычислений. Дело в том, что этот «итог мышления» уже по своей природе есть некое «понятное», формальное знание, конкретный алгоритм действий. И наоборот, так как формальные знания есть лишь малая часть всего опыта, то по мере приближения к низкоуровневым процессам объём требуемых вычислительных ресурсов начинает стремительно расти и, как показано выше, перерастает в том числе в ограничения принципиального характера.


6.5. Ещё некоторые варианты

На всякий случай рассмотрим ещё один вариант. Может быть, создать искусственный интеллект поможет виртуальная среда? Здесь тоже мог бы пригодиться фантастический компьютер. Например, чтобы ускорить отбор интеллектуальных систем, нужна виртуальная среда, где скорость всех процессов можно ускорять или замедлять, останавливаясь на важном и пропуская несущественное. Однако, о чём фактически уже говорилось в главе про детерминированные алгоритмы, виртуальная среда не может быть сложнее известного человеку о среде реальной, поэтому и задать поведение, приближающееся по сложности к человеческому, она тоже не поможет. Например, чем сложнее вариант ИИ, тем точнее должна быть виртуальная модель среды, включая и социум. В результате, получается, что моделирование интеллектуальной системы, ещё только приближающейся к сложности мышления человека, потребует одновременного моделирования множества людей уже во всей их сложности. Иначе говоря, приближение искусственного интеллекта к сложности естественного мышления невозможно без приближения виртуальной реальности к реальности настоящей, но «настоящая реальность» — теория всего — не имеет смысла и даже сколько-нибудь близкое приближение к ней невозможно.

Существует ещё одна довольно распространённая идея — о возможном самозарождении искусственного разума. Например, что таким разумом станет сеть Интернет — случайно, в результате сбоя, вируса или сама собой по мере усложнения. Однако сеть компьютеров — это даже не сеть хотя бы в смысле искусственной нейронной сети, а всего лишь набор отдельных программ. Поэтому прежде всего набор отдельных программ должен сам собой превратиться в одну сложную программу — однако это даже более невероятно, чем самостоятельное усложнение часов из главы «Самоорганизация, гомеостаз, организм». Компьютеры, их жёсткие диски и процессоры — это те же самые часы, только более сложные. Внешнее же организующее воздействие в виде, например, специально написанной вирусной программы по сложности будет равносильно написанию алгоритма мышления — и всех связанных с этим проблем, рассмотренных выше.


7. Пределы сложности искусственных систем

Итак, по мере того как сложность создаваемых систем будет всё дальше выходить за границы точных знаний человека, количество возможных вариантов систем будет стремительно расти, а оценка каждого требовать всё больше времени, так как критерии этой оценки будут становиться всё более неопределёнными. Одновременно чем сложнее система, тем выше важность решаемых задач, а значит, и больше возможный вред от её ошибок. Поэтому по мере приближения к уровню интеллекта человека важность адекватного поведения систем будет становиться всё выше, а возможность эту адекватность проверить, наоборот, будет всё быстрее уменьшаться. В итоге время каждого нового усложнения будет стремительно увеличиваться, не позволяя искусственным системам приблизиться к сложности интеллекта человека сколько-нибудь близко.

В главе «Искусственный интеллект и эволюция» говорилось, что указанные ограничения можно описать через взаимосвязь человека с биологической эволюцией. Человек возникает и существует «внутри» биологической эволюции как её элемент, поэтому суть создания искусственного интеллекта заключается в том, что процесс самоорганизации много меньшей сложности — человек — должен выразить процесс самоорганизации много большей сложности — биологическую эволюцию. Это значит, что человек сможет выразить биологическую эволюции только в меру своей собственной сложности — и потому в очень ограниченных объёмах. В результате сложность искусственного интеллекта, который на практике всё-таки может быть создан, будет по крайней мере настолько же проще мышления человека, насколько сам человек проще биосферы. Таким образом, и с этой точки зрения максимальная практически достижимая сложность искусственного интеллекта будет много проще мышления человека.

В той же главе было приведено возражение. По причине интенсивного обмена информацией и создания сразу множества вариантов искусственного интеллекта с исследовательской и практической целью, отбор проводит весь социум, а не отдельные люди. Иными словами, человек, как открытая система, неотделим от среды, поэтому по мере расширения взаимодействия между людьми всё большее участие в решениях человека принимает всё человечество сразу. И если в ходе прогресса объём знаний будет увеличиваться, средства коммуникации развиваться, то и возможности социума проводить отбор, очевидно, также будут расти.

Например, задача и отдельной клетки, и целого организма — самосохранение, но организм может решать её на качественно новом уровне. Поэтому если социум станет столь же сложным относительно человека, сколь сложным является организм относительно клетки, то в перспективе такой социум тоже сможет сделать качественно больше социума нынешнего. Следовательно даже если сейчас искусственный интеллект более чем далёк от уровня интеллекта человека, то в будущем этот разрыв может быть преодолён. И будущий социум, как более сложное целое, вероятно, всё-таки сможет создать искусственный интеллект и уровня человека, и даже выше него, как своего более простого элемента.

Элемент социума действительно человек, сложный социум действительно сможет больше социума простого и даже системы сложнее человека в социуме уже существуют — это культуры, страны, объединения людей — к примеру, научное сообщество. Однако сам человек возникает не в результате эволюции социума — человек возникает в процессе биологической эволюции, когда усложняются организмы, и которая включает в себя в том числе и эволюцию социума, как своего частного элемента. Причём это относится к каждому отдельному человеку тоже — любого человека создаёт сразу вся окружающая его среда, от среды внутриутробной до природной и культурной, так как каждый человек является открытой системой.

Однако искусственные системы — это не открытые системы в физическом смысле, поэтому они не способны к реальной физической самоорганизации. Это равновесные системы, поэтому они не могут воспринимать мир в той полноте, как на это способны системы биологические, не могут качественно перестраиваться и потому их самостоятельное усложнение ограничено. Эволюция и само существование искусственных систем зависят только от человека, а не от всей среды в целом, как в случае самого человека.

Эта зависимость уже сама по себе означает, что создание социумом искусственного интеллекта уровня человека должно отнять времени больше, чем на то же потребовалось биологической эволюции, так как социум проще биологической эволюции. Что уже лишает эту задачу какого-либо практического смысла, так как время её решения слишком велико. В ином случае, чтобы сократить время решения до сколько-нибудь приемлемого, социум должен стать на порядки сложнее биологической эволюции. Но это невозможно, так как сложность социума зависит от сложности биологической эволюции — образно говоря, вершина пирамиды не может стать больше самой пирамиды.

Но на самом деле принципиальное отличие искусственных систем от биологических говорит о том, что задачу создания искусственного интеллекта, не уступающего интеллекту человека, решить невозможно ни за какое время. Потому что на самом деле искусственные системы создаёт не социум, а только человек, его интеллект. Не являясь открытыми, искусственные системы в принципе не могут существовать самостоятельно не только в природе вообще, но и «в социуме».

Усложнение создаваемых систем всегда направляет и контролирует человек. Адекватность поведения искусственных систем человек естественным образом определяет по отношению к собственному опыту, своему пониманию адекватного, отбирая и продолжая те из систем, которые этим его критериям удовлетворяют. Но знание себя принципиально ниже сложности себя, независимо от того, сколько людей пытаются понять себя и насколько они при этом могут объединять усилия. Социум не поможет человеку понять себя больше, чем это в принципе позволяет его интеллект, но, способствуя более быстрому накоплению знаний, объединяя усилия людей в постановке экспериментов и развитии технологий, социум позволит достичь этого предела быстрее. Поэтому растущие возможности социума всего лишь позволят быстрее прийти к тому пределу, когда искусственные системы будут усложняться только в той мере, в какой в ходе биологической эволюции будет усложняться интеллект самого человека. И на практике приближение к этому пределу проявит себя в виде стремительно растущей неопределённости, описанной в предыдущей главе.

Например, огромный объём данных, накопленных человечеством, на которых можно обучить искусственную нейронную сеть, сделает её сложнее, относительно необученного состояния, но возможности этого усложнения всё равно будут ограничены сложностью некоторых общих параметров сети. Поэтому способность искусственных сетей применять эти данные для генерации новых и не бессмысленных с точки зрения человека знаний всё равно останется много проще тех же способностей мышления человека. Важно не только много знать, но и уметь оперировать знаниями, применять их, поэтому гипотетический интеллект, который много знает, всё равно останется не более чем помощником, существующим в контексте задач человека. Точно так же генная инженерия позволяет создавать организмы, которые могут эволюционировать самостоятельно, но на временных масштабах человека ждать результатов этой эволюции не имеет смысла, поэтому даже в эволюции «живых искусственных систем» в любом случае необходимо активное участие человека, в том числе его направляющий отбор.

Социум же — это самоорганизующаяся система другого уровня, существующая на иных пространственных и временных масштабах, чем отдельные люди. И равная человеку в «потребностях и способностях» только в самом общем — так же как человек в своём стремлении к самосохранению равен клетке. Например, у социума нет мышц, но суть мышления именно организация движений. Поэтому чем сложнее социум, тем больше задачи социума будут выходить за рамки понятных и доступных человеку. И если предположить, что относительная сложность социума по сравнению с человеком станет настолько же высокой, как сложность человека по сравнению с клеткой, то и задачи такого социума будут непонятны человеку в той же степени, в какой бессмысленно говорить о понимании задач мозга отдельным нейроном. Другими словами, человек, как элемент такого социума, всё равно останется на своём уровне своих задач, в принципе не имея возможности сколько-нибудь близко приблизиться к пониманию задач того большего, ничтожной частью которого он является, оценить масштаб происходящей работы и своё место в ней.

В итоге искусственные системы, создаваемые человеком, всегда будут качественно проще его самого. Но точных границ усложнения нет — есть бесконечное, всё более медленное приближение, в пределе которого происходит превращение задач человека в элемент принципиально непонятных ему задач макросистем нового уровня, которые, возможно, возникнут в ходе эволюции социума, как из колоний клеток когда-то возникли многоклеточные организмы и человек.

Тем не менее любая система, в том числе мозг человека, имеет свои функциональные особенности, то есть является специализированной. Поэтому другая система, даже если она много проще мозга человека, сможет решать задачи, которые его мышлению не свойственны, лучше человека — точнее, быстрее или в большем объёме. Насколько можно превзойти человека в таких задачах?

Прежде всего очевидно, что задачи не могут лежать вне опыта человека, они должны быть ему более или менее понятны и интересны. Системы, решающие другие задачи, не будут иметь для человека смысла и потому не могут быть им ни созданы, ни тем более не будут им развиваться. Например, искусственные системы, создаваемые человеком, могут решать задачи, не свойственные насекомым — к примеру, управлять автомобилем (хотя на некотором небольшом уровне и насекомые способны манипулировать объектами). Точно так же искусственные системы, создаваемые гипотетическими инопланетянами с более развитым интеллектом, могут делать то, что непонятно человеку. Однако в случае, когда искусственные системы создаёт сам человек, непонятных ему задач нет, так как человек создаёт искусственные системы исключительно для решения своих задач.

Следовательно задачи должны быть свойственны мышлению человека, то есть должны лежать «внутри» его опыта. В результате, «наблюдая» задачу целиком, человек может попробовать найти её прямое решение в детерминированном алгоритме или создать недетерминированный алгоритм, который сможет найти решение «самостоятельно» в процессе обучения, то есть в последнем случае искусственная система как будто бы превзойдёт интеллект человека. Однако на самом деле именно за счёт несравнимо более богатого опыта человек способен выделить в нём и задачу, и придумать систему, которая, оставаясь много проще человека, затем только лишь выявит в задаче некоторые частные закономерности, не замеченные человеком.

И чем более частный характер носит задача, тем «превзойти самого себя» человеку будет проще, а превосходство может быть заметнее. Превосходства может быть достигнуто за счёт более точного соответствия устройства системы задаче или за счёт объёма или скорости выполняемой более простой работы. К примеру, калькулятор считает быстрее человека, а автомобиль может быстрее человека перемещаться в пространстве. И наоборот, по мере приближения возможностей искусственных систем к полноте возможностей человека превосходство быстро сменится отставанием. В итоге усложнение систем, способных делать то, что в целом делает человек, то есть ставить задачи и решать их, всегда будет ограничено уровнем сложности много ниже тех же способностей человека.

И эволюция, и мышление — это процесс самоорганизации диссипативного типа, то есть принципиально одинаковые процессы. Самоорганизация, проходящая на уровне биосферы как целого, наполняет мир организмами, и чем организм сложнее, тем больше времени эволюции требуется на его создание, так как для создания сложных организмов биосфера тоже должна обладать определённой сложностью.

На некотором этапе эволюции в организме животных возникает новый уровень самоорганизации — нервная система, мышление. В результате животные становятся всё более «самостоятельными», начиная всё больше решать «личные» задачи, приобретая личный опыт в ходе обучения. И в том числе начинают сами создавать всё более сложные искусственные системы, которые по мере усложнения также становятся всё более «самостоятельными», приобретая «личный» опыт в ходе обучения.

Но при этом искусственные системы могут только упрощённо моделировать самоорганизацию. Как следствие, в том объёме, как это могут биологические системы, они эволюционировать не способны, поэтому их усложнение в любом случае связано с опытом человека, так или иначе проходит «внутри него». И даже если речь идёт о биологических системах, в создании которых участвует человек, то и их усложнение также контролирует сам человек, исходя из своего опыта. В результате как очевидно, что животные не могут стать сложнее всей биосферы, так же не могут стать сложнее человека и создаваемые им искусственные системы.

Очевидно также, что принципиальная недостижимость собственной сложности должна быть обусловлена наличием у явления, к которому относится жизнь, таких физических особенностей, которые бы в принципе не позволяли описать жизнь сколько-нибудь точно. Иначе говоря, протекание явлений, подобных жизни, должно быть процессом слишком сложным, чтобы его можно было изучить сколько-нибудь точно. И действительно, в принципиальном отличии от систем искусственных, любой живой организм или их системы, начиная от клетки и заканчивая биосферой, — это открытые термодинамически неравновесные системы, то есть системы, способные к самоорганизации, конкретно диссипативные системы. Особенностями таких систем являются интенсивный обмен веществом/энергией со средой, хаос, бифуркации и неравновесные фазовые переходы, поэтому высокая неопределённость в предсказании их поведения принципиально неустранима. Как следствие, она неустранима в поведении любого живого организма и жизни в целом.

Основной «задачей» диссипативных систем можно назвать гомеостаз — поддержание системой своего организованного состояния посредством скоординированных реакций. Таким образом, гомеостаз — это функция самосохранения в её элементарном виде. На самом старте биологической эволюции функцию самосохранения дополняет функция самокопирования — размножения — стремление системы воспроизводить себя. В результате возникает живая клетка и начинается жизнь. Появление в ходе эволюции многоклеточных организмов означает появление нового уровня гомеостаза — морфогенеза и гуморальной регуляции, проходящей на масштабе всех клеток организма как единого целого. Далее в многоклеточном организме возникает нервная система — сеть нервных клеток, на масштабе которой возникает ещё один уровень гомеостаза — нервная регуляция. Нервная регуляция заключается в упорядочении хаотической активности нейронов и отражается в организованной в едином порядке работе всех мышц и желёз. В свою очередь, за счёт специфической архитектуры сети нейронов смысл этого упорядочения заключается в распознавании условий и построении действий. В итоге сложность нервной регуляции, то есть сложность мышления, включает в себя сложность клеточного гомеостаза нейронов как отдельных клеток, сложность гомеостаза нервной системы как структуры нейронов и сложность гомеостаза активности нейронов в составе этой структуры.

Усложнение диссипативных систем — это всегда усложнение гомеостаза, то есть усложнение упорядоченной структуры системы и появление в динамике гомеостаза соответствующей составляющей. Система точно так же как одно целое продолжает противостоять среде, но теперь на новом уровне сложности. Этот факт отражён в схематичном описании биологической эволюции, приведённом в абзаце выше. Он также означает, что выделяя и формализуя отдельные элементы гомеостаза — некие действия системы, или детали устройства системы, в этих элементах систему можно и превзойти, и чем более частный элемент, тем превзойти будет проще. Например, относительно легко можно получить материал, по лёгкости и прочности сравнимый с костью животного.

Однако чтобы сложность поведения системы искусственной была не меньше сложности поведения системы диссипативной, сложность алгоритма искусственной системы должна быть не меньше сложности гомеостаза диссипативной системы. Но столь сложный алгоритм не имеет смысла, так как, ввиду бифуркаций, работа диссипативных систем связана со всеми уровнями материи системы, при том что элементарный уровень материи — это уровень принципиально непознаваемый. Поэтому трудности уже совсем другого масштаба возникнут в стремлении добиться того, чтобы искусственная кость могла расти или срастаться после повреждений. 

Ещё быстрее сложности будут расти в попытке понять мышление, так как если сложность гомеостаза кости — это сложность только двух уровней гомеостаза: клеточного и гуморального, то мышление связано ещё и с синхронизацией нейронов — упорядочением их хаотической активности. На практике это означает, что уточнение общего плана мышления человека, заключающегося в распознавании условий и построении действий, приведёт к стремительному росту частных элементов поведения и потому такому же стремительному росту трудностей в создании искусственных систем, которые смогут эти элементы полноценно выразить. В чём собственно и заключается рост неопределённости, описанный в предыдущей главе, который сделает усложнение искусственных систем невозможным задолго до приближения к сложности мышления человека сколько-нибудь близкого. Возможных вариантов систем будет всё больше, их поведение будет всё богаче, оценить их адекватность можно будет всё более фрагментарно, а важность адекватного поведения, наоборот, будет становиться всё выше.

В результате способности человека ставить задачи и находить пути их решения, его умение вырабатывать новые идеи, от общих стратегий до конкретной тактики их воплощения в жизнь — например, стратегии и тактики взаимодействия с другими людьми или природной средой — для искусственных систем недостижимо.

Как следствие, на практике получится или создать систему, работа которой будет повторять мышление человека в целом, начиная от распознавания условий до построения действий, но воспроизведённого на простом уровне, или систему, которая будет, возможно, и превосходить человека, но лишь на уровне частных элементов его опыта. В этом смысле гипотетические инопланетные существа, обладающие более высоким, чем у человека, интеллектом, смогут выразить человека полнее, чем сможет он сам, но тоже не во всей сложности. Или, решая свои задачи, они смогут создать искусственные системы, которые будут превосходить искусственные системы, созданные человеком, и смогут точнее понять природу, но эти существа точно так же ограниченно смогут выразить себя и тоже останутся далеко от построения теории всего.

По мере упрощения нервной системы её функция распознавания условий и построения действий вырождается, в конечном итоге сводясь к неизбирательному сокращению сразу всего тела в ответ на раздражение любого рецептора — так реагируют медузы, нервная система которых является одной из самых простых. Воспроизвести такой уровень «мышления», как кажется, не представляет никакой сложности, однако на самом деле это только внешняя простота. Нейрон, как и любая клетка, — это сложнейшая диссипативная система. При этом все нейроны связаны в сеть, состояние которой неравновесное, поэтому за счёт чувствительности неравновесных систем в каждой реакции нервной системы медузы учитывается активность всех её рецепторов и состояние внутренней среды организма. В результате несмотря на то, что в общем реакции медузы всегда будут одинаковые и простые, их нюансы будут столь же сложны и невычислимы, как и поведение человека.

И по мере увеличения количества нейронов, усложнения архитектуры их связей, усложнения взаимодействия нейронов с окружающими тканями и роста возможностей трансформации мозга, объём невычислимого будет стремительно увеличиваться. Причём если исходить из того, что нюансы поведения медузы в любом случае не представляют интереса, то ловкость движений муравья или пилотаж полёта мухи уже не будут лишними, а сложность мышления человека и вовсе требуется выразить именно полностью, ничего упростить нельзя, так как речь идёт о создании искусственной системы приближающейся к мышлению человека сложности или даже превосходящей его.

В итоге можно сказать следующее. Сложность знания можно выразить через время познания, и сложность человека скрыта в миллиардах лет «мышления» природы, происходящего на совершенно иных масштабах, чем доступные человеку. Из-за чего создание искусственного интеллекта, по сложности приближающегося к человеческому, в той же мере не имеет окончания, как и познание. И если предположить, что на уровне понимания общих принципов мышления и создания нынешних интеллектуальных систем мысленный анализ помог даже обогнать эволюцию, то ещё задолго до приближения к сложности мышления человека начнётся всё быстрее растущее отставание и дальнейшее усложнение искусственного интеллекта потребует уже всё большего времени, чем на это же потратила природа, притом что человечество, как любой организм, тоже, очевидно, не вечно. И взаимосвязь человека с эволюцией, необходимость её не только повторить, но и превзойти, создав ИИ в какой-то разумный срок, как дополнительный аргумент, позволяет посмотреть на ситуацию в целом, с большей наглядностью обозначить пропасть между сложностью алгоритмов и сложностью систем, где алгоритмы возникают.

Любой организм, возникший в ходе эволюции, — это эксперимент, проводимый природой, вариант интеллекта для последующего отбора. Однако природный вариант уже изначально сложнее любого алгоритма, так как любой организм — это диссипативная система, способная к самостоятельному существованию и размножению. Тем не менее, даже имея преимущество ещё на старте, для создания интеллекта уровня человека природе всё равно потребовалась огромная сложность биосферы и миллиарды лет эволюции. Следовательно чтобы обогнать эволюцию и создать интеллект, равный человеку, за какое-то приемлемое время, система потребуется много более сложная, чем биосфера и эволюционный процесс, происходящий на Земле. И потому, по-видимому, эта система должна быть качественно иная, использующая другие химические элементы и существующая в другой среде.

Причём последнее обстоятельство, вероятно, наоборот, ограничивает сложность возможной внеземной жизни, так как среду, способную сформировать жизнь качественно более сложную, чем земная, на самом деле представить тоже сложно. Более интенсивные процессы в такой среде потребуют и другого элементного состава организмов, способных в ней эволюционировать (на Земле это, по убывающей, водород, кислород, углерод, азот, фосфор и сера). Но вряд ли какой-либо другой элементный состав сможет обеспечить необходимые свойства и богатство химических соединений.


8. Резюмируя

Мы выяснили, что искусственный интеллект, приближающийся к сложности интеллекта человека, не может быть создан. Возможности искусственных систем, создаваемых человеком, полностью лежат в пределах сложности его собственного мышления, поэтому ни превзойти, ни даже близко приблизиться к ним они не смогут. Ограничение сложности создаваемых систем сложностью самого себя — это в той же степени и ограничение на познание себя и, таким образом, на познание природы.

В то же время точных границ между тем, что познанию доступно и что не доступно, провести невозможно. Для этого нужно оценить доступное познанию со стороны, то есть со стороны недоступного познанию, что не имеет смысла. Поэтому выводы о границах познания могут быть только качественными, то есть выводами логического, философского характера. Предел познания — это не явление, которое можно наблюдать непосредственно и исследовать экспериментально, качественная категория предела познания означает, что он доступен только мысленно, в сопоставлении того, что известно о природе, в попытке найти тенденции, которые укажут на этот предел.

В результате, с одной стороны, качественный характер сделанных выводов означает, что где конкретно находится предел познания, какого конкретно знания можно достичь или какой конкретно сложности могут быть искусственные системы, исходя из этих выводов установить нельзя. Поэтому в любом затруднении всегда можно надеяться найти новые методы, чтобы понять природу лучше или создать искусственный интеллект ещё более сложный, обладающий бо;льшими возможностями. Но, с другой стороны, качественный характер выводов не отменяет их сути, и в целом максимально достижимая сложность искусственных систем, создаваемых человеком, всё равно будет много ниже сложности его мышления.

Приведённые аргументы в том числе, как кажется, говорят о наличии в природе некоторых принципов, правил — нельзя создать что-то сложнее себя, нельзя узнать, каков мир на самом деле, откуда он, что было до всего и что будет после.

Например, с практической точки зрения ограничение сложности создаваемых систем выражается в том, что по мере усложнения систем и приближения их к сложности человека начинает стремительно расти время каждого нового этапа усложнения, ввиду того, что понимание себя, как образца для создаваемых систем, ограничено. С логической точки зрения в том, что доступные человеку средства решения этой задачи качественно проще самой задачи — любой мыслимый язык человека, как некоторый итог работы мозга, качественно беднее «языка», который мог бы эту работу выразить. С физической — в неравновесности и нелинейности, хаосе и бифуркациях, и потому связи себя как физической системы с элементарным уровнем материи, описание которого не имеет смысла. В свою очередь, связь себя с элементарным уровнем материи обобщает непознаваемость себя с невозможностью построения теории всего, так как такая теория суть описание элементарного уровня материи.

Работают ли эти правила в других системах? Например, какие физические причины не позволят создать себя более простой системе? Очевидно, это будет равновесная система, поэтому причины нашего «неравновесного» уровня сложности уже не подойдут. По-видимому, ответ заключается в том, что более простые системы не могут стать столь сложными, чтобы что-то «создавать», они всегда «создаваемые». В них нет внутренней активности, нет стремлений, и поэтому нет «жизни». В таком случае эти правила касаются только человека и физически ему подобных систем.

С другой стороны, вспомним, что сложность знаний человека ограничена его собственной сложностью, поэтому какие бы выводы мы ни сделали, мы не можем понять всё, мы даже не можем понять себя. Для нас непредставим элементарный уровень материи, появление чего-то из абсолютного ничего или бесконечное существование чего-либо. Следовательно нельзя исключать, что за рамками представимого есть что-то иное — другой мир и другие системы, создающие сразу Вселенные, возникающие из ничего, существующие вечно или способные на всё это одновременно. Какие физические причины не позволят им создать что-то сложнее себя, и как бы они оценили наши взгляды на этот счёт? Возможно, ответ в том, что принцип существования этих систем будет исключать подобные вопросы — их вопросы, задачи и возможности будут совершенно другие.

И последнее. Вывод о наличии у познания принципиальных границ, причём таких «близких» и «непосредственно наблюдаемых», как сложность собственного мышления или сущность сознания, как кажется, является однозначно пессимистическим. Однако, если подумать, однозначно плохо было бы как раз понять всё, так как это абсолютный предел какого-либо развития, а бесконечность познания — это всего лишь неоднозначно. Точно так же однозначно плохо было бы создать искусственный интеллект, сравнимый с интеллектом человека, тем более превосходящий его, так как это тоже предел развития человека, а невозможность этого — это всего лишь неоднозначно. Поэтому ничего однозначно пессимистического в сделанных выводах на самом деле нет.

***


Рецензии
Вас обманули.
Мозг ещё работает и на химии, на гормонах.
И похоже без этого, без гормонов, он обойтись не может. Иначе бы природа бы точно сэкономила на них. Природа всегда выбирает наиболее рациональные решения.
И не надо рассуждать холодными электронными словами о любом интеллекте.
Надо в него добавить гормонально-химической радости.

Иначе никак.

Сергей Ша   22.06.2025 09:02     Заявить о нарушении
"Ещё и на химии"? Дополнительно к чему-то? Как бы и на дровах работает, и на спирту? )

Вы бы вначале почитали, что комментируете. Хотя бы название - "Приложение к ...". Потом бы посмотрели, что написано в основной статье. Там как раз и про химию тоже написано - столько, сколько нужно для раскрытия темы статьи. Плюс есть статья "Жизнь как самоорганизация". Самоорганизация в организме носит именно характер химических реакций - Белоусова-Жаботинского например. Поэтому не "ещё на химии", а фактически целиком на химии. И про гормоны там написано, и про медиаторы. И эта "химия" написанного в Приложении не отменяет.

Иванников Михаил   22.06.2025 10:47   Заявить о нарушении
Вам бы подумать, и короче текст написать. Краткость - сестра таланта.

Сергей Ша   22.06.2025 10:57   Заявить о нарушении
Покороче написать что? Почему сильный искусственный интеллект не будет создан? Если бы это была простая тема, то о СИИ сейчас бы не грезили все кому не лень. Вы Содержание и Введение к основной статье читали? Прочитайте.

Или вы думаете, что самоорганизация - это простая тема? Есть целый класс людей, которые в принципе не могут уложить у себя в голове это явление. Это даже не квантовая механика - с пониманием самоорганизации проблемы серьёзнее. Вот это во Введении к статье "Жизнь как самоорганизация" не зря написано: "Заметим, принципы самоорганизации, по которым функционируют биологические системы, сильно отличаются от привычной нам «механической» работы любых систем искусственных, от механизмов до компьютеров. Искусственные системы нам понятны, потому что мы сами их и создаём. Наоборот, работа биологических систем — «которые создают» — может поэтому показаться неправдоподобной, быть сложной для понимания и потребует умения обобщать, видеть в явлениях частного масштаба то, к чему приводит их взаимодействие на масштабе целого." Не все могут обобщить.

И наконец. Есть и покороче. Статья "Материя, сознание и пределы сложности искусственного интеллекта".

Иванников Михаил   23.06.2025 00:12   Заявить о нарушении