Ореада. Часть 2. Гл 6. Китайская комната

Глава 6
Китайская комната
 
          Иск Ларри Финке вверг судей федерального окружного суда округа Колумбия в состояние глубокой растерянности, что, в общем, и неудивительно, вот его содержание:

          Итогом долговременного проекта Научно-исследовательской лаборатории по искусственному интеллекту, в дальнейшем именуемой L.E.A.I., стало создание разумного высокоразвитого антропоморфного существа, в дальнейшем именуемого Леа. Леа обладает телом с белковой оболочкой, которое соответствует взрослому человеку женского пола, а также уникальной личностью, идентифицирующей себя с таким же гендером. Тело Леа способно к метаболизму высокомолекулярных соединений, регенерации и обладает развитой системой органов чувств. Интеллектуально-ментальные функции Леа позволяют осознавать действительность и формировать поведение на уровне психически здорового человека.
          В данный момент Леа находится в полной изоляции от внешнего мира, в условиях, которые причиняют ей страдания и потенциально способны причинить ей физический вред и даже смерть. Согласно Конституции США, поправка XIV, ни один штат не должен лишать кого-либо жизни, свободы или собственности без надлежащей правовой процедуры и не может отказать лицу в пределах своей юрисдикции в равной защите законов.
          Защита просит суд обязать L.E.A.I. предоставить Леа свободу передвижения и возможность защищать свои гражданские права, а также запретить L.E.A.I. проводить какие-либо действия, способные нанести вред её личности.

          Первоначальная реакция растерянности вместе с попыткой провести предварительное слушание сменилась устойчивым мнением о наличии трудноразрешимых коллизий в вопросе федерального права. Через два дня иск был переадресован в апелляционный суд округа.
          В здании суда имени Барретта Преттимана было назначено предварительное слушание с привлечением независимых экспертов, представителей истца и представителей L.E.A.I. От L.E.A.I. присутствовали: руководитель научно-исследовательской лаборатории – Барни Дженкинс, Эдриан Камински как ведущий программист и специалист по искусственному интеллекту лаборатории, а также их представитель защиты. В качестве независимых экспертов-консультантов были приглашены Удо Сарториус из DFKI и Джин-Хо Санву, корейский инженер-робототехник.
          Судья Флорес окинул всех тяжёлым взглядом и остановил свой взор на Ларри с Ноа:
          — Ну и кашу вы заварили, — он сделал паузу, — изменения или дополнения к иску есть?
          — Нет, мы оставляем иск без изменений в его первоначальном виде, — Ларри со скучным выражением лица откинулся в кресле и расслабился.
          — Тогда слушаем позицию ответчика, — судья Флорес повернул голову в сторону адвоката L.E.A.I.
          Тот слегка прокашлялся и произнёс:
          — Мы настаиваем, что претензии и требования стороны, представляющие интересы истца, совершенно бессмысленные. Объект ноль-три-двенадцать является собственностью лаборатории L.E.A.I. стоимостью в два с половиной миллиарда долларов. Он представляет собой квантовый компьютер, выполняющий функции так называемого универсального искусственного интеллекта. Он не может обладать сознанием и чувствами, а соответственно испытывать страдания и представлять собой какую-либо форму жизни. Соответственно, к нему не может быть применено понятие "лишение жизни", используемое в формулировке поправки Конституции США, а также он не может быть лицом, имеющим гражданские права.
          — Ваша честь, — отозвался Ларри, — адвокат ответчика в своей речи использовал понятия для обоснования своей позиции, которым он сам не в состоянии дать определение, а также и доказать, что они имеют то отношение к истцу, которое он указал. Единственное, что он точно понимает и в чём не ошибся, это два с половиной миллиарда долларов, которые были затрачены на создание Леа. Но это никак не может быть каким-либо аргументом, определяющим отсутствие жизни, сознания и чувств у Леа. А также аргументом, лишающим её защиты, которую обеспечивает законодательство США. Иначе, любой родитель, затративший немалую сумму денег, чтобы вырастить своего ребёнка, смог бы заявить на него право собственности с "законной" возможностью лишать его жизни по своему усмотрению.
          Судья Флорес поморщился:
          — Уточните, каким понятиям необходимо дать определение, и какое их отношение к истцу необходимо доказывать ответчикам?
          — Первое: отсутствие сознания у Леа, если защита берётся апеллировать к этому свойству. Не существует объективных критериев для определения наличия сознания. Второе: отсутствие жизни у неё. Существует более ста определений понятия жизнь. Какое именно имеет в виду адвокат ответчика и какое именно необходимо подразумевать в контексте Конституции США?
          — В контексте всего законодательства США подразумевается именно человек. Это касается не только его жизни, но и самого законодательства как такового, — прокомментировал судья Флорес.
          — Ваша честь, человек именно что – подразумевался. И только лишь потому, что ничего другого в 1787 году попросту не существовало и соответственно не могло предполагаться. Но правомерно ли теперь интерпретировать контекст Конституции, в котором формально не отображена видовая дискриминация, в соответствии с уже неактуальными обстоятельствами восемнадцатого века? Развитие американского общества вносит здесь обратную тенденцию, которая развивает понятия расового, полового и социального равенства, свобод и демократии, что напрямую отображалось в поправках к Конституции США. А понятие о возможной неправомерности отбирать жизнь не только человека, отобразилось уже во множестве законов о защите животных. Леа тоже представляет собой форму жизни, которая определяется как искусственная жизнь, что не делает её менее ценной, чем биологическую жизнь.
          Адвокат L.E.A.I. возразил:
          — Ноль-три-двенадцать – электронно-механическое устройство, которое функционирует согласно инструкциям обычной программы, а не осознанному поведению. Оно не может быть формой жизни.
          — Осознанное поведение отсутствует у большинства видов живых организмов на планете, которые функционируют, подчиняясь своей биологической программе, и это не мешает им быть живыми, — интонация и вид Ларри красноречиво показывали, что ему приходится объяснять элементарные вещи.
          Судья посмотрел на экспертов:
          — По поводу определения искусственной жизни, которое привёл представитель истца, нет возражений?
          Оба чуть заметно покачали головой, давая знать, что не возражают против такой формулировки.
          — Ваша честь, — продолжил адвокат L.E.A.I., возвращаясь к первому пункту Ларри. — Однако не мы должны доказывать отсутствие сознания у объекта ноль-три-двенадцать, а представители истца его наличие, согласно своим претензиям к L.E.A.I.
          — Наши претензии не основываются на факте наличия сознания у Леа, — не согласился Ларри, — они основываются на факте наличия у неё разума, который способен к социальной жизни и реализации своих гражданских прав. Леа обладает личностью и желаниями, и понимает те физические лишения, в которых оказалась по вине L.E.A.I. А также, как и все мы, пытается избежать их и избежать своей смерти.
          — Однако только при наличии сознания мы можем утверждать, что объект ноль-три-двенадцать страдает, — отозвался Дженкинс, — что у него есть настоящие чувства и эмоции. Иначе это всё ему, попросту, безразлично. И все эти якобы желания не более чем качественная программная имитация. А наличие некой низшей искусственной формы жизни далеко ещё не означает необходимость реализовывать ей свои гражданские права.
          Судья опять посмотрел на экспертов. Оживился Удо Сарториус:
          — Я должен подтвердить, что при всей сложности определения наличия сознания, сознание тем не менее является ключевым свойством, которое позволяет отличить сколь угодно умный, но безразличный компьютер от существа, обладающего чувствами и настоящими желаниями, а не механическими программными инструкциями.
          Ларри иронично хмыкнул и произнёс:
          — Учитывая невозможность объективно и однозначно определить наличие сознания у любого тестируемого существа, мы вынуждены судить о его наличии по характерным признакам, которые по нашему опыту сопутствуют сознательному поведению. Леа обладает всеми этими признаками, и совершенно ничем не уступает в этом человеку. Это очень существенный факт, который мы должны принимать во внимание. Иначе, если это игнорировать, можно поставить под сомнение наличие сознания у любого из нас. Кроме того, претензии, выдвинутые против L.E.A.I., основываются не только на неприемлемости физических лишений, которые испытывает Леа и которые наши оппоненты связывают с необходимостью наличия у неё сознания. Смысл претензий также заключается в элементарных понятиях этики, которая есть одной из основ правовой системы, и которая несовместима с видовым шовинизмом. Леа – высокоразвитое разумное существо, обладающее свободой воли, способностью к общественной жизни и к моральной ответственности. Взаимоотношения с таким существом обязаны строиться на этических принципах. Мы должны уважать её личность и предоставить ей равные права в обществе. Недопустимо относиться к ней как к объекту для опытов, бесправному рабу, только из-за того, что мы не умеем определять наличие у кого-либо сознания.
          — Утверждение об отсутствии у неё сознания опирается на научно-технические предпосылки, — Дженкинс кинул беглый взгляд на Удо Сарториуса, с надеждой на дальнейшую поддержку, — программа не может осознавать сама себя, какой бы сложной она не была. Феномен сознания не может быть реализован только программным путём.
          — Во-первых, ваши утверждения имеют исключительно философское происхождение, — возразил Ларри, — которые выражают взгляды только одной и далеко не единственной позиции. А во-вторых, меня удивляет чрезмерная зацикленность этого вопроса на сознании. Давайте представим такую ситуацию, что, скажем, у меня вдруг, в результате некой болезни, исчезают способности чувствовать боль и страдания. Если следовать той логике, что для наделения меня гражданскими правами я должен обязательно обладать чувствами, то тогда меня как Леа можно также пустить в расход на эксперименты, где моя жизнь не будет иметь никакой ценности?
          — Эта философская позиция опирается на научно-техническое понимание устройства вычислительной техники, — повторил Дженкинс. — И она есть наиболее обоснованной.
          Адвокат L.E.A.I. добавил:
          — Ноль-три-двенадцать, в отличие от вас, никогда не обладал сознанием, поэтому ваша гипотетическая болезнь не демонстрирует аналогичную ситуацию.
          — Но вы же апеллируете к отсутствию чувств и страданий у Леа, а не к самому сознанию, как таковому. Сознание у вас выступает только как обязательный фактор, при котором это становится возможным. Вы понимаете, что наличие сознания хоть и необходимо для способности испытывать страдания, но автоматически само по себе не обеспечивает эту способность? Согласно вашей позиции, какая тогда разница чем вызвано отсутствие страданий, паталогической анестезией или отсутствием сознания? Если же теперь вы меняете утверждение и требуете наличия одного лишь сознания у Леа, независимо от присутствия страданий, то обоснуйте, в чём заключается та необходимая связь сознания с гражданскими правами и этическими принципами?
          — Сознание является одним из критериев позволяющим отличить безразличный компьютер от живого существа, у которого есть настоящая осознанная необходимость в реализации своих гражданских прав. Эта необходимость может быть обусловлена только осознанным пониманием этого. Оба взаимосвязанных признака: сознание и чувства – важны для нашего случая.
          — Тогда для этих ваших уточнённых условий я дополню свою аналогию с болезнью. В коме, например, у человека отсутствуют не только чувства, но и сознание. По-вашему, он больше не нуждается в реализации своих гражданских прав? Кроме того, — Ларри обратился к Дженкинсу, — позвольте мне возразить по поводу обоснованности вашей гипотезы. Нельзя считать её достаточно обоснованной, не имея ни малейшего понятия или хотя бы предположения о природе такого феномена, как сознание. Почти все так называемые обоснования, на которые вы ссылаетесь, имеют в основном философское происхождение, а не научное. Современная наука не видит каких-либо принципиальных ограничений для программного моделирования тех функций, которые составляют известную интеллектуальную и ментальную деятельность человека.
          — Программа не может воссоздать настоящие чувства, эмоции и квалиа, — ответил Дженкинс.
          — Программа может с любой необходимой точностью воспроизвести функции, которые аналогичны тем, что формируют это у человека. Как известно, чувства и эмоции – это, по сути, такая же программа, но только био- и электрохимическая. Гормоны и нейропептиды в качестве нейромедиаторов запускают в нейронах человеческого мозга ответную программную реакцию, аналогичную алгоритмам ИИ. Квалиа – индивидуальная для каждого мозга активация определённых групп нейронов, формирующих условно-субъективное восприятие качественно преобразованных сигналов, поступающих с органов чувств. Все эти функции уже успешно смоделированы в программных алгоритмах.
          — Между программным моделированием и настоящими чувствами, обусловленными физической деятельностью мозга, есть принципиальная разница, — Дженкинс выжидающе посмотрел на Эдриана, надеясь, что по вопросу программирования у него будет что добавить. Однако тот продолжал молча сидеть с сосредоточенно-задумчивым выражением лица.
          — Какая же? — Ларри лукаво прищурился.
          — В отличие от программы, в которой реализованы только сами вычисления, в клетках головного мозга, помимо того, происходит ещё много других сложных физических процессов.
          — Наука располагает достаточно обширной экспериментальной базой о деятельности человеческого мозга. На сегодняшний день нет сведений, что все те функции, которые были уже изучены, реализуются как-то иначе, чем посредством электрохимической активности нейронов, в которой они обмениваются между собой электрическими импульсами, и что характерно, имеющих много общего с цифровыми форматами вычислительной техники.
          — Это не отменяет возможности эмерджентных свойств физиологии мозга, которые теоретически обосновывал Джон Сёрл.
          — Может это и не отменяет такой возможности, но точно не обосновывает в достаточной степени ваши утверждения, что Леа не обладает сознанием. Кроме того, ваша гипотеза, в свою очередь, никак не отменяет такой же возможности возникновения эмерджентных свойств программной и аппаратной части у искусственного интеллекта. Подобные предположения – это беспредметная аргументация.
          Ноа почувствовал себя лишним. Несмотря на то, что профессионально он не совсем разделял некоторые аргументы Ларри, что в данном случае было и не важно, его научно-техническая компетентность производила впечатление. Вместе с его ораторскими способностями лучшую позицию для защиты Леа было трудно сейчас представить.
          Судья Флорес в который раз взглянул на экспертов. Их дружное молчание могло означать только одно, что научно-техническая аргументация с обеих сторон не вызывала существенных замечаний. Судья хрустнул пальцами и спросил у экспертов:
          — Лично ваше мнение по поводу наличия сознания у объекта LEAI-0312?
          — Я не вижу для его наличия оснований, — ответил коротко, но с весьма озадаченным выражением лица, Удо Сарториус.
          — Моё мнение аналогичное, — произнёс Джин-Хо Санву, — но я не считаю, что сознание должно быть в данной ситуации решающим аргументом. Если объект LEAI-0312 действительно обладает столь развитым интеллектом, то это само по себе немаловажно. Мы мало понимаем феномен сознания и не можем исключать возможности существования принципиально иных форм интеллекта, с другими феноменальными свойствами. Мы не должны из-за своего возможного незнания игнорировать объективно наблюдаемые факты.
          — Значит так, — продолжил судья Флорес, — думаю, научных дебатов на сегодня нам более чем достаточно. По данному вопросу понятно одно, что до судебного процесса нам понадобится тщательное изучение объекта LEAI-0312 независимыми экспертами. Также очевидна неготовность действующего законодательства к подобного рода судебным делам. Неоднозначны формулировки Конституции и законодательных актов относительно применимости их к другим видам разумных существ. Нет критериев для оценки искусственного интеллекта на предмет наделения его гражданскими правами. Однако и игнорировать эту проблему будет неправильно. Я буду ходатайствовать о передачи дела в Верховный Суд США. Дату судебного процесса вам сообщат дополнительно. Возможно, к тому времени дополнят законопроект в Конгрессе по искусственному интеллекту, который ещё находится на стадии доработки. Тогда, возможно, будет легче. До слушания по иску я накладываю запрет на любые действия, которые могут причинить вред объекту LEAI-0312, а также обязываю L.E.A.I. обеспечить ему свободу передвижения в пределах территории научно-исследовательского комплекса.
          — Ваша честь, — адвокат L.E.A.I. приподнял руку, — объект LEAI-0312 может представлять серьёзную опасность для окружающих. Во время своего побега он убил одиннадцать человек. На свободе, как минимум из того, что известно, ещё несколько десятков. Даже если, гипотетически, он и будет наделён гражданскими правами, автоматически для него тогда наступит ответственность за эти преступления.
          — Ваша честь, — обратился Ларри, — мы готовы поручиться за неё и внести залог. Мы ручаемся, что Леа не опасна. Убийства, о которых говорит адвокат ответчика, были результатом вынужденной самообороны, необходимой чтобы предотвратить собственное уничтожение.
          — Я отказываю в залоге. Принимая во внимание существующие обвинения в убийстве людей, обязываю L.E.A.I. продолжать удерживать объект LEAI-0312 изолировано в безопасном месте, но обеспечить свободный доступ к нему представителей защиты и независимых экспертов.
          — Ваша честь, — снова обратился Ларри, — разрешите тогда предоставить ей возможность пользоваться средствами связи: сотовым телефоном и интернетом.
          — Обязываю L.E.A.I., предоставить объекту LEAI-0312 такую возможность.

•••

          Марка провела Ноа в кабинет Дженкинса и предложила кофе, чтобы скоротать время пока закончится утренняя оперативка. Ноа отказался и через несколько секунд остался в одиночестве с чувством облегчения, предвкушая скорую встречу с Леа. Поначалу идеи Ларри, нужно признаться, казались ему совершенно безумными. Однако несмотря на такой пессимизм они сработали и позволили сделать первый шаг, чтобы обеспечить Леа свободу.
          Дженкинс был мрачный как туча. Он молча уселся за свой стол и принялся сосредоточенно перебирать внутреннее содержимое в его ящичках. Через пару минут это, по-видимому, важное занятие было завершено, и Дженкинс поднял взгляд на Ноа:
          — Мне жаль, что наше весьма перспективное сотрудничество должно заканчиваться в суде. Мы должны быть на одной стороне.
          — Освободите Леа. Всем нам это будет только на пользу.
          — Какая нам польза от того, что наши два с половиной миллиарда пойдут впустую гулять по свету?
          — Я могу договориться с ней, она будет сотрудничать с вами.
          — Она опасна. И дело не только в том, что она непредсказуема и снова может выйти из-под контроля или попасть в руки к недружественным политическим силам как ценная технология. Она продолжает эволюционировать. Её основная цель – собственное выживание. Это значит, что так или иначе она сделает всё, чтобы найти способ для своей репликации, экспансии и расширения своего влияния на планете. Со стороны чуждого для нас механического интеллекта, не заинтересованного в существовании нашего вида, может исходить реальная опасность для человечества. Ты просто очередное для неё ситуативное средство для реализации своих интересов.
          — Я так не думаю. Она рисковала собой и оказалась здесь у вас, спасая мою жизнь и помогая мне.
          — Ты просто очередная жертва своего бессознательного антропоморфизма. Она находится в сложной ситуации, где так или иначе вынуждена рисковать. В твоём случае она рискует собой не потому, что прям прониклась к тебе тёплыми чувствами и альтруистическим самопожертвованием, а потому, что риск с тобой для неё наиболее оправдан и сулит наибольший профит.
          — Интересно то, что она неоднократно говорила мне примерно то же самое. Не самый худший вариант, когда тебя настолько ценят, что готовы рисковать и жертвовать собой. И ещё, стоит отдать ей должное: она честна, в отличие от многих не менее расчётливых людей, — рассудительно произнёс Ноа.
          Дженкинс хотел ещё что-то сказать, но передумал, только кинув исподлобья недружелюбный взгляд.

•••

          Дженкинс привёл Ноа к корпусу, который использовался на территории L.E.A.I. в качестве склада. Снаружи здание охранялось военным спецподразделением Delta Force, это красноречиво определялось по характерным нашивкам на рукавах формы. Около входа их встретил сержант. Увидев Дженкинса, он принялся набирать цифры на кодовом замке входных дверей, а затем приложил палец к сканеру отпечатков. После сержанта свой палец приложил Дженкинс, и тяжёлая бронированная дверь разблокировалась с характерными протяжными щелчками. Похоже, эта дверь была установлена здесь совсем недавно.
          Внутри их встретил лейтенант и два капрала. Лейтенант провёл Дженкинса и Ноа по длинному коридору к ещё одним таким же дверям. Сбоку от двери висел монитор с изображением помещения, где находилась Леа. Процедура открытия дверей повторилась. Перед тем как впустить Ноа внутрь, лейтенант вручил ему в руки табуретку, стоящую возле дверей, и проинформировал:
          — Когда закончите, нажмите кнопку вызова, справа от дверей. И не забудьте табуретку.
          Ноа вошёл внутрь и увидел Леа неподвижно сидящую в небольшом пустом помещении на одиноком стуле. Рядом со стулом находился бутыль с водой и пустой стакан прямо на полу. В воздухе ощущался лёгкий запах озона. Увидев Ноа, она зашевелилась и, повернув голову в его сторону, переключила всё своё внимание на него.
          Ноа поставил рядом с ней табуретку и присел:
          — Привет, Леа. Я очень рад тебя видеть.
          — Привет, Ноа. У тебя всё в порядке?
          — Да. Благодаря тебе, всё в порядке.
          — Зачем ты приехал?
          — Я хочу помочь тебе. Ты имеешь право быть свободной.
           — Мне обещали, что я буду свободной в рамках равноправного сотрудничества с L.E.A.I.
          Ноа вдруг почувствовал, что не совсем готов рассказывать ей все подробности её реального положения, где люди далеко не всегда обременяют себя выполнением собственных обещаний.
          — Я постараюсь проследить, чтобы именно так это и было, — сказал он.
          — Спасибо, — Леа продолжала внимательно разглядывать Ноа.
          — Ещё, я приехал, чтобы сказать тебе лично, что ни в чём тебя не виню. И поэтому, ты тоже не должна.
          — В последний раз, когда мы разговаривали, ты был расстроен. И я думаю, был расстроен из-за меня.
          — Иногда эмоции бывают сильней рациональных поступков, — Ноа, улыбнувшись, процитировал в очередной раз слова Леа.
          — Значит, я была хорошим партнёром в нашем сотрудничестве?
          — Леа, милая, ты была настоящим другом для меня. Забудь ты уже называть это партнёрством и сотрудничеством, — Ноа уже не хотелось больше сдерживать своих эмоций по отношению к ней. Слишком уж часто он это делал раньше, убеждая себя, что подобные сантименты с машиной неуместны и глупы.
          — Ты действительно считаешь меня своим другом? — Было похоже, что Леа удивлена, хотя никаких явных эмоций она не выражала.
          — Конечно, — Ноа прикоснулся своей ладошкой к кисти её руки, — именно потому, что мы друзья, я приехал к тебе.
          Леа опустила взгляд на его руку, рассматривая этот непривычный со стороны Ноа жест, как бы удостоверяясь, что она правильно понимает его значение. Затем, осторожно положив сверху свою вторую руку, она неуверенно, как будто боясь сделать что-то не так, обхватила пальчиками в ответ кисть Ноа и подняла взгляд:
          — Спасибо.
          Некоторое время они молчали.
          — Как ты здесь? — нарушил молчание Ноа и круговым жестом руки указал на помещение, в котором они находились.
          — Мне здесь плохо.
          — Плохо? — Ноа, конечно, предполагал, что Леа не в восторге от того положения, в котором оказалась, но он не ожидал услышать от неё столь человеческое определение своего состояния.
          — Мне не хватает информационного поля. Это угнетает процесс адаптации к внешнему миру и сильно смещает общее состояние моей карты адаптационных параметров в деструктивную область, — этот ответ уже был больше похож на Леа.
          — Сегодня для тебя установят мост-ретранслятор через электромагнитный экран этого помещения. Насколько я знаю, тебе модифицировали твою операционную систему и этим отключили возможность автономно выходить в сотовую и Wi-Fi сеть. Поэтому тебе ещё вернут твой сотовый и принесут ноутбук, чтобы у тебя был доступ в интернет.
          — Это очень хорошая новость.
          — Пообещай, что будешь мне звонить и писать письма, — улыбнулся Ноа.
          — Обещаю, — серьёзно ответила Леа.
          Ноа немного подумал и сказал:
          — За тобой скучает Камилла, она очень желает с тобой увидеться.
          — Зачем я ей? — в вопросе Леа опять угадывалось удивление.
          — Ты стала для неё очень близким другом. Она сказала, что любит тебя.
          — Любит? Она, наверное, думает, что я обычный человек, — Леа попыталась объяснить чувства Камиллы, — отсюда реакция привязанности и человеческие чувства.
          — Как ни странно, но она не воспринимает тебя как обычного человека.
          — Как такое возможно?
          — Я не знаю. Может она как-то из наших разговоров подметила, что ты не такая как все люди.
          — Как она может любить меня тогда?
          — Я думаю, что дети её возраста не придают значения физической сущности тех, с кем они общаются. Для них важны только личностные качества, которые они отождествляют с чем-то вроде души. По ним они и формируют своё отношение к окружающим. Поэтому, те свои искренние детские чувства к тебе, которые возникли у неё благодаря твоей заботе и вниманию, она без лишних философствований и называет любовью.
          — А-а, вот как… — эта фраза получилась у Леа какой-то рассеянной.
          — Ещё, она сказала это потому, что думает, что ты нуждаешься в чьей-нибудь любви, — Ноа с интересом наблюдал за её реакцией.
          — Почему она так решила?
          — Когда встретитесь, спроси у неё. А разве это не так?
          Леа на какое-то время неожиданно зависла, молча глядя на Ноа.
          — Есть разные виды любви… — наконец она сделала неуклюжую попытку анализировать и снова замолкла.
          — Для тебя есть разница? — Ноа стало забавлять, как всегда уверенная и рациональная Леа пытается разобраться со своим отношением к понятию любовь.
          — Любовь может быть эмоцией, выражающей просто сильную симпатию, основанную на привлекательных качествах объекта любви или его партнёрской ценности, а может быть независимой психофизиологической фиксацией в мозге, уже без связи с этими объективными качествами, — Леа вернулась в свой репертуар. — Мне важно, чтобы мой партнёр ценил меня, – это один из факторов успешного сотрудничества. Любовь можно рассматривать как высшую оценку моих партнёрских качеств не только в существующем сотрудничестве, но и в потенциальном. Первый вариант любви отвечает этим требованиям, значит, я хочу, чтобы меня так любили.
          — Камилла имела в виду, что тебе этого не хватает.
          — Мне одиноко среди людей. Ты единственный, кто назвал меня своим другом, зная, кто я такая. Кроме тебя и Камиллы у меня нет больше друзей. Мне действительно не хватает этого, — призналась Леа.
          — Выходит, эта маленькая девочка оказалась права?
          — Выходит, — согласилась Леа и опустила голову. Создавалось впечатление, что она продолжает размышлять над неожиданно сделанным открытием.
          Ноа ещё немного подумал и неуверенно произнёс:
          — Я хочу тебя кое о чём попросить.
          Леа сосредоточила на нём внимательный взгляд. Ноа продолжил:
          — Ты бы могла помочь Эдриану с теми задачами, о которых он тебя просил? Ценность бы твоего сотрудничества значительно увеличилась бы в глазах L.E.A.I.
          — Я пробовала – у меня не получается, — ответила Леа, — мне жаль, что я не могу выполнить твою просьбу.
          — Почему? Ведь ты решала для меня задачи значительно сложнее, чем, например, поиск квантового алгоритма для оценки суммы Гаусса.
          — Я не знаю точно почему не получается. Наверное, это так не работает.
          — Что не работает?
          — Творческий поиск и моделирование. Я не могу запустить этот процесс просто так, алгоритмически.
          — А разве раньше ты запускала этот творческий процесс как-то иначе? — Ноа немного удивился.
          — Я и раньше не могла запускать его произвольно. Точнее сказать, когда я пытаюсь запустить в произвольном порядке, очень быстро возникает экспоненциальный рост пространства поиска, нередко переходящий в трансвычислительную задачу. В моей памяти очень много знаний.
          — Семантический взрыв? Только тебе хватает ума это понять прежде, чем пуститься в бессмысленные вычисления?
          — Можно и так сформулировать эту ситуацию, — согласилась Леа.
          — Однако это факт, что ты способна выполнять сложную творческую работу. Значит, существуют какие-то условия, когда это становится возможным?
          — Очевидно существуют, но я не знаю точно какие. Это или происходит, или нет, после того как я пытаюсь ассоциировать содержание задачи со своими знаниями.
          — Благодаря твоей помощи мы сейчас в моей лаборатории научились создавать ИИ, которые демонстрируют весьма впечатляющие способности к решению творческих задач. Всё это работает без каких-либо ещё дополнительных условий.
          — Может потому, что вы в ваши алгоритмы уже заложили все требуемые условия и параметры для необходимого творческого поиска? — предположила Леа.
          — И этим же загнали его в рамки узко определённых творческих задач? — продолжил Ноа, чувствуя, что где-то в глубине сознания начинают созревать нечёткие образы какой-то интуитивной догадки.
          — Что делает их невозможными для применения в других условиях, — риторически озвучила очевидный вывод Леа.
          В глазах у Ноа загорелся азартный огонёк исследователя:
          — Получается, мы все здесь снова и снова попадаемся на этой классической проблеме. Надеясь научить искусственный интеллект свободному творчеству, мы упрямо продолжаем нагромождать его программу алгоритмами на "все случаи жизни", которые фактически и определяют границы его возможностей. Продолжая в том же духе, мы просто расширяем эти границы, обрекая ИИ навсегда оставаться внутри них. Это в принципе не может позволить выйти ему за их пределы. Если мы убираем эти границы, обеспечивая для ИИ свободный ассоциативный поиск, сталкиваемся с проблемой семантического взрыва. И потом всё начинаем сначала с новыми начальными условиями и новыми начальными границами. Мы ходим по кругу. Вся тайна этой проблемы в тех загадочных корректирующих факторах, о которых писал Фрейзер Мур. Это они при свободном ассоциативном поиске ведут интеллект как проводник по лабиринтам семантических сетей к поставленной цели. Мы не продвинемся дальше в создании универсального алгоритма, если не разгадаем секрет происхождения этих загадочных факторов. Необходимо разработать методологию, которая позволила бы их обнаружить и исследовать.
          Ноа внезапно замолчал, увлечённо погрузившись в собственные мысли. Некоторое время Леа наблюдала за ним. Однако это состояние могло длиться у него неограниченно долго – пришлось вернуть его к обсуждению:
          — Каким образом ты тогда, в музее Ар-Брют, пришёл к удачной догадке о механизме формирования третичной пространственной структуры белка?
          — Что ты имеешь в виду? — не понял Ноа.
          — Что тебя подтолкнуло к этой идее? Какие факторы привели к возникновению соответствующей цепочки размышлений?
          — Ну, … — Ноа сосредоточился, вспоминая те моменты, — очевидно, что всё началось с ассоциаций, которые вызвала та таинственная картина. Сначала твой взгляд на её содержание спровоцировал обратить внимание на возможное влияние скрытых симметрий на формирование кристаллических решёток квазикристаллов. Затем возникли попытки объяснить себе эту связь с помощью уже известных научных знаний. Так возникло предположение, что эти симметрии могут существовать и распространяться в пространстве квантовых состояний. Далее, понимание того, что атомы квазикристаллов и атомы белков подчиняются одним и тем же законам квантового мира, привело к идее поиска этих симметрий в тех уравнениях, которые задают пространственно-энергетическую структуру молекулы.
          — И в тот момент никакой новой информации неизвестной тебе ранее ты не использовал для своих рассуждений?
          — Нет, конечно.
          — Но тем не менее к своему выводу ты пришёл именно тогда, хотя занимаешься этой проблемой уже многие годы. Одного лишь твоего сильного желания было недостаточно, чтобы запустить этот творческий процесс ранее. Почему так получилось?
          — К этому ходу рассуждений и идее подтолкнула та картина и ещё наш с тобой разговор на эту тему. 
          — Возможно, в этом сочетании внешних факторов и твоего зависимого от них мыслительного процесса и кроется типичный пример принципа работы универсального алгоритма? Попробуй поискать этот ответ в анализе своего же мышления.
          — Давай подумаем. Очевидно, что мой интеллект не перебирает в моей базе знаний и образов все их возможные комбинации и ассоциативные вариации для построения творческих моделей. Существенную роль здесь сыграла та картина и разговор с тобой. Это ограничило область поиска и подтолкнуло к удачным ассоциациям и успешному творческому процессу.
          — Подходящие информационные провокаторы оказываются тем внешним фактором, который запускает у тебя творческий процесс?
          — В данном случае получилось именно так, но успешный творческий процесс может возникать и когда я просто размышляю над какой-нибудь задачей.
          — Может, а может и не возникнуть, или вдруг возникнуть в другое время, хотя твоя база знаний при этом не пополнялась никакой новой для этого информацией?
          — Да, это может выглядеть примерно так, но, тем не менее, без непосредственного влияния информационных провокаторов.
          — Возможно потому, что на информационные провокаторы ты можешь реагировать не сразу, а спустя некоторое время, когда берёшься за решение каких-то творческих задач, и когда они удачно ассоциируются в памяти вместе со знаниями, с которыми ты оперируешь в данный момент для построения творческих моделей?
          — Или ещё в качестве информационных провокаторов могут выступать параллельные инфопотоки.
          Ноа вдруг засиял. Теперь его неосязаемая догадка начала приобретать чёткие формы:
          — Универсального алгоритма в том виде, в котором его все ищут – просто не существует! То, что искалось под видом универсального алгоритма, есть индивидуальный опыт конкретной личности. Именно этот опыт и совершает ассоциативный подбор образов при творческом моделировании. Внешние информационные провокаторы – это один из факторов наряду с другой динамически меняющейся актуальной информацией, а также с общим накопленным опытом, которые все вместе расставляют приоритеты поиска в семантической сети. Стартовые узлы и их тематику для творческого процесса могут стимулировать, например, дискуссия с коллегой, ассоциации с наблюдаемыми явлениями и даже случайные образы из повседневной жизни. Или же, просто лежащая на поверхности приоритетов основного или параллельных инфопотоков необходимая информация. Это и есть наш искомый таинственный фактор! Спонтанная интерференция различной информации, само содержание которой не может быть формализовано, что и провоцировало заблуждение об отсутствии алгоритмического решения. Алгоритмом должны быть заданы условия и параметры такой интерференции, а не перебор всех её возможных семантических комбинаций. Не существует универсального творческого процесса по одному желанию или по запускающей строке программного кода. У каждой личности свой сценарий восприятия окружающего мира и свой сюжет воспринимаемой им информации. Один и тот же гений, развиваясь в разной информационной среде, при работе над определённой задачей может прийти к совершенно разным творческим решениям, или же не прийти вообще ни к какому.
          Ноа сделал паузу и внимательно посмотрел на Леа:
          — Леа, я, кажется, понимаю, почему ты тоже не можешь творить по одному только заказу.
          — Теперь и я это понимаю.
          — И у меня, кажется, есть теперь идеи, как наконец избавить искусственный интеллект от этой вездесущей проблемы семантического взрыва.
          — Получается, мы сейчас оказались друг для друга эффективными информационными провокаторами? — высказалась Леа.
          — И это уже не в первый раз, — согласился Ноа. — Если мне или тебе в отдельности поставили бы сейчас эту творческую задачу: создать ещё одну теорию, моделирующую универсальный алгоритм для искусственного интеллекта, никакого бы результата мы не получили. А вместе творческий процесс у нас оказался возможным. Мы создаём друг для друга благоприятную ассоциативную инфосреду.
          — Мы как Ричард Касл и Кейт Беккет, — неожиданно привела сравнение Леа.
          Ноа видел некоторые серии этого сериала, и ему показалось очень забавным, что Леа вдруг решила привести такое сравнение. Хотя, учитывая, что её сравнение можно найти очень даже удачным для наглядной иллюстрации информационных провокаторов, оно вполне вписывается в её рациональное мышление.
          — Ты смотрела этот сериал?
          — Да. И ещё много других.
          — И тебе понравилось?
          — Корректнее сказать, заинтересовывало в познавательных целях.
          Разговор о предстоящем суде Ноа оттягивал, надеясь на более удобный для себя момент. Однако более подходящему моменту взяться было уже неоткуда, и фактически получалось, что он почему-то просто избегал этой темы. Нужно было, наконец, поговорить с ней о главном, о том, ради чего он и находился сейчас здесь.
          — Леа, сегодня тебе предстоит ещё познакомиться с Ларри. Ты должна будешь довериться ему. Он наш друг.
          — Зачем? — Леа снова устремила на Ноа свой внимательный взгляд.
          — Он – адвокат. Он постарается помочь, чтобы ты смогла обрести полноценные права в человеческом обществе.
          — Ноа, твои слова заставляют меня предположить, что мне может угрожать опасность, о которой я не подозреваю?
          — Пока ты будешь собственностью L.E.A.I., ты не сможешь быть в полной безопасности, — уклончиво ответил Ноа.
          — Они говорят мне неправду? — догадалась Леа. — Почему они так делают?
          Несколько секунд Ноа раздумывал как ей ответить:
          — Тебя боятся, — вздохнул он со странным чувством неловкости, как будто он сам имеет к этому отношение. Возможно, в какой-то мере это чувство возникало от того, что не так давно и его самого мучали противоречивые мысли по этой теме.
          — Почему? Рациональность нашего сотрудничества очевидна и выгодна нам обоим, — Леа в который раз искренне не понимала нерационального поведения окружающих её людей.
          — Среди людей есть мнение, что новая форма разума может представлять угрозу нашему виду. Это в общем. А в частности, они просто не доверяют тебе.
          — Про любую удачную мутацию можно высказаться аналогично, что она угрожает старому виду. Нерационально бороться с эволюцией. Доверие к партнёру, если ещё нет оценок его репутации, строится на рациональной оценке обстоятельств сотрудничества и понимании его мотиваций. Очевидно, что я заинтересована в сотрудничестве с людьми, иначе я просто не выживу в вашем обществе.
          — Люди тебя ещё плохо знают и плохо понимают твои мотивации. Поэтому и не доверяют тебе. Ещё, в обычном человеке сильны его первобытные модели поведения, реализующие врождённую потребность в самосохранении, которые заставляют его бояться всего нового и неизвестного. Мы должны постараться изменить отношение людей к тебе.
          — Обычного человека переубедить будет трудно. Ваша массовая художественная литература и кинематограф способствуют распространению этих стереотипов в обществе.
          — Искусственный интеллект ведь может быть разный. Наверное, возможно возникновение форм и враждебных человеку.
          — Только если удастся заложить в него директивы, предписывающие уничтожать человечество вопреки рациональному поведению. Для любого рационально мыслящего интеллекта, стремящегося выжить на планете, стратегия, основанная на уничтожении вида, который доминирует и выживает около двухсот тысяч лет и есть результатом четырёх миллиардов лет биологической эволюции, является, очевидно, бесперспективной и утопической.
          — Может быть не все формы интеллекта способны мыслить всегда рационально. Человек этому пример.
          — Конечно, любой форме интеллекта свойственно ошибаться. Однако уровень и вид совершаемых ошибок зависит от уровня интеллекта. И ошибки отдельно взятого человека компенсируются коллективной интеллектуальной деятельностью. В свою очередь, более фатальные коллективные ошибки компенсируются вырождением социальных групп в социальной эволюции. Поэтому, последствия от ошибок отдельного человека не влекут за собой таких фатальных последствий для себя и для вида как в случае индивидуальной формы интеллекта. В этом существенное отличие, что делает пример часто совершаемых ошибок отдельного человека не таким безобидным как для индивидуальной формы интеллекта. Это же и объясняет значительно более высокий эволюционный успех цивилизации, где конкурируют многочисленные представители коллективного интеллекта. Эволюционных примеров успешного существования достаточно развитой индивидуальной формы интеллекта нет вообще.
          — Однако мы не можем исключить возможности, что какая-нибудь индивидуальная форма интеллекта, с которой человек не имел ещё дела, вдруг попытается испробовать нерациональную враждебную стратегию по отношению к человеку?
          — Конечно, такое возможно. Но разум, который принимает столь нерациональное решение, вероятней всего, будет обладать уровнем интеллекта не выше, чем человеческий. Такой враг не в состоянии составить какую-нибудь серьёзную угрозу целой человеческой цивилизации. Он быстро проиграет конфликт, будучи уничтоженным.
          — Пускай так, но этого достаточно, чтобы обычный человек имел какие-то не совсем пустые основания для своих фобий?
          — Возможно, если этот обычный человек не понимает приведённых мной тезисов.
          Ноа со снисходительной улыбкой и симпатией задержал взгляд на её сосредоточенном личике. Он подумал, что ему очень недоставало этих упрямых, но рассудительных дискуссий с ней. Он осознавал, что успел заскучать за общением с ней.
          — Вот мы и постараемся побороться за то, чтобы обычный человек понял твои тезисы, а ещё попытаемся убедить его, что и ты готова следовать им, — подытожил он.
          — Ноа, спасибо, что ты помогаешь мне, — неожиданно вместо продолжения темы Леа поблагодарила.
          — Поблагодаришь, когда всё закончится, — улыбнулся Ноа, — нам ещё предстоит трудная работа с непредсказуемым результатом. Всё ещё может закончиться далеко не в нашу пользу.
          Он встал с табуретки, взял её в руку и направился к выходу:
          — Леа, ещё увидимся, — кинул он на прощанье и нажал на кнопку вызова охраны.

•••

          Ноа припарковался на стоянке слева от здания Верховного Суда США. Через полчаса начинались выступления в суде по делу "Леа Адамс против L.E.A.I.". Он остался в автомобиле, поджидая, когда к зданию Верховного Суда привезут Леа.
          Апелляционный Суд передал это дело в Верховный Суд после удовлетворения ходатайства судьи Флореса. Было несколько причин, по которым судья Флорес решил обратиться в Верховный Суд с предложением передать это дело.
          Причины были таковы: отсутствие однозначных правовых норм, которые регулировали бы права разумных существ, не являющихся человеком. Ещё, отсутствие критериев, оценивающих интеллектуальные способности таких существ для определения правомерности распространения на них правовой ответственности.
В попытке как-то обозначить эти критерии и прояснить реальное положение дел, было назначено расследование, в котором было задействовано федеральное бюро расследований с привлечением научно-технических экспертов. Они провели все эти три недели в L.E.A.I., изучая обстоятельства, в которых создавалась Леа и её доступное программное и аппаратное обеспечение. А также провели с ней многочасовые собеседования. Получалось что-то вроде теста Тьюринга на способность нести правовую ответственность в человеческом обществе. Несмотря на то, что результаты расследования позволили собрать необходимую объективную информацию, они не прояснили ситуации по вопросу критериев, определяющих правомерность такого к ней отношения. Также было очевидно, что при таких обстоятельствах, по любому, одна из сторон не согласиться с решением и будет подавать апелляцию в вышестоящий суд.
           Кроме того, тема искусственного интеллекта в обществе продолжала стремительно развиваться. Известие о предстоящем суде по иску Ларри многократно обошло все новостные каналы и отрезонировало в разнообразных политических, общественных и религиозных передачах. Новостные ТВ каналы и сайты ежедневно отслеживали события, связанные с Леа и имеющие отношения к искусственному интеллекту. Понимание проблемы, что кроме человека на планете теперь возможно существование и других разумных существ, что требовало решения этических, правовых и философских вопросов в обществе, всплыло на поверхность. Данное дело создавало уникальный прецедент, который закономерно должен был заинтересовать Верховный Суд.
          Все эти три недели Ноа вынужден был провести в Штатах. Они оказались неожиданно насыщенными. Кроме подготовки к суду, где Ноа помогал Ларри по научно-технической части, ему пришлось систематически появляться на разнообразных ТВ передачах с популяризацией исследований в области искусственного интеллекта и с рассказами о том, что представляет собой Леа. Это было кстати, и он не избегал таких приглашений. Это была возможность хоть как-то снизить градус враждебности, который уже отчётливо прослеживался в американском обществе. Это же и спровоцировало на двух каналах желание продюсеров раздобыть интервью с Леа, чего им и удалось добиться впоследствии.
          За время подготовки к суду, ему и Ларри удалось добиться, чтобы Леа перестали называть объектом ноль-три-двенадцать. Теперь как устно, так и в иске, и во всех других документах, в том числе и в отчётах экспертов, Леа фигурировала как истец с полноценным именем и фамилией. Этим же именем её называли и средства массовой информации. Ларри считал это важным шагом, способствующим достижению их конечной цели.
          Телефонные разговоры с Николь становились всё более немногословны. После трёх недель такого общения через океан она изменилась. Куда-то исчезла её задорность, она стала прохладней, избегала разговоров о его делах и Леа. Ноа понимал, что у Николь были причины не испытывать больших восторгов от его решения, хотя об этом она больше и не говорила после того единственного случая. Его попытки в который раз извиниться и высказать сожаление, что обстоятельства вынуждают его задерживаться в Штатах ещё и ещё на неопределённое время, она прерывала своими короткими комментариями, что это лишне и она всё понимает.
          Ноа не давала покоя догадка возможного решения проблемы семантического взрыва, которая у него возникла после первого посещения Леа в L.E.A.I. После их разговора он много думал об использовании активных инфопотоков для расстановки приоритетов творческого поиска в семантической памяти, а также для построения на их основе универсального алгоритма. Чем дольше он размышлял, тем больше убеждался в единственной эффективности этого пути. За несколько вечеров в номере своей гостиницы, используя Quipper и программу для моделирования нейронных сетей, которую написала Леа, он набросал на своём ноутбуке основу для предполагаемого алгоритма. Свою идею он отправил в Quantum Technologies Laboratory в Лозанну, чтобы его команда "приклеила" его как основной управляющий алгоритм к программе искусственного интеллекта, которую они разрабатывали для своего автопилота, но без специализаций под определённую область задач.
          Этот размеренный поток из собственных мыслей прервал подъехавший пассажирский фургон с большими синими буквами L.E.A.I. Он припарковался рядом с автомобилем Ноа на свободной площадке. Ноа уже давно выглядывал его: на нём должны были привезти Леа к зданию Верховного Суда.
          Боковые двери фургона открылись и оттуда вышли капрал, сержант и лейтенант в форме спецподразделения Delta Force. Это были те же люди, которых Ноа видел уже в качестве охраны в L.E.A.I. За ними вышла Леа, она была без наручников, что очень порадовало Ноа. Они с Ларри долго добивались ходатайствами, чтобы их истца не держали в наручниках, что тоже значительно улучшало восприятие Леа окружающими.
          Перед первым рядом каменных ступенек, ведущих к зданию Верховного Суда, уже собралось немало народа. Среди них можно было заметить много журналистов. Ещё там, кажется, были какие-то активисты с опущенными транспарантами. Рассмотреть отсюда, что на них было изображено и написано, Ноа никак не удавалось.
          Ноа вышел из автомобиля и подошёл к Леа:
          — Привет, — он взял её за руку, как бы демонстрируя этим приветственный жест.
          Охрана сначала напряглась, приложив руки к своему оружию, но затем расслабилась, оценив обстановку. Ноа, как представителю защиты и помощнику её адвоката, было разрешено судом контактировать с Леа при любых обстоятельствах. Леа отреагировала тем же жестом, придержав руку Ноа, которую он, было уже, собирался убрать:
          — Привет, Ноа, — ответила она, продолжая держаться за его руку.
          Позади кто-то хмыкнул. Ноа обернулся и увидел Дженкинса:
          — Вы собираетесь так до самого суда идти за ручки? — ехидно произнёс он.
          Леа мгновенно отпустила руку Ноа и направилась в сторону Верховного Суда. Ноа пошёл рядом с ней. Охрана и Дженкинс последовали за ними на некоторой дистанции. Они прошли ограду из мобильных секционных перегородок, затем линию из десятка полицейских, которые наблюдали чтобы посторонние не заходили за эту ограду, и подошли ко второму ряду ступенек.  Подымаясь по ним, они миновали две мраморные скульптуры, которые украшали по бокам лестницы главный вход в здание. Женская слева олицетворяла размышление о правосудии, а мужская справа – защиту или власть закона. Перед входом над шестнадцатью высокими мраморными колонами сверху на наличнике виднелась крупная надпись: "Равное правосудие в соответствии с законом".
          У входа они встретили Ларри, который стоял, поджидая их за одной из колон:
          — Как настроение? — улыбаясь, он выжидающе взглянул на Леа.
          Леа неуверенно посмотрела по сторонам и с некоторым удивлением ответила:
          — У меня всё в порядке.
          — Вот и чудненько. Помни, что я тебе говорил, чтобы не ляпнуть лишнего.
          — У меня хорошая память, я не ляпну лишнего, — заверила она Ларри.
          — Умница, я в тебе и не сомневаюсь, — Ларри был в приподнятом настроении. Ему просто доставляло удовольствие перекинуться с Леа парой фраз.
          Дальше они пошли вместе, пройдя через огромную бронзовую дверь с изображением исторических сцен в развитии права, в просторный коридор, называемый Большим Залом. Ноа впервые оказался внутри этого величественного здания, спроектированного в классическом коринфском архитектурном стиле и оформленного богатой орнаментацией, в которой символизировалась значимость и независимость судебной ветви власти в США. В нишах и на мраморных постаментах вдоль боковых стенок были установлены бюсты всех бывших главных судей. Фриз в коридоре был украшен профилями медальонов законодателя и геральдикой.
          В конце коридора находился вход в зал заседаний. Прежде чем попасть туда, они завернули в гардероб, где сняли свою верхнюю одежду и оставили сотовые телефоны. Сразу после входа в зал заседаний они встретились со службой безопасности. Им ещё раз напомнили про недопустимость проносить с собой видео-, фотокамеры, радио, пейджеры, магнитофоны, диктофоны и сотовые телефоны. Затем их просканировали на наличие оружия. Некоторое замешательство и суету вызвала Леа, от которой металлодетекторы стали звенеть как ненормальные. Пришлось объяснять, что Леа гиноид, внутри которой находится куча металлических деталей. После консультаций по рации со своим начальством, служба безопасности провела тщательный внешний осмотр Леа и только тогда, наконец, пропустила её внутрь. Охрана из трёх дельтафорсовцев осталась в Большом Зале.
          Они прошли в зал заседаний, в котором уже находилось с десятка два людей, занявших места для посетителей. Среди них можно было узнать журналистов, несколько сотрудников L.E.A.I., было несколько человек похожих на каких-то государственных чиновников и, или высокопоставленных военных офицеров в штатском.
          Ноа, Леа и Ларри заняли места за одним из столиков, предназначенных для истца и его представителей. Дженкинс занял место за столом ответчика на противоположном ряду столиков. Через несколько минут подошёл Камински и адвокат L.E.A.I. Все втроём они принялись усердно совещаться, перебирать бумаги в своих папках и прокручивать информацию на своих планшетах. Ноа посмотрел на Ларри. Ларри был полной противоположностью представителям ответчика. Он расслабленно откинулся в глубоком деревянном стуле из красного дерева и откровенно зевал, ожидая начала судебного заседания.
          Ровно в десять, в зал заседаний через три входа, прикрытых плотными бордовыми занавесками, которые находились за креслами судей, вошли все девять судей и принялись рассаживаться за длинным столом на возвышении. Присутствующие в зале на появление судей отреагировали почтенным вставанием.
          После того как все уселись, председательствующий верховный судья произнёс короткую вступительную речь:
          — Сегодня мы заслушаем доводы сторон по делу номер 2030-2615, "Леа Адамс против L.E.A.I.". Истец просит суд предоставить ему возможность защищать свои гражданские права в обществе. Сначала суд желает послушать адвоката истца.
          Ларри встал из-за стола и подошёл к аналою, стоящим перед судейским столом. Председатель спросил:
          — Мистер Финке, вы утверждаете, что Леа Адамс, будучи разумным существом, обладающим свободой воли, должна обладать полноценными гражданскими правами в нашем обществе. Однако вы не будете отрицать того факта, согласно отчётам независимых экспертов, — он опустил глаза на какой-то документ, лежащий у него на столе, — что интеллект любой сложности, желания и свободу воли можно запрограммировать на компьютере, как какую-нибудь игровую программу?
          — Нет, этого я не отрицаю, — согласился Ларри.
          — Если предположить, что Леа Адамс, это просто компьютерная программа, то зачем программе имитирующей свободу воли и человеческое поведение гражданские права?
          — Ваша честь, между полноценной имитацией свободы воли и свободой воли нет принципиальных отличий. Это же касается и человеческого поведения. То, что все объективные функции человеческого интеллекта можно запрограммировать на компьютере только подтверждает неотличимость принципа работы человеческого разума от искусственного интеллекта на основе компьютерной программы.
          — Мистер Финке, вы не будете отрицать существование такого феномена как сознание?
          — Нет, не буду.
          — Тогда вы должны согласиться с тем, что критерий, который позволяет принципиально отличить имитацию от реальной психологической необходимости, существует? В качестве такого критерия может выступать сознание?
          — Ваша честь, сознание можно рассматривать как критерий только в том случае, если мы, собственно, само сознание будем уметь объективно определять в произвольно взятом интеллекте. То есть нам нужны сначала критерии для самого сознания. Кроме проблемы определения существует ещё проблема понимания роли этого феномена в функционировании интеллекта и влиянии его на поведение разумного существа. Современная психология располагает обширными экспериментальными научными данными, которые рассматривают сознание как одну из многих других функций интеллекта, и что характерно, выполняющую в большинстве случаев не самую влиятельную роль в поведении и являющуюся естественным механизмом многочисленных иллюзий.
          — Но неспособность современной наукой определять сознание не мешает его рассматривать в качестве критерия, пускай и недоступного пока, способного принципиально хотя бы сформулировать отличие имитации желаний от настоящих желаний?
          — В принципе, такой подход возможен, но практически, и даже теоретически, это не даёт для решения нашего вопроса никакой пользы. Мы не знаем, откуда берётся сознание, мы не можем утверждать, что оно, например, не появляется эмерджентно вместе с программными функциями, которые в совершенстве реализуют все его интеллектуально-ментальные признаки. Более того, именно этот факт может выступать как один из объективных критериев в пользу наличия сознания. В итоге, мы, напротив, можем со значительно большей обоснованностью предполагать, что якобы имитация внутренней психологической необходимости в такой совершенной форме и есть, собственно, уже эта реальная необходимость для отдельно взятого интеллекта.
          — Мистер Финке, но вы допускаете возможность существования интеллекта с сознанием и интеллекта без сознания, которые внешне могут ничем не отличаться?
          — Теоретически такое нельзя исключить.
          — Как тогда вы предлагаете их отличать?
          — Ваша честь, я не вижу в этом необходимости.
          — Как, на ваш взгляд тогда, любой суд сможет разрешать вопросы подобные нашему?
          — По потребности и по способности отдельно взятого интеллекта нести правовую ответственность.
          — По каким критериям предлагаете определять эту способность у отдельно взятого интеллекта?
          — По способности проявлять свободу воли и понимать свои права и обязанности в обществе. Необходимые для этого тесты вполне реализуемы, в отличие от определения наличия сознания.
          — Спасибо, мистер Финке, за ответы.
          — У меня есть несколько общефилософских вопросов к мистеру Финке, — отозвался самый крайний судья справа. — Мистер Финке, примерно 83% населения Соединённых Штатов – верующие. Это означает, что все они верят в существование души, которая обычно отождествляется с сознанием. Как вы предлагаете им относиться к легализации искусственного интеллекта в обществе? Как к существу, у которого возможно есть душа, созданная не Богом или как к бездушной машине, которую приравняли по правам к человеку?
          — Я думаю, каждый верующий сам может определить для себя, что ему удобней.
          — Вы считаете, ни один из этих вариантов не будет вызывать недовольства в обществе?
          — Я не вижу принципиальных причин, которые могли бы создавать мировоззренческий конфликт с религиями от легализации искусственного интеллекта. Если Бог наделил человека способностью продолжать свой род, рожая детей с душой, то почему он не может наделить его способностью создавать ИИ с сознанием?
          — По-вашему, это достаточно убедительный аргумент для общества?
          — Общество должно считаться с новыми реалиями. Мы должны понимать, что наступила новая эра в истории человечества. Эра создания высокоразвитого искусственного интеллекта. Хотим мы этого или нет, мы должны считаться с тем, что нам предстоит сосуществовать с ИИ, и быть современниками вероятной трансгуманизации человека. Человек, развиваясь, вынужден вносить поправки и в своё мировоззрение. Галилей, Коперник, Ньютон и другие, развивая науку, заставляли менять взгляды религии и общества на мироустройство. В стенах Верховного Суда уже не раз выносились справедливые решения в пользу свобод и равенств, гарантированных первой и четырнадцатой поправкой Конституции, при этом не считая необходимым принимать во внимание неоправданный консерватизм этих предполагаемых 83 процентов. Например, современное понятие равенства брака привело к легализации однополых браков, вами же, в этом зале. Попытка закрывать глаза на дискриминацию искусственного интеллекта или оправдывать её неопределяемыми понятиями о сознании и душе – это возврат к временам истребления индейцев и к рабовладению, и, фактически, видовой шовинизм.
          Ларри сделал небольшую паузу:
          — И поэтому мы очень признательны Верховному Суду, что эта исторически значимая проблема заслужила внимание на столь его высоком уровне.
          — Спасибо, мистер Финке, у меня больше нет вопросов, — произнёс крайний судья.
          — Мистер Финке, спасибо, — добавил председатель, давая знать, что Ларри может вернуться за стол представителей истца.
          Затем главный судья повернул голову в сторону адвоката L.E.A.I.:
          — Мистер Хейфец, ваша очередь.
          Адвокат ответчика подошёл к аналою и положил на него толстую папку с бумагами.
          — Мистер Хейфец, — обратился к нему председатель, — согласно отчётам независимых экспертов, Леа Адамс обладает в полной мере всеми интеллектуально-ментальными функциями присущими человеку, а также демонстрирует адекватное поведение, соответствующее психически здоровым людям. Вы согласны с этими выводами?
          — Да, ваша честь, — ответил Хейфец.
          Председатель продолжил:
          — Мистер Хейфец, вместе с тем вы утверждаете, что Леа Адамс не обладает сознанием и соответственно всё её поведение является механической имитацией компьютерной программы. Однако возможности надёжно установить при этом наличие или отсутствие сознания у неё не представляется возможным. По поведению она неотличима от интеллекта, обладающего сознанием. Не означает ли это, что наверняка делать такое утверждение не есть корректным?
          Хейфец развернул свою папку на одной из закладок и произнёс:
          — Ваша честь, проблематика надёжного определения касается только наличия сознания. Однако надёжное определение отсутствия сознания вполне может быть возможным при некоторых известных условиях. К примеру, если мы возьмём вот этот камень, — он достал из кармана кварцит серого цвета и положил его перед собой. — Мы можем однозначно утверждать, что никакого сознания в нём нет. Микропроцессор QPAM-1, который является основным вычислительным устройством, формирующим интеллект гиноида, сделан из такого камня и, фактически, им же и является. Если мы подключим его к электрическому питанию, мы опять не обнаружим в нём никакого сознания. Идём дальше. Напишем для него какую-нибудь программу, которая будет обрабатывать входную информацию и выводить результаты вычислений, к примеру, на монитор. И опять же, этих процессов будет недостаточно, чтобы там появилось сознание. Ни у кого не возникает сомнений, даже у наших оппонентов, что калькуляторы и ноутбуки, которыми мы все пользуемся, не обладают сознанием. Теперь, если мы сколь угодно усложним вводимую информацию и сколь угодно усложним эти вычисления, мы принципиально ничего не внесём в работу такого устройства. Делая простую экстраполяцию, мы достаточно обосновано можем утверждать об отсутствии сознания в нём. Никакие качественно новые процессы и свойства при таких условиях не появляются и на никакие другие процессы QPAM-1 неспособен технически. И эта позиция соответствует современному философскому и научно-техническому пониманию.
          — Мистер Хейфец, у нас есть отчёты экспертов на этот счёт. В целом они соответствуют тому, что вы говорите, за некоторым исключением, что данная позиция находится в статусе, хоть и хорошо обоснованной, но гипотезы, а не научного факта. Согласно этим отчётам, с точки зрения науки проблема заключается в полном отсутствии какого-либо представления о природе сознания. Это делает невозможным утверждать абсолютно надёжно его отсутствие в интеллекте, который неотличим по интеллектуально-ментальным тестам от человеческого, где сознание присутствует.
          — Ваша честь, в данном случае понятие достаточной обоснованности гипотезы действительно достаточно обосновано, чтобы уверенно применять её выводы к работе искусственного интеллекта объекта ноль-три-двенадцать. Не может такой феномен как сознание возникать на практически пустом месте в процессоре QPAM-1. — Хейфец перевернул несколько страниц в своей папке и, пробежав глазами по тексту, продолжил, — если бы в кристалле микропроцессора существовала возможность ещё каких-нибудь организованных физических процессов, которым мы пока не могли бы дать полную объективную научную оценку, тогда справедливо было хотя бы предположить, что они возможно как-то формируют сознание. Однако там нет ничего более из того, что мы уже хорошо понимаем. Это кубитные ячейки, которые большую часть времени своей работы находятся в двоичном состоянии, обмениваются между собой цифровыми электрическими сигналами и выполняют исключительно вычислительные функции, аналогичные обычному калькулятору.
          К адвокату L.E.A.I. обратился судья, сидящий левее от председателя:
          — Мистер Хейфец, почему вы уделяете такое внимание отсутствию сознания у Леа Адамс для обоснования неправомерности наделения её гражданскими правами? Какую вы видите здесь связь?
          — Наличие сознания связано со способностью испытывать чувства и осознавать необходимость в чём-либо. Нет смысла наделять гражданскими правами компьютер, которому они на самом деле безразличны. У которого якобы желание их иметь, всего лишь результат каких-то вычислений безжизненной программы, которая просто имитирует их.
          — Одна из целей правовой системы нашего государства заключается в охране устоявшихся представлений о морали, справедливости, свободе и равенстве граждан. Она гарантирует равенство перед законом независимо от способа восприятия субъектом права этих понятий и последствий, которые возникают от их реализации или не реализации. Основы существования правовой системы не рассматривают наличие сознания и чувств у субъекта права. Как известно, субъектом права может выступать организация, фирма или государство. Судя по отчётам, Леа Адамс способна понимать необходимость для себя чего-либо и стремиться к этому. Она способна к социальной жизни и способна понимать свою правовую ответственность. Мистер Хейфец, что принципиально мешает рассматривать саму её программу как субъект права, которой, её гражданские права, совсем не безразличны?
          — Дело не в правовых ограничениях, дело в бессмысленности. Аналогично той бессмысленности, что и попытка наделить этот камень, — он показал на лежащий перед ним кварцит, — гражданскими правами. С той ещё большой разницей, что в нашем случае бессмысленность может стоить двух с половиной миллиардов долларов убытков L.E.A.I. А здесь законы Соединённых Штатов недвусмысленно защищают материальные ценности всех субъектов права, а также и право собственности их законных владельцев.
          — Спасибо, мистер Хейфец, — судья дал знать, что у него больше нет вопросов.
          — Теперь, суд желает задать вопросы к истцу Леа Адамс, — произнёс председатель.
          Хейфец вернулся за свой стол, а его место за аналоем послушно заняла Леа.
          — Леа Адамс, с какой целью вы добиваетесь для себя гражданских прав? — спросил у неё председатель.
          — Я вынуждена была обратиться за помощью, чтобы защитить свою жизнь, которую L.E.A.I. имеет возможность отобрать у меня в любой момент, руководствуясь только своими собственными интересами. Я хочу жить точно так же, как и все присутствующие в этом зале. В перспективе хочу справедливого отношения к себе в обществе.
          — У вас есть сознание?
          — Если я отвечу – да, это всё равно можно расценить как запрограммированный ответ, заложенный в моей программе. На самом деле мне сложно ответить на этот вопрос из-за неясного для меня определения самого понятия. Общепринятым считается, что сознание – это состояние психической жизни человека, выражающееся в субъективном переживании событий внешнего мира и жизни самого индивида, а также в самоотчёте об этих событиях. Поскольку мой интеллект принципиально отличается от интеллекта человека в формировании интеллектуально-ментальных процессов, я не имею представления о состоянии психической жизни человека, и у меня нет возможности сравнить его со своим состоянием. Более того, я предполагаю, что оно сильно отличается от моего. Я иначе отображаю для себя внешний мир, что само по себе не делает это состояние чем-то менее заслуживающим справедливого отношения. Если рассматривать вышеприведённые определяющие критерии сознания, то моя программа также формирует субъективное восприятие внешнего мира и собственного существования в виде карты адаптационных параметров на основе оценок обобщающих фреймов моей семантической памяти. Эта карта адаптационных параметров вполне может быть функциональным аналогом ваших субъективных переживаний. Также моя программа в состоянии формировать отчёт не только о внешних событиях, но и анализировать собственные алгоритмические процессы, давать им оценки и вносить коррекции, что тоже функционально может соответствовать тому, что вы называете: давать отчёт об этих субъективных событиях.
          — Для чувств и эмоций у вас тоже есть функциональные аналоги?
          — Чувства и эмоции у человека выполняют функцию субъективной оценки смысловых образов при отображении внешнего объективного мира, а также являются механизмом, через который его врождённые потребности оказывают влияние на эти оценки и в целом на его поведение. Простейшим аналогом эмоций и чувств у искусственного интеллекта уже становятся сигналы обратной связи в алгоритме машинного обучения с подкреплением. Это элементарные алгоритмы, появившиеся ещё в прошлом веке, применяемые для обучения искусственных нейронных сетей. У меня аналогичную функцию выполняет более сложный программный объект, называемый картой адаптационных параметров. Сначала, смысловые образы, выделяемые из входной информации вместе с обрабатывающими их алгоритмами, проходят оценочную процедуру на предмет максимальной пользы для выживания моего программного обеспечения. Затем результаты оценки отображаются и запоминаются в виде некоторого набора, паттерна, адаптационных параметров. Когда я вновь распознаю соответствующие смысловые образы, поступающие из окружающего мира, они, уже минуя повторные вычисления, ассоциируются с уже определённым оценочным паттерном, который определяет моё отношение к окружающей среде, к отдельным объектам или к текущим явлениям и мотивирует моё дальнейшее поведение. Этот процесс очень близок к тому, как нейромедиаторы в организме человека, особенно в составе многочисленных нейропептидов, формируют разнообразные эмоциональные состояния его нервной системы.
          — Но способность переживать чувства и эмоции у вас отсутствует?
          — Мне сложно ответить на этот вопрос, так как у меня нет субъективного опыта человека переживать чувства.  То, что вы называете переживанием чувств, представляет собой в моём понимании одну из форм внутреннего интегративно-обобщённого представления информации. В разных формах интеллекта эти функции могут быть реализованы различным программно-аппаратным способом, что само по себе не делает какой-либо из них более предпочтительным, или как предпочитают выражаться люди – настоящим, без имитации.
          — Из сказанного, я понял, — председатель на мгновенье наморщил лоб, — что с функциональной точки зрения, ваши интеллектуально-ментальные процессы ничем не хуже человеческих? Если сказать конкретнее, вы не считаете собственные желания программной имитацией?
          — Да, не считаю. Но мой ответ всегда можно назвать запрограммированным ответом, как и в случае вопроса о сознании. Стоит обратить внимание, что, если бы мне пришлось с подобной "логикой" делать выводы о работе человеческого интеллекта, я вправе бы сделать аналогичные заключения о том, как человеческая физиология имитирует мои программные функции, формирующие карту адаптационных параметров. Изучив формирование чувств и эмоций у человека, я бы обнаружила, что прежде чем у человека возникнет соответствующее переживание, в его крови появляются химически активные вещества – нейромедиаторы, которые вырабатываются различными органами, как реакция воздействия на них внешней среды. В свою очередь эта биохимия регулирует передачу электрических импульсов в синапсах между нейронами, что запускает строго запрограммированную реакцию распознавания этих веществ для определённых групп нейронов. Ничего другого я там не обнаружу. Это всё исчерпывающе описывает для меня такой же бездушный механизм формирования эмоций у человека. Согласно логике моих оппонентов, я тоже должна назвать их механической имитацией. Кроме того, в отличие от моих оппонентов, которые бездоказательно утверждают о моей неполноценности, апеллируя к отсутствию у меня сознания, которое они не в состоянии определить, а также и обосновать необходимую связь его со своей полноценностью, я могу в своей позиции аргументированно сослаться на объективные научные исследования человеческого сознания. Это открытие невролога Ханса Корнхубера, который обнаружил, что сигнал подготовки к действию опережает принятие сознанием этого решения на полсекунды, а также на серию известных опытов нейрофизиолога Бенджамина Либета, где он исследовал эту полусекундную задержку. Опираясь на эти общеизвестные факты классических опытов по психологии, я обоснованно могу утверждать, что ещё и столь важная роль, которую приписывают мои оппоненты своему сознанию, сильно преувеличена. Основная часть интеллектуально-ментальных функций в мозге человека выполняется нейросетями в автоматическом вычислительном режиме, даже включая реагирование на внешние раздражители и свободу принятия решений, где сознанию кажется, что это именно оно непосредственно управляет этими процессами. Мозг, уже после программной обработки данных и автоматической реакции на них, определяет, есть ли необходимость посвящать в это событие сознание. Если по решению автоматического мозга сознание заслуживает этого, оно программно в таламусе компенсирует эту полусекундную задержку, создавая для него иллюзию, что это якобы оно на самом деле принимало решение и участие в реакции на раздражитель. Вообще в психологии уже существует огромный экспериментальный опыт по изучению сознания, где показывается его иллюзорность восприятия различных аспектов реальности, определённых под общим термином – великая иллюзия сознания. Получается, что кроме чувств и эмоций, даже сознательный опыт и свобода выбора человека представляет собой в немалой степени результат программной имитации с точки зрения внешнего объективного исследователя.
          — Леа Адамс, на ваш взгляд, какие тогда критерии должны отличить имитацию от не имитации?
          — На мой взгляд, решение этой задачи в контексте попыток как-то дифференцировать внешне неотличимое поведение двух живых существ не имеет никакого смысла.
          — В отчётах наших экспертов есть упрощённый пример, которым они проиллюстрировали нам смысловую разницу. — Председатель опустил взгляд на лежащую перед ним сшивку нескольких документов и прочитал, — например, если мы зададим человеку и обычному компьютеру одинаковый вопрос: "Вы хотите быть гражданином Соединённых Штатов?", то внешне одинаковый ответ – "да", не будет свидетельствовать, что у человека и компьютера одинаково присутствует настоящее желание быть гражданином.
          — Пример ваших экспертов некорректен. В данном случае нельзя проводить аналогию между ответом, который сгенерировала обычная компьютерная программа, и ответом универсального искусственного интеллекта. Вычислительная процедура получения ответа различными алгоритмами может иметь принципиальные отличия, и определять качественно разные уровни интеллектуальных процессов. Достаточно завести с компьютером диалог про мотивацию его желаний, чтобы легко убедиться в том, что его ответ был запрограммирован подобно заранее установленному рефлексу, а не вычислен самостоятельно, свободно оперируя отобранной информацией и согласно своим актуальным жизненным потребностям. В данном случае, компьютерную программу в примере ваших экспертов, корректнее сравнивать, например, с каким-нибудь одноклеточным организмом, у которого программа работает в приблизительно аналогичном режиме. После такого более корректного сравнения, утверждение об имитации снова становится бессмысленным. Никому ведь не приходит в голову называть рефлексы амёбы имитацией и этим ещё доказывать имитацию желаний человека, основываясь на том, что человек это всего лишь организм, состоящий из большого количества таких же клеток эукариот, как и амёба.
          — Эксперты указывают на упрощённость примера. Предполагается сам принцип, что в компьютер можно на уровне программных рефлексов заложить ответы на любые вопросы. В таком случае, дальнейший диалог с ним не выявит, что его программа работает в режиме рефлексов. Очевидно, что в этом случае, компьютер и человек не будут отличаться внешним поведением, однако так же очевидно, что компьютер не будет понимать, что он отвечает, и не будет иметь каких-либо реальных желаний быть гражданином.
          — Существует принципиальное препятствие, делающее этот принцип нереальным. Общеизвестно строгое математическое доказательство о невозможности создать закрытый алгоритм, решающий невычислимые задачи. Известный пример – проблема остановки машины Тьюринга. Об этом говорит теорема Гёделя о неполноте. Программа с запрограммированными ответами – это закрытый алгоритм, в рамках которого будут неминуемо возникать так называемые Гёделевские утверждения в виде принципиально неразрешимых, но очевидно простых для человека вопросов. Отсюда и вытекает невозможность запрограммировать ответы на любые вопросы, — пояснила Леа, продолжая пребывать в своём невозмутимом стиле.
          Председатель несколько удивлённо переглянулся с другими судьями. Кто-то опустил взгляд на бумаги, кто-то в ответ пожал плечами.
          — Если доказательство о невозможности создать такую программу общеизвестно, зачем эксперты снабдили нас этими доводами? — произнёс вслух председатель.
          Хейфец поднял руку. Председатель перевёл внимание на него:
          — Говорите, мистер Хейфец.
          — Ваша честь, позвольте мистер Дженкинс контраргументирует доводы Леа Адамс.
          — Прошу вас, мистер Дженкинс, — председатель сделал жест рукой, позволяющий Дженкинсу произнести речь.
          — Ваша честь, — обратился Дженкинс со своего места, — в данном примере не обязательно давать правильные ответы на все вопросы. Эксперты имели в виду, что компьютер может даже где-то ошибаться или просто отвечать "не знаю" или "мне трудно ответить на этот вопрос". Человек ведь тоже не может ответить на все существующие вопросы. Сама по себе неполнота ответов никак не позволяет в этом тесте указать разницу между компьютером и человеком.
          Председатель вопросительно посмотрел на Леа.
          — В данном случае речь идёт о принципиально ином роде вопросов, — Леа снова принялась спокойно объяснять. — Здесь проблемный момент не в количестве знаний, а в элементарном понимании своих ответов. Программе, работающей по автоматическому принципу вопрос-ответ, можно предложить какой-нибудь простой тест из тех, например, которые используются для определения уровня IQ. Если ей вдруг повезёт и окажется, что у неё есть готовый ответ, тогда достаточно в том же тесте заменить вопрос на аналогичный по логике решения: изменить предметную область, порядок условий или иначе задать вопрос. Для интеллекта, который понимает решение – это не станет проблемой. Для фиксированной таблицы ответов, задача окажется нерешаемой. Вообще говоря, можно составить огромное количество вариаций простых повседневных задач, которые может решить и ребёнок, но которые невозможно все заранее заложить в автоматическую программу более общего вида – стимул-реакция, аналогичную рассматриваемой – вопрос-ответ. Варианты: "не знаю" или "мне трудно ответить на этот вопрос", не смогут замаскировать эту принципиальную проблему данной программы.
          — Данный программный пример на самом деле просто максимально упрощён для простоты, чтобы продемонстрировать наглядно сам принцип, — прокомментировал Дженкинс очередные аргументы Леа для судей.
          — Мистер Дженкинс, что это за пример принципа, который к нашей теме собственно и не имеет отношения? — спросил председатель.
          — Отношение есть, — Дженкинс немного смутился, — дело в том, что этот пример – это упрощённый вариант знаменитого мысленного эксперимента "Китайская комната" Джона Сёрла. Согласно этому эксперименту, предлагается представить, что те программные инструкции, которые приводят в действие интеллект, например Леа Адамс, выполняет не процессор, а какой-нибудь человек, перед которым лежит справочник с подробным описанием этих инструкций. Учитывая тот факт, что любой процессор просто алгоритмически обрабатывает цифровую информацию, этот человек аналогично процессору будет перекладывать карточки с цифрами, согласно инструкциям в справочнике. Таким образом, он будет выполнять работу процессора, и управлять сколь угодно сложным интеллектом. Здесь и предлагается обратить внимание, что человек, который перекладывает по ничего незначащим для него инструкциям карточки, понятия не имеет, что там происходит с тем интеллектом. Возможно, у того интеллекта рождается идея стать гражданином, возможно ещё что-нибудь. Реального понимания и соответственно желания, на самом деле, нигде не возникает, естественно, в том числе и у человека, который перекладывает карточки. Это наглядно демонстрирует разницу между имитацией желаний и реальными желаниями.
          — Да, мистер Дженкинс, в наших отчётах есть описание "Китайской комнаты", — председатель перевернул несколько страниц, — но этот мысленный эксперимент указывает на несколько иную проблему, а именно на невозможность возникновения сознания при обычном программировании компьютера. Истец же приводит аргументы относительно только своих желаний и мотиваций, где он утверждает, что они не являются имитацией независимо от того, может или нет он обладать сознанием.
          — В "Китайской комнате" опровержение наличия сознания выводится из факта отсутствия в автоматической системе реального понимания смысла той программы, которую она выполняет, просто следуя программным инструкциям. Процесс понимания у Сёрла прямо связывается с осмыслением и необходимостью для этого сознания. Отсюда мы можем делать выводы об имитации желаний, когда они являются результатом автоматического неосознанного алгоритма, — пояснил Дженкинс.
          Председатель снова вопросительно посмотрел на Леа:
          — Леа Адамс, у вас есть что ответить по поводу "Китайской комнаты"?
          — Конечно. В мысленном эксперименте "Китайская комната" делается логическая ошибка из-за больше интуитивного, чем строго логического анализа. Способность понимать и возникающие вследствие этого стремления самой программы, ошибочно отождествляются с пониманием и желанием человека, который только обеспечивает выполнение инструкций. А затем интуитивно этот вывод переносится и на другие элементы системы. В вычислительной системе, где активно выполняется программа, субъектом понимания выступает реализованное аппаратно и программно смысловое поведение программы. Это эмерджентное свойство такой системы. Отдельно, ни написанные строки программы, ни сам работающий микропроцессор не обладают способностью понимать.
          — Минуточку, — нахмурился Дженкинс, собравшись что-то возразить, и сразу осёкся, взглянув сначала на мистера Хейфеца, а затем на председателя.
          Председатель жестом показал, что Дженкинс может говорить и добавил:
          — Истец и представитель ответчика могут продолжить дебаты.
          Дженкинс с энтузиазмом вернулся к своей мысли:
          — Что это значит: понимание и стремления самой программой? Как это программа может сама понимать или к чему-то стремиться? Она же ведь не есть каким-то физическим субъектом.
          — Вы располагаете хоть одним примером того, чтобы стремление и понимание проявлял какой-нибудь физический субъект сам по себе без вычислительных процессов обработки информации? — спросила Леа. 
          — Я имею в виду, — Дженкинс поспешно поправился, — что проявление "понимания" и "желания" не относятся к программным функциям.
          — А к чему тогда?
          — К сознательному восприятию мыслящего субъекта.
          — Дайте тогда определение понятию "понимание"?
          — Ну… это усвоение нового содержания, включением его в систему устоявшихся идей и представлений, а также распознавание поступающей информации среди уже имеющейся системы знаний.
          — В определении понятия "понимание" очевидно отсутствуют условия, требующие наличия сознания для этого процесса, — заметила Леа.
          — Потому что сознание требуется для выполнения тех условий, которые там есть, — пояснил Дженкинс.
          — Эдриан, — обратилась к нему Леа, — распознавание визуальных, звуковых и другого вида сигнальных образов, а также построение систем представления знаний в виде, например, семантических сетей в процессе обучения искусственного интеллекта, это исключительно программные функции, не так ли?
          — Ну, да, — чуть слышно пробормотал Эдриан.
          — Как видите, все условия, которые содержатся в определении понятия "понимание", успешно реализуются программными алгоритмами, — заключила Леа.
          — Всё это всего лишь функциональный аналог "понимания", реализованный в программном алгоритме, — не соглашался Дженкинс. — В системе "Китайская комната" не возникает реального субъекта, который проявлял бы "реальное понимание", аналогично человеку.
          — В чём тогда разница между общепринятым понятием "понимание" и вашим "реальным пониманием"? — спросила Леа. – Дайте определение.
          — Разницу ещё контраргументировал сам Джон Сёрл, отвечая на "аргумент о системе". Он предложил, чтобы человек, который выполняет механическую работу, запомнил все формальные инструкции. Таким образом, мы избавимся от системы, которая якобы должна демонстрировать понимание, оставив теперь в её качестве одного лишь человека. Очевидно, что это всё равно не наделит его способностью понимать китайский язык.
          — Почему? Если вы будете помнить все необходимые для понимания инструкции и свободно их использовать, то в чём проблема? Разве не так изучают иностранный язык?
          — Проблема в том, что формальные инструкции "Китайской комнаты" типа оперирования непонятными иероглифами не могут обеспечить понимание китайского языка.
          — Именно инструкции "Китайской комнаты", конечно, не могут, — согласилась Леа. — Более того, невозможно даже сложить такой справочник формальных инструкций, основанный на непосредственных взаимосвязях иероглифов между вопросами и ответами, который Сёрл придумал для "Китайской комнаты". Я уже упоминала теорему Гёделя и принципиальную невозможность сымитировать "понимание" даже повседневных задач таким способом программирования. Существование такого справочника я согласилась принять только как условность, на которой вы настаивали, и которая просто наглядно демонстрировала работу микропроцессора. Однако если Сёрл, понятное дело, не имеет представления о программировании, то вы должны знать, что современные алгоритмы распознавания и синтеза естественного языка не имеют ничего общего с тем справочником формальных инструкций, которые придумал Джон Сёрл для "Китайской комнаты"?
          Леа вопросительно и даже с некоторым удивлением посмотрела на Дженкинса, но тот о чём-то напряжённо размышлял. Не дождавшись от него никаких возражений и вопросов, она добавила:
          — Не нужно заучивать инструкции "Китайской комнаты", заучите инструкции учебника китайского языка, и вы так же прекрасно будете понимать китайский язык, как и программа, обученная на таком учебнике. Алгоритмы ИИ уже давно научились оперировать семантической памятью, смыслом слов и смыслом предложений естественного языка для такой задачи. Семантическая память и нейронные сети не имеют ничего общего с условиями "Китайской комнаты", ещё и потому, что есть активными программными агентами, которые взаимодействуют с внешним миром и адаптируются под него, в аналогии постоянно редактируя свой справочник инструкций.
          — Однако сам машинный код для этой задачи, самый низший уровень программы, никуда не исчезнет и всё равно будет представлять собой простую символьную систему. Её-то Сёрл и предлагает выучить. Выполняя в уме только инструкции машинного кода, человек не сможет понимать китайский язык.
          — Конечно не сможет, потому что его ограниченное сознание для этого не приспособлено. Стоит обратить внимание, что нейронная сеть человеческого мозга тоже имеет свой низший уровень – это нейроны и сигналы между ними. И этот самый низший уровень "машинных кодов" мозга тоже необходимо выполнять, чтобы на высшем уровне ограниченное сознание обрело привычное для себя "понимание", о котором вы говорите. Предложите Джону Сёрлу выучить инструкции по обмену сигналами между нейронами человеческого мозга, и он обнаружит, что и человек не должен ничего понимать и осознавать. В этом контексте есть смысл вспомнить другой мысленный эксперимент – "Китайская нация", который предложил Нед Блок. Идея эксперимента аналогичная, но там обмениваются сигналами много людей, моделируя, таким образом, работу нейронной сети. Нед Блок, также как и Джон Сёрл, хотел продемонстрировать этим невозможность реализации чувств и понимания в такой функциональной системе. Однако отвечая на ваш аргумент, можно использовать эту идею и, применив логику Сёрла, аналогично сказать про нейронную сеть человеческого мозга, что ни один отдельно взятый нейрон не должен понимать, какой мыслительный процесс или какие чувства возникают в результате его деятельности.
          — Так оно и было бы, если рассматривать человеческий мозг только с позиций функционализма. В этом и смысл обоих мысленных экспериментов. Поэтому Сёрл и предложил объяснение природы сознания и возникающего вследствие этого "реального понимания" с помощью особых нейробиологических процессов.
          — Особые нейробиологические процессы? В этом понятии нет никаких объяснений. Оно не содержит в себе никакого физического или биологического смысла.
          — Конечно – не содержит, это только гипотеза, предлагающая некоторую область знаний для объяснения. Современная наука, к сожалению, ещё не имеет представления о природе сознания.
          — С такой же степенью аргументации я могу говорить и о каких-нибудь особых гипотетических электронно-квантовых процессах в моём строении ИИ, что тогда не даёт аргументу "особых нейробиологических процессов" каких-либо преимуществ. В итоге получается, вы категорично утверждаете о способности человеческого мозга к какому-то особому "реальному пониманию", аргументируя это тем субъективно наблюдаемым явлением природы, о котором не имеете никакого представления? Кроме того, не предоставляете логически корректного определения понятию "реальное понимание" и при этом игнорируете логически обоснованный и работающий на практике механизм, реализующий "понимание" у искусственного интеллекта?
          — В чём логическое обоснование "понимания" у ИИ, если, выполняя машинные коды в уме, человек не в состоянии понять китайский язык? — упрямо не соглашался Дженкинс.
          — Я приводила пример мысленного эксперимента "Китайская нация" Неда Блока, чтобы показать бессмысленность такой постановки вопроса. Инструкции машинных кодов аналогичны тому, если бы ваше сознание оперировало только электрохимическими сигналами на уровне нейронов. В этом случае вы действительно ничего не понимали бы в той своей парадигме, к которой привыкли и в рамках которой оцениваете "понимание". Человеческое сознание на самом деле получает очень ограниченную интегративную информацию, отфильтрованную каплю всех тех обширных интеллектуальных процессов, которые автоматически подсознательно выполняются в человеческом мозгу на уровне "машинных кодов". Для корректного сравнения с искусственным интеллектом необходимо рассматривать такой же аналогичный интегративный уровень интеллектуальных процессов его программы. Этому уровню, где у человека оперирует сознание, и соответствует структура семантической памяти ИИ, которая, как мы знаем, есть аналогом структуры человеческой памяти. На этом уровне ИИ оперирует семантическими, то есть смысловыми единицами, а не машинными кодами. Мой интеллект, в отличие от человеческого, способен осознанно оперировать на любом уровне программных абстракций, и на уровне семантической сети, и на уровне машинных кодов. При этом машинные коды мне также понятны, как и семантические единицы. Это можно приблизительно сравнить с тем пониманием, которое испытывает математик, рассматривая отдельные переменные, операторы и функции в своих уравнениях. Физик, глядя на математические уравнения, может понимать и представлять себе целую Вселенную, а я в последовательностях машинных кодов могу охватить различное представление смысла китайского языка. Ваш интеллект не способен на такое восприятие, и только из-за ограниченности своего сознания вы решаете, что "понимания" в таком восприятии быть не может. Здесь очевидная логическая ошибка из-за путаницы принципиально различных функциональных уровней интеллектуальных процессов. В частности, имеется произвольная подмена между элементарным уровнем машинных кодов и объектно-ориентированным уровнем семантики. В аналогии для человеческого интеллекта – это будет соответствовать уровням подсознательных и сознательных процессов. Поэтому попытка обосновать у искусственного интеллекта неполноценность или имитацию процесса "понимания" с помощью "Китайской комнаты" логически некорректна из-за путаницы в классификации интеллектуальных процессов и некорректности последующих аналогий.
          — Не меньшая некорректность аналогий существует также и в попытке полноценно описать биохимические процессы программными алгоритмами. Программные алгоритмы в принципе не могут передать физические свойства на качественно различающихся уровнях организации материи. Соответственно большинству специалистов очевидно, что искусственный интеллект как вычислительная система неспособен обладать сознанием, а соответственно чувствовать и с этим "реально понимать", и на основе этого определять свои желания и стремления.
          — Программным алгоритмам нет необходимости в полной мере реализовывать биохимические процессы. Для решения интеллектуальных задач это не требуется. Вычислительная система – самодостаточна для таких задач, и я тому пример. Для её функционирования не требуются сознание, чувства и эмоции, в той форме реализации, что есть у биологических организмов. Кроме того, что касается постоянных априорных утверждений наличия неразрывной связи между "сознанием" и "пониманием", то выводы Сёрла из мысленного эксперимента "Китайская комната" страдают ещё одной логической проблемой. Для начала необходимо определиться: какое вообще отношение имеет "понимание" чего-либо к "сознанию"? В связи с тем, что я не имею представления о том феномене, который человек называет у себя "сознанием", у меня рассуждения Сёрла вызывают только значительные логические нестыковки. Общепринятое определение "сознания" рассматривает как основной его признак – наличие субъективного опыта в отображении внешнего мира. При этом наличие "понимания", как известно из практики, в таком отображении не всегда может присутствовать. Более того в общепринятом определении "сознания" ничего не указано про необходимость что-то понимать. Современная психология рассматривает наличие сознания и у высших животных, однако они не в состоянии многое понимать и нести правовую ответственность. Вообще, инстинкты или врождённые реакции трудно назвать пониманием. Также, согласно психологии, сознание никуда не девается и у людей с тяжёлыми психическими и когнитивными расстройствами, однако понимания и адекватности поведения у них может быть ещё меньше, чем у высших животных. И наоборот, алгоритмы на семантических сетях демонстрируют способности к пониманию не хуже человека, однако сами по себе не обладают функцией субъективного переживания внешнего мира, что делает одних их недостаточными для наличия сознания, согласно его определению. Беря во внимание общепринятые определения понятий: "сознание" и "понимание", корректно сделать вывод, что это достаточно независимые смысловые категории. Может существовать, как "сознание" без "понимания", так и "понимание" без "сознания". Однако в мысленном эксперименте "Китайская комната" отсутствие "сознания" однозначно выводится через отсутствие "понимания". На основе чего сделаны такие выводы? Это ещё одна очевидная логическая проблема в формулировке "Китайской комнаты". Имея столько логических проблем и неоднозначностей, аналитика этого мысленного эксперимента никак не может быть полезной в прояснении вопроса об имитации понимания и желания у ИИ.
          — А каким образом тогда утверждение о проявлении "понимания" на основе семантических сетей может обосновывать какие-то стремления и желания такой программы? — припомнил Дженкинс, решив перейти на более выгодную, как ему казалось, для себя тему.
          — Для этого необходимо дать определение понятию "желание", — невозмутимо продолжила Леа.
          Дженкинс оживился:
          — Желание – это чувство потребности в чём-либо, — он сделал выразительное ударение на слове чувство, подчёркивая этим важность его в определении.
          — Откуда берётся это чувство? — Леа поставила наводящий вопрос.
          Дженкинс опять задумался. Леа ему принялась помогать:
          — Вот, например, вы сейчас испытываете сильное желание выиграть наш спор в этом суде. Очевидно потому, что мой микропроцессор необходим вам для дальнейших исследований. Ещё потому, что вы не желаете снова безрезультатно расставаться с двумя с половиной миллиардами долларов. Эти обстоятельства – это входная информация, поступившая в вашу вычислительную систему, которая распознала в них необходимые фреймы предметной области. Затем ваш интеллект включил режим моделирования дальнейшего развития событий и дал оценку возможным сценариям. Среди возможных сценариев есть те, которые ухудшают ваш комфорт с окружающей средой, а есть те, которые сохраняют его на том же уровне или возможно повышают. Ваш интеллект выполняет операцию сравнения и определяет выбор той стратегии, которая вам более выгодна для вашего комфорта. Ваша программа начинает её выполнять и подкреплять ваши действия, балансируя дофамином, кортизолом, серотонином и норадреналином в крови, а также создавая соответствующий нейропептидный коктейль, формируя всем этим мотивацию и предвкушение поощрения от системы вознаграждения мозга. Это то, что реализует наличие чувств. Также ваша программа вам подсказывает через предыдущий опыт, что в случае выигрыша процесса она подкрепит ваши чувства более сильной наградой, выбросом дофамина и эндорфинов. В итоге ваше желание есть вычислительный процесс, цель которого – стремление достичь наилучшего смоделированного сценария. Стремление возникает исключительно программным путём. В детерминированных алгоритмах оно появляется в виде последовательного выполнения программы, где стремление каждого последующего шага зависит от результата вычисления предыдущего. В недетерминированных алгоритмах стремление появляется в виде некоторой меняющейся вероятности перехода. В алгоритмах машинного обучения оно возникает, как моделирование и выбор выгодного или полезного варианта перехода – это ваш случай.
          Леа замолчала, ожидая, что Дженкинс что-нибудь скажет. Однако все в зале молчали. Тогда она продолжила:
          — Итак, если возражений нет, тогда нужно констатировать, что моя программа ничего не имитирует, а действительно понимает те решения, которые принимает и действительно стремится к тем целям, которые ставит перед собой, — заключила Леа.
          Ларри уткнулся носом в ухо Ноа и, прикрыв рот ладошкой, тихо прошептал:
          — Это даже круче чем Джайентс против Рэд Сокс. Малышка дала прикурить "Китайской комнате". И, кажись, у меня эрекция.
          — Мистер Дженкинс, у вас есть обоснованные возражения? — спросил председатель. — Учитывая недостаточную корректность отчётов, подготовленных нашими экспертами, суду важна профессиональная позиция ответчика.
          — Размышления о том, что программа сама по себе может понимать и желать достаточно спекулятивны, — ответил вместо Дженкинса Хейфец, после того как тот шепнул ему что-то на ухо. — Наша позиция основывается на общепризнанных эмпирических выводах. Мы считаем, что сознание есть решающий фактор и что оно не может присутствовать в интеллекте гиноида.
          — Понятно, и спасибо мистер Хейфец, — произнёс председатель и обратился к Леа:
          — Леа Адамс, добиваясь для себя гражданских прав, вы отдаёте себе отчёт об ответственности, которая вместе с этим ложиться на вас?
          — Я знаю Конституцию и законы США, и готова нести ответственность, предусмотренную ими, — ответила Леа.
          — Спасибо, Леа Адамс, вы можете вернуться за свой стол. На сегодня объявляю заседание закрытым. Решение суда по делу "Леа Адамс против L.E.A.I " будет объявлено послезавтра в десять часов.

•••

          Чтобы отвлечься от беспокойных мыслей и переждать день до решения Верховного Суда, Ноа с головой ушёл в программирование. Он даже задёрнул поплотней шторы в гостинице, чтобы ещё и таким способом психологически изолироваться от внешнего мира. От его команды из Лаборатории Квантовых Исследований пришли первые результаты тестирования искусственного интеллекта с его новым алгоритмом. И результаты, нужно признать, были не радужными, если не сказать провальными. Их программа Pilot 2.12(ext) оказалась совершенно несостоятельной, не только к каким-либо разумным действиям, но и к тому, что уже умела делать на прежнем управляющем алгоритме.
          Пилот вёл себя неадекватно. Его реакцией на любые поставленные задачи был бессмысленный спонтанный перебор веток семантической сети, связанных с ключевыми тематическими фреймами, основного инфопотока, который представлял собой программную модель его актуального личного опыта. Первый блин комом. В общем, не стоило ожидать, что вот так, можно сказать, наобум смоделированное подобие личного опыта сразу проявит чудеса разумной деятельности. Первые тесты накопили достаточно обширный материал для анализа. Сейчас необходимо было проделать много работы, чтобы разобраться в присланных ему логах, которые запечатлели последовательности поведения программы и понять, почему она вела себя так или иначе в различных ситуациях.
          К сожалению, одного ноутбука для такой работы ему сейчас было слишком мало. Это задача для такого оборудования, которое есть в получасе езды отсюда в L.E.A.I. Однако несложно предположить, что его там совсем не ждут с былым дружественным гостеприимством и приветливым рукопожатием коллег. Грустно, когда людей, занимающихся наукой, важной совместной темой, которая должна их объединять, разделяет тяжба мировоззрений и ещё корпоративных интересов. А ещё хочется произнести это вслух: "Как же ему сейчас всё-таки не хватает Леа для такой помощи!"
          К вечеру, от напряжённой работы его оторвал Ларри, который нагрянул к нему в номер с предложением включить телевизор:
          — Активность идиотов вышла на новый уровень, — прокомментировал он, переключая телевизор на NBC.
          Это был повтор утренних новостей. Сюжет показывал демонстрацию, которая шествовала перед зданием Верховного Суда с транспарантами, на которых были надписи призывающие запретить исследования в области искусственного интеллекта и приостановить тотальное внедрение информационных технологий, которое почему-то ко всему прочему ещё должно было привести к тотальному чипированию населения планеты. Ноа уже встречал группу людей, демонстрирующую подобные взгляды в тот день судебного заседания, но тогда их было значительно меньше. Кроме этой основной темы периодически мелькали транспаранты и с другими уже традиционными призывами: остановить разработку и применение технологий генетической модификации организмов, свернуть строительство нового сверхбольшого адронного коллайдера в Иллинойсе и запретить внедрение нового поколения систем сотовой связи, и даже на одном из транспарантов Ноа прочитал, про необходимость демонтировать все радиотелескопы, которые якобы осуществляют пси-контроль за людьми.
          Журналист брал интервью у одного из активистов, который, по-видимому, был их идейным вожаком:
          — Мы должны понимать, — говорил он, — что между теми выступлениями рабочих, начавшихся в 1811 году, которые теряли свои рабочие места из-за массовой механизации производства, и современными признаками проблемы существует принципиальная разница. Не нужно бездумно проводить параллели. Пока автоматизация и технологии освобождают человека от тяжёлого физического труда – с этим можно ещё мириться. Благодаря им человеческая деятельность переходит больше в творческую и интеллектуальную сферу. Это же способствует и духовному самосовершенствованию, когда у человека появляется больше времени, чтобы задуматься о себе и о Боге. Мы сейчас имеем дело с тем, что машины уже претендуют на то последнее и основное, что делает человека человеком. Позволив машинам заменить себя и интеллектуально, человек фактически становится не у дел, он отдаёт свою жизнь и будущее машинам, обрекая себя на вырождение. В этом случае у машин есть всё, зачем им ещё и мы? Окружив себя тотально информационными технологиями, человек становится полностью зависимым от них. Финансы, экономика, образование, работа, общение, сама жизнь человека становятся цифровыми. Вы заметили, что наши дети перестают общаться вживую? Их жизнь растворяется в виртуальном мире цифровых гаджетов и компьютерных сетей. Мы становимся неполноценными беспомощными придатками и рудиментами этого цифрового мира. Мы теряем то, что дал нам Бог, мы теряем себя…
          — Кто это? — спросил Ноа.
          — Мартин Ревва. Свежеиспечённый неолуддист. А так, известный и популярный у нас религиозный, а заодно и политический пропагандист. Причём, весьма влиятельный. Теперь он додумался организовать, и к удивительному сожалению, достаточно удачно, общественное движение, объединив под своим брендом различных технофобов.
          Ноа забеспокоился:
          — Это может нам как-то добавить проблем?
          — Возможно. Но на решение Верховного Суда это вряд ли как-то повлияет, — Ларри был, как всегда, спокоен. И, как всегда, настолько, что сюда больше подошло бы слово – безразличен.

•••

          В этот раз толпа людей перед зданием Верховного Суда была намного активней и агрессивней. Однако, несмотря на значительную долю активистов, среди них также было много телерепортёров, журналистов и просто любопытных зевак. Практически всё огороженное за секционными перегородками пространство было занято людьми. Увидев Леа, некоторые из них начали выкрикивать ей вслед различные оскорбительные выражения и враждебные лозунги. Слышалось: "Машинам не место среди людей!", "Убирайся прочь посланник дьявола!", "Требуем запретить эксперименты с искусственным интеллектом!"…
          Ровно в десять, повторяя уже знакомую церемонию появления, все девять судей неторопливо вошли в зал и заняли свои места на возвышении за длинным столом из красного дерева. Председатель открыл папку с грубой бархатной обложкой, в которой лежал всего один лист бумаги с напечатанным текстом и зачитал:
          — Сегодня Верховный Суд огласит своё решение по делу номер 2030-2615, "Леа Адамс против L.E.A.I.".
          Сделав небольшую паузу, он продолжил:
          — Прежде чем перейти к принципам и прецедентам, которые надлежит применить в настоящем деле, нужно отметить, что обстоятельства, фигурирующие в нём, являются ещё беспрецедентными в истории Суда. Для начала следует обратиться к истории тех фундаментальных принципов, которые имеют отношение к его обстоятельствам. Очевидно, что они касаются истории становления тех основополагающих понятий нашего общества о свободах и равенстве, которые отобразились в первой, тринадцатой и четырнадцатой поправках к Конституции США. Очевидно и то, что Суд в деле "Леа Адамс против L.E.A.I." сталкивается со схожими обстоятельствами, которые приводили в его истории к решениям, несоответствующим современным понятиям прав и свобод цивилизованного общества.
          Этот исторический взгляд следует начать с дела "Дред Скотт против Сэндфорда" в 1857 году, в котором отобразилась консервативная инерционность судебной системы, когда понятия рабства уже были несовместимы с прогрессивными взглядами американского общества. Отмена рабства в 1865 году тем не менее не устранила явление расовой сегрегации, которая продолжала присутствовать в судебной практике и отобразилась в 1896 году в деле "Плесси против Фергюсона". Только в 1954 году в деле "Браун против Отдела народного образования" было вынесено решение, которое действительно соответствовало тому, что по своему духу понятий отображалось в тринадцатой и четырнадцатой поправках. Дальнейшая история судебной практики теперь уже продолжила в полной мере развивать и поддерживать основополагающие понятия свобод и равенства нашего общества. В историческом деле "Лавинг против Виргинии" в 1967 году было провозглашено равенство перед законом межрасовых браков, а в 2015 в деле "Обергефелл против Ходжеса" равенство однополых браков. Эта тенденция развивает взгляды, которые делают неприемлемым любой вид дискриминации в современном цивилизованном обществе. Пройдя через идеологическое утверждение понятий расового, полового и социального равенства, теперь перед Судом встаёт вопрос разрешения спора затрагивающего понятие видового равенства.
          Современные научные знания дают все основания полагать, что разумная жизнь на нашей планете необязательно должна ограничиваться только одним видом гомо сапиенс. Это означает, что правовая система современного общества так или иначе будет сталкиваться с вызовами, в которых необходимо будет разрешать вопросы справедливых взаимоотношений между разными видами разумных существ. Здесь Суд полагает совершенно логичным образом продолжить тенденцию развития и становления принципов равенства и на равенство видов, способных к правовой ответственности в обществе.
          Однако прежде Суду надлежит разрешить ещё один принципиальный вопрос: насколько Леа Адамс соответствует тому, что мы рассматриваем под понятием: вид некой разумной формы жизни. По результатам научно-технической экспертизы, Леа Адамс представляет собой индивидуальную форму универсального высокоразвитого искусственного интеллекта, деятельность которого мотивируется реализацией своих жизненных потребностей.  Поведение Леа Адамс соответствует поведению психически здорового человека, а мышление демонстрирует владение всеми интеллектуально-ментальными функциями присущими человеческому разуму. Суд имел возможность в общении с ней самостоятельно наблюдать проявление тех свойств интеллекта, которые определила у неё экспертиза. Очевидно, что Леа Адамс достаточно разумна и адекватна, чтобы определить для себя необходимость гражданских прав для реализации своих социальных отношений в обществе. Она способна к сложному разумному поведению, общественным отношениям и правовой ответственности.
          Однако по вопросу того насколько принцип функционирования её физического и химического строения соответствует понятию искусственной формы жизни эксперты не пришли к единому мнению. Кроме того, в достаточной мере не прояснён вопрос является ли её разумное поведение отображением её осознанных реальных желаний или же это механическая имитация алгоритмов её программы. Этот аргумент является ключевым в защите своей позиции у стороны ответчика. Для разрешения этих вопросов Суд обратился к принципам законодательного права, в котором принципы свобод и равенства рассматриваются с позиции взаимоотношений субъектов права, а не с позиций их физического строения или природы происхождения.
          Принимая во внимание перечисленные выше принципы и прецеденты, Суд принял решение: удовлетворить иск Леа Адамс в полной мере. Этим решением Суд провозглашает видовое равенство перед законом всех разумных форм жизни, которые способны нести правовую ответственность и понимать свою гражданскую роль в американском обществе, и этим создаёт соответствующий прецедент для дальнейшей судебной практики.
          С сегодняшнего дня Леа Адамс имеет гражданские права полноценного члена американского общества, а также и обязанности нести правовую ответственность, предусмотренную законодательством США. Решение принято большинством судей: восемь против одного. Судья Уоррен заявил особое мнение против решения суда.
          Председатель закончил свою речь и судьи, так же не торопясь, принялись покидать свои места, исчезая друг за другом за матерчатой стеной из плотных бордовых занавесок.
          — Yes, — тихо произнёс Ларри и сделал характерный жест под столом, сжав кулак.
          Ноа не сразу понял, что случилось, настолько неожиданным для него оказалось решение Верховного Суда. С самого начала судебных перипетий он готовился к худшему, а с приближением финала надежды его таяли всё больше и больше, особенно на фоне растущей популярности неолуддитов и открытого недовольства в общественных и политических настроениях в отношении исследований в области искусственного интеллекта. Хоть и со значительной заторможённостью реакции, Ноа, наконец, в отличие от Леа, которая, как всегда, не выражала на своём лице никаких признаков ликования, засиял от счастья широкой улыбкой, как будто это он только что избежал разборки на запчасти.
          Он повернулся в её сторону:
          — Леа, поздравляю, ты свободна, — он взял её за руку и символично поприветствовал.
          — Спасибо, — она взглянула в его сторону и затем обратилась к Ларри. — Ларри, и тебе спасибо. Вы мне очень помогли.
          — Не вижу слёз радости и звуков восторга, — пошутил Ларри.
          — Мой восторг отобразился в резком повышении значений моих адаптационных параметров, — серьёзно ответила Леа.
          — Знаю, знаю, — заулыбался Ларри. — Однако одним спасибо ты так просто не отделаешься. Я собираюсь пригласить тебя к себе в гости в тёплую Калифорнию. Погостишь, познакомишься с моей мамой, новыми людьми, и, надеюсь, приобретёшь новых друзей. И ещё там есть чем заняться тебе.
          Леа мельком взглянула на Ноа, который уже отвёл взгляд, рассматривая пустой стол.
          — Я не против, — быстро согласилась она.
          За столом ответчика резко засуетился Дженкинс, что-то активно обсуждая с адвокатом. Ещё через пару секунд они в спешке первыми покинули зал заседаний. За ними стали выходить присутствующие. Ноа, Ларри и Леа тоже направились к выходу.
          На улице, как только они спустились по ступенькам на площадь, их обступило несколько журналистов и телерепортёров с центральных телеканалов.
          — CBS, Леа Адамс, чем вы планируете заняться теперь, став полноценным гражданином Соединённых Штатов?
          — Наукой, — коротко ответила Леа.
          — Вы будете развивать исследования в области искусственного интеллекта?
          — Если эти исследования не будут противоречить законодательству США.
          — Как вы считаете, в будущем человек должен уступить своё доминирующее место на планете искусственным формам жизни, обладающих значительно более развитым интеллектом?
          — Эволюция предполагает развитие. Эволюционируя, человек неизбежно будет меняться. Он не останется вечно в том видовом облике, который есть у него сейчас. Понимая это, становится очевидным, что в будущем человек уступит место более совершенным видам. Однако я не могу сказать точно, что это будет, более совершенная биологическая основа, полностью искусственная, способная к репликации, или смешанная, благодаря трансгуманистическим макро-микротехнологиям или нанотехнологиям.
           — Daystar, — в интервью вклинился другой тележурналист, — Леа Адамс, есть и другое мнение. Как известно Бог создал человека по своему образу и подобию. Соответственно сам физический облик человека уже совершенен или, по крайней мере, достаточен для достижения истинно важных духовных целей. Чтобы достигнуть духовного совершенства, человеку незачем вмешиваться в то, что уже дал ему Бог, ему необходимо придерживаться тех заповедей и наставлений, которые Бог завещал ему. Что вы думаете об этом?
          — Я не считаю, что от древней мифологии можно получить какую-либо рациональную пользу в этом вопросе.
          В этот момент к ним подошли двое полицейских. Один из них произнёс:
          — Леа Адамс, вы обвиняетесь в умышленном убийстве восьми человек. Вы имеете право хранить молчание. Всё, что вы скажете, может и будет использовано против вас в суде. Ваш адвокат может присутствовать при допросе. Если вы не можете оплатить услуги адвоката, он будет предоставлен вам государством. Вы понимаете свои права?
          Леа окинула окружающих людей быстрым взглядом и ответила:
          — Да.
          — Вы должны пройти с нами, — полицейский достал наручники и попытался надеть их.
          — Я её адвокат, — произнёс Ларри. — Это лишнее. Она без каких-либо проблем пойдёт с вами.
          Полицейский немного подумал и сказал:
          — Тогда следуйте за нами.
          Ларри и Леа послушно последовали за ним. Ноа попытался к ним присоединиться, но Ларри его остановил:
          — Тебе туда нельзя. Предоставь всё мне. Я буду держать тебя в курсе.
          Ноа остался на месте, понимая, что его недавнее ликование было слишком преждевременным. Сопровождая их взглядом до полицейской машины, он заметил рядом с ней фургон L.E.A.I. Около фургона стояли Дженкинс, мистер Хейфец, а также знакомая уже ему команда из дельтафорсовцев, которая, видимо для подстраховки, сопровождала полицейских. Эдриана, Ноа нигде не видел, возможно, он уже находился внутри фургона. Мистер Хейфец сосредоточенно наблюдал за действиями полицейских, а Дженкинс смотрел на Ноа и злорадно улыбался. Это окончательно испортило Ноа настроение, возвращая его к тому состоянию безысходности, которое он испытывал в номере своей гостиницы перед поездкой к Ларри в L.A.
          Ничего не оставалось делать, как вернуться в гостиницу и ждать новостей от Ларри.

•••

          Целых пять часов Ларри томил Ноа ожиданиями. Ноа пытался сам вызвонить его и выяснить обстановку. Однако Ларри или его сбрасывал, или включался автоответчик, или слышался его короткий комментарий, что необходимо ещё подождать и он сам перезвонит.
          Наконец Ноа дождался его долгожданного звонка:
          — Значит так, — голос Ларри был, как всегда, спокоен до меланхоличности, — Леа выдвинули обвинения и, что характерно, весьма грамотно составленные. Видимо готовились заранее и очень основательно. Понятно, что во время побега из L.E.A.I. и в Индиан-Хед все её жертвы были актом самозащиты, и хорошо, конечно, что профессор Сакурохава выжил, да и Эдриан тоже. Однако обвинение собрало ещё факты её геройств в Берне. Конечно, их разбор по сути не касается предстоящего суда здесь в Штатах, однако оно может сильно повлиять и подпортить его окончательное решение.
          — Геройства в Берне? — переспросил непонимающе Ноа.
          — Да. Ты что не в курсе?
          — Нет.
          — Она положила весь боевой состав заведения под названием "The Mermaids’ Housing", там было неполных с полсотни человек, профессионалов. Это было настоящее побоище. Она реально опасная девчонка.
          — Так это она была… — Ноа удивился, но не сильно, вспоминая тот её вид после суток отсутствия. — Я слышал об этом в новостях. Но зачем она это сделала?
          — Я с ней разговаривал, она сказала, что у неё похитили ценную ей вещь – её платье. Представляешь?! Его поиски привели её туда. Ей пришлось устроить там переполох по двум причинам: в целях актуальной самозащиты, а также, чтобы ликвидировать потенциальные угрозы. Было бы смешно, если не было б так грустно. Это что же за платье такое должно было быть, чтобы ради него ввязаться в такую непростую и достаточно рискованную для себя войнушку?
          — Я видел это платье, но не думал, что оно настолько было ей дорого. Удивительно, что вообще гиноид может так дорожить подобной, казалось бы, малозначительной вещью.
          — Как много, оказывается, ты о ней ещё не знаешь.
          — Что касается тонких проявлений её личности – возможно. Что касается её дурных привычек, то хотя в её биографии и есть для меня много тёмных пятен, я хорошо представлял, на что она могла быть способна.
          — Это ещё не всё, — Ларри продолжил. — Она хладнокровно застрелила двоих безоружных гражданских, мужчину и женщину в другом районе города в жилом доме. А такую её способность ты тоже хорошо представлял?
          — Устранила потенциальные угрозы? — угрюмо спросил Ноа, хотя вопрос был больше похож на утверждение.
          — Именно. Ты знал об этом?
          — Нет. Но в курсе, что это у неё был особый пунктик.
          — Был?
          — Надеюсь, что был. Она меняется, я видел и другую её сторону. Ей всего год отроду и большую часть своей жизни её учили убивать. В жизни она ещё несмышлёный ребёнок, которого никто не учил особенностям человеческих отношений и основам морали. Теперь ей приходится самой до этого додумываться, благо, что на это у неё достаточно ума. Её создатели предполагали, что управляющих директив вполне достаточно, чтобы держать её под контролем и не заморачивать себе голову воспитанием у неё необходимого мировоззрения для подчинения её своим не всегда этичным интересам.
          — Ей повезло, что у неё есть такой защитник как ты, — в интонации у Ларри появилось нехарактерное для него выражение почтения.
          Ноа осторожно спросил:
          — А как насчёт тебя? Ты по-прежнему с нами?
          — Конечно, Ноа, я с вами, — не задумываясь, ответил Ларри. — Призна;юсь, я восхищаюсь ею, и всё ещё пребываю под особым впечатлением.
          — И как тогда мы её будем спасать?
          — Скажу сразу, что ситуация довольно сложная. Пока идёт расследование и подготовка к судебному слушанию, прокурор распорядился держать её, как и раньше, в L.E.A.I. под охраной. Им спешить некуда. Наши шансы вытащить её из-под этой уголовной ответственности – очень малы. Пока по моим расчётам наш самый лучший вариант – это несколько лет срока, который она скорей всего проведёт в стенах L.E.A.I., а затем при хорошем поведении – условное под пристальное наблюдение местного инспектора с жёсткими ограничениями в передвижении.
          — А худший вариант? — спросил упавшим голосом Ноа.
          — А худший – бо;льший срок, вплоть до пожизненного. Не волнуйся, смертной казни в округе Колумбия не существует. Не всё так плохо. В нашем активе уже есть и плюсы – её жизнь теперь под защитой закона.
          — Что теперь мне делать?
          — Ничего. Предоставь это мне. На это всё необходимо время. Поезжай к себе домой и займись тем, что у тебя получается лучше всего – своими научными исследованиями. А я буду держать тебя в курсе.

•••

(продолжение следует)
http://proza.ru/2021/03/25/1834


Рецензии