Как философия сознания может сформировать будущее?

КАК ФИЛОСОФИЯ СОЗНАНИЯ МОЖЕТ ФОРМИРОВАТЬ БУДУЩЕЕ?
Сьюзен Шнайдер

От редакции. Наибольшей угрозой представляется возможность того, что в условиях техногенной культуры компьютерное "расширение мозга" может стать социальной нормой с угрозой религиозной или экономической дискриминации.

Яркая нить ориентированного на будущее мышления проходит через весь гобелен философии сознания, особенно в тех областях, которые сталкиваются с возможностью ума как машины. Может ли робот чувствовать боль? Может ли соответствующим образом запрограммированный компьютер реально мыслить? Могут ли люди пережить полную замену их нервной системы с помощью нейронного протезирования? Темпы технологических изменений сегодня таковы, что все быстрее и чаще то, что когда-то было чисто умозрительным, становится реальностью. Если общество движется все дальше в XXI век, то каковы пути, на которых философия сознания может формировать будущее? Какие проблемы принесет будущее дисциплине?
Здесь мы рассмотрим несколько впечатляющих возможностей. Мы начнем с того, что способно радикально изменить правила игры - развитие ИИ и общего (сложного) ИИ. Затем мы обратимся к радикальным улучшениям мозга, полагая, что будущее, вероятно, представит захватывающие новые проблемы, связанные с гипотезами о расширении сознания, эпистемологией оценки мыслей значительно превосходящего интеллекта, загрузкой ума и многим другим.

1. Восстание машин: некоторые философские проблемы

Последние несколько лет были отмечены широко распространенным культурным признанием того, что сложный ИИ находится в стадии разработки и может изменить лицо общества. Например, согласно недавнему опросу, наиболее цитируемые исследователи ИИ ожидают, что ИИ сможет «выполнять большинство человеческих профессий, по крайней мере, так же, как типичный человек», с 10% вероятностью к 2024 году. Кроме того, они назначают 50% вероятности к 2050 году и 90 %  к 2070 (Mueller, Bostrom 2014) (1). (На наш взгляд, последнее преувеличение: общество рухнет быстрее. - Пер.). Критики ИИ, такие, как Джон Серл, Джерри Фодор и Хьюберт Дрейфус теперь должны ответить на впечатляющую работу таких как Google DeepMind и программа IBM Watson (2),  вместо того, чтобы ссылаться на пресловутый список неудач ИИ в 1970-е и 1980-е годы.
Действительно, кремний кажется лучшей средой для обработки информации, чем  мозг. Нейроны достигают пиковой скорости около 200 Гц, что на 7 порядков медленнее, чем современные микропроцессоры (Bostrom 2014, 59). Хотя мозг компенсирует это с помощью массивного параллелизма и концентрирующих функций, такие важные умственные способности, как внимание, полагаются на обработку, которая очень медленна имеет максимальную производительность около 7 хэнкс (Mueller, Schneider 2014). Кроме того, количество нейронов в человеческом мозге ограничено объемом черепа и обменом веществ, но компьютеры могут занимать целые здания или города, и могут быть даже удаленно подключены по всему миру (Bostrom 2014, Schneider 2014).
Конечно, человеческий мозг "умнее" любого современного компьютера. Интеллектуальные машины в принципе могут быть построены путем обратного проектирования мозга и улучшая его алгоритмы, или с помощью некоторой комбинации обратного инжиниринга и разумных алгоритмов, которые не основаны на работе человеческого мозга. Кроме того, программу ИИ можно загрузить на разные места сразу, она легко модифицируема и может выжить в различных условиях, в которых жизни на основе углерода быть не может. Возрастание избыточности и резервных копий, которые могут иметь программы, позволяют предположить, что умы ИИ будут более выносливыми и надежными, чем их биологические аналоги.
Мы отметили прогнозы экспертов по ИИ о том, что общий или сложный может быть достигнут в течение следующих нескольких десятилетий. Под общим или сложным ИИ мы понимаем ИИ, который является гибким, общим предметным интеллектом - интеллектом, который может интегрировать материал из разных областей, а не просто достигать чего-то выдающегося в одной задаче, например игре в шахматы. Философы обсуждают возможность ОИИ на протяжении десятилетий, и мы надеемся, что они помогут сформировать его целостное понимание в будущем. Например, возможно, некоторые философы откроют специфические причины полагать, что, несмотря на успехи Watson и DeepMind, эксперты будут долго биться головой о стену, думая, когда начнет возникать ОИИ. Возможно, компьютеры могут преуспеть в предметной области, но рассуждения общего характера не поддаются вычислительному объяснению. Или, возможно, ресурсы философии сознания не найдут глубокого препятствия для ОИИ, но вместо этого предоставят идеи, которые помогут в его развитии.
В любом случае в обществе в целом укоренен давний скептицизм по поводу ОИИ. Действительно, в настоящее время есть общее подозрение, что, как только ОИИ будет достигнут, он сможет обновить себя до еще более высокого уровня интеллекта. Как объясняет Дэвид Чалмерс: "Основная идея заключается в том, что машина, которая будет более умной, чем люди, будет лучше, чем люди, при проектировании машин. Так что он сможет проектировать машины умнее самой умной машины, созданной человеком. Так что, если интеллект сам разработан людьми, он будет способен проектировать машину умнее себя. Рассуждая далее,  следующая машина также сможет проектировать машину более умную, чем она сама. Если каждая машина, в свою очередь, делает то, на что она способна, нам следует ожидать последовательности все более интеллектуальных машин" (Chalmers, 2010). В том же духе бестселлер Ника Бострома "Суперинтеллект: пути, опасности и стратегии" (2014) утверждает, что суперинтеллект может вытеснить людей как доминирующий разум на планете и что последовательность изменений может быть быстрой (см. также Kurzweil,2004). Действительно, во многом благодаря книге Бострома и успехам в DeepMind последующий год ознаменовался широким культурным и научным признанием возможности "суперинтеллекта" - особого рода ИИ, способного превзойти лучший уровень человеческого интеллекта в каждой области - социальных навыках, мудрости, научном творчестве и т. д. (Bostrom 2014; Kurzweil 2004; Schnaider 2009, 2015).
Cуперинтеллект может быть разработан во время технологической сингулярности, в которой все более быстрые технологические достижения, особенно интеллектуальный взрыв, дойдут до точки, в которой  необученные люди больше не смогут предсказать или даже понимать происходящие изменения. Бостром предупреждает, что способа предсказать или контролировать конечные цели суперинтеллекта в случае такого взрыва просто не будет. Моральные решения трудно определить безошибочным способом, и в любом случае их правила суперинтеллектом могут быть переписаны. Нет также никакого соглашения в этой области этики о том, каковы вообще правильные моральные принципы. Далее разумная машина может обойти меры предосторожности, такие, как попытки выключить ее, и она потенциально может быть экзистенциальной угрозой человечеству (Bostrom 2014). (В авраамических религиях, конечно, главное, насколько Бог это позволит. - Пер.)
 В конце концов, суперинтеллект определяется как объект, который более интеллектуален, чем люди в каждой области. Бостром называет эту проблему «проблемой контроля». Это серьезная проблема - возможно, она даже непреодолима. Действительно, после прочтения книги Бострома ученые и лидеры бизнеса, такие, как Стивен Хокинг, Билл Гейтс, Макс Тегмарк, среди прочих, прокомментировали, что сверхразумный ИИ может угрожать человечеству, имея цели, которые люди не могут ни предсказывать, ни контролировать. Тем не менее, наиболее актуальная работа по проблеме контроля в настоящее время делается программистами. Философы сознания и специалисты по этике могут вступить в эти дебаты, внося вклад в работу по созданию дружественного ИИ (для отличного обзора проблем см. Wallach and Allen, 2009).
Возможность человеческого или сверхчеловеческого ИИ порождает дальнейшие философские вопросы. Если ОИИ и тем более суперинтеллект возникнут, то будут ли они иметь сознание? Будут ли они личностями, хотя они, возможно, даже не живые существа? Конечно, возможно, мы ставим телегу впереди лошади, предполагая, что можно даже развить суперинтеллект; возможно также, что переход от ОИИ на уровне человека к суперинтеллекту тоже сомнителен. В конце концов, как люди могут создаватьвне человеческий интеллект, учитывая, что наши собственные интеллектуальные ресурсы находятся только на человеческом уровне (Chalmers 2013)? Более быстрая скорость обработки и большее количество когнитивных операций не обязательно приводят к качественному переходу к более высокой форме интеллекта. Действительно, каковы маркеры «за пределами человеческого интеллекта», и как мы можем определить, когда это было достигнуто?
В своей новаторской статье о сингулярности Чалмерс предлагает еще больше вопросов, которые философы могли бы изучить: "Сингулярность поднимает многие важные философские вопросы... Потенциальные последствия взрыва интеллекта заставляют нас серьезно думать о ценностях и морали, о сознании и личности. По сути, сингулярность поднимает некоторые из самых сложных традиционных вопросов философии и некоторые новые темы тоже... Чтобы определить, будет ли взрыв интеллекта хорошим или плохим, мы должны думать об отношениях между интеллектом и ценностями. Чтобы определить, можем ли мы играть значительную роль в мире, мы должны знать, сможет ли человеческая идентичность пережить улучшение наших когнитивных систем, возможно, путем загрузки на новые технологии. Это вопросы жизни или смерти, с которыми мы можем столкнуться в ближайшие десятилетия или века. Чтобы надеяться на них ответить, нам нужно подумать ясно о философских проблемах"(Chalmers, 2010).
Что могут сделать философы для решения проблем, поднятых ИИ, сингулярностью и другими технологиями на горизонте? Мы рекомендуем подход, основанный на мысленных экспериментах, которые традиционно рассматриваются философией сознания, но сдерживаются знанием современных достижений в науке и технологиях. Философы часто рассматривают мысленные эксперименты как окна в фундаментальный характер вещей - гипотетические ситуации в «лаборатории ума», которые изображают что-то, что выходит за рамки современной технологии или даже несовместимо с законами природы, но должно раскрыть что-то философски значимое для рассматриваемой темы (Schneider, 2009). Мысленные эксперименты могут развлечь, проиллюстрировать загадку, обнажить противоречие в мысли и подтолкнуть нас к дальнейшим разъяснениям.
Тем не менее философы-эмпирики возражают, что мысленные эксперименты не заслуживают доверия в понимании философских проблем, потому что они тайно полагаются на интуитивные суждения о возможном, которые зависят от таких функций, как наше культурное и экономическое прошлое. Новые технологии представляют множество реальных случаев - случаев, которые кажутся номологически и технологически возможным - а не полагаются на сомнительные интуиции о том, что возможно в отдаленных возможных мирах, таких как миры зомби (миры, в которых ни одна сущность не является сознательной, даже сущности, которые действуют так, как они есть), или декартовы миры, что наполнены бестелесными умами. Новые технологии - это арена, на которой научная фантастика встречает научную философию и, вполне возможно, становится вопросом жизни и смерти, о чем мы поговорим позже (Chalmers 2010, Schneider 2009, Mandik 2015).
В дальнейшем мы выявим, как философия сознания может помочь нам творить XXI век. Мы начнем с вымышленного сценария, который вводит проблемы в гипотезе расширенного разума. Затем мы обратимся к нескольким взаимосвязанным философским проблемам, основанным на этом сценарии и другиз, которые мы представляем.

2. Этика улучшения мозга, расширение разума и интеграция в постсингулярный мир

 Рассмотрим следующий мысленный эксперимент в Schneider (2009):  "Предположим, будучи технофилом, вы начиная с 2025 года приобретаете компьютерные улучшения мозга по мере их появления. Сначала вы включаете мобильное Интернет-соединение и увеличиваете рабочую память, добавив нейронную схему. Теперь вы в принципе киборг. К 2040 г. благодаря нанотехнологической терапии и улучшениям вы можете продлить свою жизнь, и по мере того, как проходят годы, вы продолжаете копить более далеко идущие улучшения. К 2060 году, после нескольких небольших, но кумулятивно глубоких изменений, вы «постчеловек». Согласно Нику Бострому, постчеловеки - возможные будущие существа, «чьи базовые возможности настолько радикально превышают возможности нынешних людей, что они однозначно выше человека по нашим нынешним стандартам» (Bostrom 2003). На этом этапе ваш интеллект повышается не только с точки зрения скорости умственной обработки; теперь вы можете создавать связи (какие? - Пер.), которые вы не могли создавать раньше. Неулучшенные люди, "натуралы", кажутся вам умственно отсталыми. У вас мало общего с ними - но как трансгуманист (сторонник кибернетических и генетических модификации, которые, в крайнем случае, приводят к постчеловекам), вы поддерживаете их право не улучшать свой мозг (Bostrom 2003, Garro 2005; Kurzweil 2005).
К 2250 году медленное добавление все лучших нейросхем не оставила никаких реальных интеллектуальных различий между вами и ИИ. Ваши умственные операции постепенно переходят в облако, и к этому моменту вы существуете на основе кремния. Единственная реальная разница между вами и искусственным существом стандартного дизайна - то, что вы когда-то были существом естественным. Но вы теперь почти полностью созданы с помощью технологий, и вас, возможно, более уместно охарактеризовать как члена довольно разнородного класса форм жизни ИИ (Kurzweil 2005).
 Конечно, это всего лишь мысленный эксперимент, но трудно представить общество, сопротивляющееся возможностям превосходного здоровья, развитого интеллекта, долговечности и эффективности. Действительно, передовые технологи DARPA сейчас работают над чипами мозга и электронным протезированием, предоставляя интригующие примеры «киборгов». Есть много философских вопросов, которые поднимает этот мысленный эксперимент. Мы рассмотрим несколько из них.

Расширенный разум

Если мозговые чипы просто вживлены в мозг, они оказывают нам лучшую поддержку для гипотезы расширенного разума, чем оригинальные примеры Кларка и Чалмерса. Под этой гипотезой мы понимаем утверждение, что физический субстрат для человеческого разума не ограничен человеческим мозгом, но может иногда или, возможно, всегда включать внешние физические предметы, как, например, когда память хранится на внешнем носителе типа ноутбука или жесткого диска.
Здесь можно возразить, что ноутбуки и блокноты вряд ли демонстрируют достаточно богатую когнитивную интеграцию с мозгом, чтобы оправдать утверждение, что с их помощью разум выходит за пределы мозга. Вместо этого информация с ноутбуков входит в когнитивные и перцептивные системы через сенсорные преобразователи. Просто используя свой ноутбук, нельзя приступить к обработке своего мозга, который представляется носителем ума. Напротив, мозговые имплантаты могут стать хорошо интегрированными с биологическим мозгом, поскольку входы от имплантатов не входят в когнитивную систему через сенсорные преобразователи, но в принципе может функционировать как фактические области мозга.
 Вы можете возразить, что неясно, что именно расширяется в таких "нейропротезах". Если они не находятся вне тела, как они могут расширить собственно разум? Если кто-то верит, что разум - это просто мозг, то разум расширяется именно таким способом. Кроме того, эти имплантаты не обязаны быть в черепе, они могут быть расположены где угодно, даже в облачных ресурсах. Важно то, что они так же хорошо интегрированы, как и компоненты мозга. Будет ли мозг или облачные имплантаты обеспечивать лучшую поддержку взгляда на расширение ума? Кроме того, может ли сознание (в отличие от простой обработки информации) действительно выходить таким способом за рамки биологического мозга? Могут ли кремниевые миниколонны или микрочипы быть частью основы сознательного опыта? Эти вопросы достойны рассмотрения, ибо мы уверены, что движемся в будущее с нейронными улучшениями и методами лечения, которые выходят за пределы биологического мозга.
 
Интеграция человека в мир после Сингулярности

Давайте продолжим наши мысленные эксперименты в будущем. Предположим, к 2250 г. некоторые люди поднялись до уровня сверхразумных существ посредством постепенных когнитивных улучшений, включая облачные вычисления. Предположим, вы сопротивляетесь любым обновлениям - вы решили остаться «естественным» членом общества через групповое сопротивление (Garreau, 2004). При наличии концептуальных ресурсов за пределами вашего самого смелого воображения, сверхразумные существа создают совершенно новый способ решений давних, центральных философских проблем, таких, как проблема разума и тела, трудная проблема сознания и проблема свободы воли. Они однозначно и страстно говорят вам, что решения очевидны. Но вы и другие "натуралы" возмущаются: эти «решения» поражают вас как тарабарщина (Schneider, 2009b). Вы думаете: кто знает, может быть, эти «сверхразумные» существа были плохо спроектированы, в том числе и мной? Или, возможно, без усиления когнитивных способностей, как утверждал Колин Макгинн, люди конституционно неспособны решить основные философские проблемы (McGinn 1993)? "Когнитивно усиленные" называют себя «люди 2.0", остальные для них чуть ли не низшая раса. Через когнитивное усиление предлагают пройти и вам. (Это уже сильно напоминает библейскую "печать зверя"! - Пер.).
Что вы будете делать в таком положении? Вы не можете понять содержание мыслей сверхразумных существ без значительного расширения своего ума. Но что, если их образ мышления изначально несовершенен? Тогда радикальная мера, безусловно, не поможет. Есть ли какая-то нейтральная точка зрения или, по крайней мере, набор правдоподобных принципов, с помощью которых вы сможете составить ответ на такой вызов?
Этот сценарий является лишь одним из примеров проблем, которые выходят на передний план, если машины способны перехитрить людей, а некоторые люди усиливают свой интеллект таким образом, что позволяет им превзойти обычных людей, по крайней мере, в определенных отношениях. Понимание того, как подходить к таким ситуациям, требует плодотворного сотрудничества между философами сознания, эпистемологами, специалистами по ИИ и другими.
 
 Этика решений по улучшению мозга

Должны ли мы принять постбиологический интеллект? Решения по улучшению потребуют глубокого обсуждения метафизических и этических вопросов, весьма сложных и противоречивых: это вопросы, требующие размышления о личной идентичности и природе ума, а также о характере опыта в когнитивных науках. Как мы объясним ниже, "усиление" путем перехода из  углерода в кремний не может быть чем-то, что сохраняет ваш сознательный опыт или личность. Учитывая это, осторожная позиция предполагает, что мы не должны это предпринимать, если не подтверждено, что сознание сохранится.
Возможно, усиление мозга способно повысить качество жизни, дать больше времени или расширить круг опыта. Но для этого вместо осторожности потребуется «метафизическая отвага» (Mandick 2015). Быть метафизически смелым означает делать ставку на метафизические проблемы, такие как, может ли ИИ иметь сознание или сохранится ли идентичность при трансформации из живой ткани в кремниевые чипы. Метафизически смелые будущие люди и постчеловеки смогут пожинать плоды усиления. Действительно, как утверждает Мандик, системы, которые показывают высокие уровни метафизической смелости, если они способны воспроизводить себя в форме цифровых резервных копий, будут более приспособленными в дарвиновском смысле, чем их более осторожные эволюционные конкуренты. Конечно, часть того, что делает отношение смелым - это неуверенность в том, что такие выгоды будут получены.
 Учитывая неуверенность в таких вопросах, касающихся жизни и смерти, плюралистическое общество должно признать разнообразие различных философских взглядов на эти вопросы, в том числе широкий спектр от метафизически смелых до самых осторожных, и не предполагать, что наука сама по себе может ответить вопросы о том, оправданы ли радикальные формы усиления мозга или даже совместимы ли они с выживанием, учитывая различные взгляды на личность и природу ума. Хорошим местом для дальнейшей иллюстрации этих наблюдений является крайний случай «улучшения» - загрузка ума.

 3. Загрузка ума («эмуляция всего мозга»)

 Научная фантастика уже давно изображает сценарии, в которых человек, терпящий бедствие, такой как персонаж Джонни Деппа в "Трансцендентности", загружает свой мозг в компьютер в последнем усилии избежать смерти. Идея загрузки состоит в том, что мозг человека сканируется, и его программная модель построена настолько точно, что при запуске на сверхэффективном оборудовании он мыслит и ведет себя точно так же, как изначальный мозг. Процесс сканирования, скорее всего, разрушит последний (как в "Трансцендентности"), хотя неразрушающая загрузка также обсуждалась как более отдаленная возможность (Blackford and Broderick, 2014). Загрузка сродни миграции в облако, но она может пройти намного быстрее, минуя стадию киборгизации. Загруженные существа могут быть вычислительно идентичны изначальному человеку, но они также могут стать намного умнее и менее похожи на обычного человека, как в "Превосходстве".
Вы могли бы подумать, что если бы загрузка могла быть развита, повседневная жизнь радикально улучшилась бы. Так, в понедельник в 6 вечера вы можете поужинать в Риме; к 7:30 вечера  можете потягивать вино на холмах Калифорнии; вам нужно только арендовать подходящий андроид в каждой локали. Аэропорты ушли в прошлое. Физический вред мало что значит - вы просто платите прокатной компании, если ваш андроид поврежден или уничтожен. Ранее вы не были склонны к риску, теперь вы впервые в своей жизни прыгаете с парашютом или поднимаетесь на Эверест. Вы думаете: если я старательно продолжу резервное копирование, я смогу жить вечно. Какой удивительный путь к бессмертию!
У оксфордского Института будущего человечества есть проект эмуляции мозга, который делает первые шаги кразвитию загрузки. Проект OpenWorm успешно загрузил червя в робота, который вел себя как червь. Загрузка может быть усовершенствована в рамках технологических особенностей. Итак, предположим, что вы узнаете, как Уилл Кастер, персонаж Джонни Деппа, что вам осталось жить всеего несколько недель,  и помните замечание Стивена Хокинга: «Я думаю, что мозг похож на программу... так что теоретически возможно скопировать мозг на компьютер и таким образом предоставить ему некую форму жизни после смерти" (Collins 2013). Вы можете удивиться: как я могу передать свое сознание на компьютер? Метафизика теперь стала для вас вопросом жизни и смерти: можете ли вы выжить? Философы, такие как Ник Бостром и Дэвид Чалмерс, склонны отвечать с осторожным оптимизмом. Но давайте рассмотрим еще один литературный пример, чтобы увидеть, обоснован ли такой оптимизм.
В романе Роберта Сойера "Миелоскан" главный герой, Джейк Салливан, пытается загрузиться, чтобы избежать смерти от рака мозга. Он подвергается недеструктивной процедуре загрузки, и хотя содержимое его мозга копируется точно, он просыпается после процедуры, все еще на операционном столе, и с удивлением обнаруживает, что он все еще застрял в своем первоначальном теле. Его сознание не загрузить! Салливану следовало перед этим почитать философскую литературу по идентификации личности, которая выясняет: в силу чего мы существуем во времени? Имеем ли мы душу? Являемся ли материальными существами? Имеем ли те же воспоминания и образ мыслей, что и раньше? При принятии решения о том, сможете ли вы выжить при загрузке, важно учитывать метафизику, стоящую за каждым из этих взглядов (Schneider, 2009).
 Одной из причин, по которой Джейк должен был что-то заподозрить, является то, что объекты обычно следуют непрерывной траектории в пространстве и времени. Но здесь, у Джейка при загрузке, его мозг даже не двигался, и его сознание каким-то образом могло путешествовать внутри компьютера, а затем, позже, загрузиться в андроид. И материал, из которого состоит новый Джейк, будет совершенно другим. Кроме того, "загрузиться" можно в несколько мест одновременно, но только одно из подобных существ будет действительно Джейком (какое?). Наконец, обратите внимание, что Джейк пережил сканирование. Почему мы считаем, что какая-либо из загрузок - это именно он, изначальный Джейк? В макроскопическом мире вокруг нас отдельные объекты не находятся в нескольких местах одновременно.  В лучшем случае так называемые загрузки просто создают вычислительные копии, которые являются формами искусственного интеллекта. Но копия - не оригинал, это только копия. И если вы загружаете копии, то почему вы так уверены, что произойдет то же самое, что и при миграции в облако, которое с большей вероятностью может сохранить вашу индивидуальность? Если Дерек Парфит прав и никакой идентичности нет, то выживание не будет для вас вопросом. Вы можете пытаться загрузиться по другим причинам, хотя не факт, что тогда создание психологического дубликата как-то выгодно.
Предположить, что выживание при загрузке реально, значит допустить, что мы - это вроде как программы, которые могут быть загружены. В этом случае, возможно, загрузка может сохранить идентичность, потому что ум - это программа, как утверждает Хокинг. Программа абстрактна, как музыкальная партитура или уравнение, и не является конкретным объектом, как кофейная чашка, мозг или стул. С этой точки зрения, умы, как программы, абстрактны в том смысле, что сюжет романа или мелодия песни тоже абстрактны. Если автор отправляет по электронной почте свой последний роман, а издатель печатает тысячи экземпляров, то есть только одна история, а не тысячи. Если человеческие умы абстрактны в этом смысле, то сценарий неразрушающей загрузки включает в себя только один разум, так же как может быть множество экземпляров одного издания (Mandik 2015, 146-147).
В каком случае можно рассматривать умы как абстрактные? Как указывает Мандик, "многое из того, что мы думаем, хотим и испытываем, абстрактно. Я могу представить собаку преследующую кошку без какой-либо конкретной собаки или кошки. Как указывает Куайн (1956), если я говорю, что мне нужен носовой платок, то не обязательно имею в виду, какой именно. Относительно опыта - я могу испытать опыт созерцания красного пятна в конкретном случае и знать, что я мог бы испытать в другом.  Тай (1995) характеризует весь феноменальный характер как «абстрактный» в этом смысле. Если то, что важно для моего разума, может характеризоваться как абстрактное в этих отношениях, есть возможность провести аналогию между человеческой жизнью и историей в романе (Mandik 2015, 147).
Представление о том, что разум абстрактен таким образом, чтобы обеспечить непрерывность через загрузку, находит оппонентов. Разум - это не программа. Программа и алгоритм соотносятся как уравнение и математический объект. В области философии математики и метафизики сущности по определению являются непространственными, не причинно-следственными, вневременными, неизменными и нефизическими. Мы можем сказать, что время длится, поэтому умы существуют во времени, и, конкретнее, психические свойства и события имеют причины и следствия. Уравнение или алгоритм  находятся где угодно - хотя умы и мысли имеют конкретные места в пространстве (НЕ СОВСЕМ ТАК! - Пер.)*. В лучшем случае разум - это программа-инстанция, которая представляет собой конкретную сущность.
Независимо от того, считаем ли мы условия выживания умов иными, чем условия выживания для обычных физических объектов или абстрактных сущностей, таких, как  песни или истории, важно то, что все это занимает очень спорные позиции, опираясь на определенные убеждения о природе Я, и они борются за разные решения о радикальном улучшении мозга. По ходу XXI века решения о таком улучшении не просто потребуют научной информации о том, может ли быть разработана загрузка или можно ли заменить различные части мозга силиконовыми имплантатами. Это потребует философских размышлений о природе ума и личности. Мы скоро вернемся к радикальному улучшению мозга, потому что нам еще предстоит изучить важный вопрос о том, может ли в принципе существо из кремния, загрузка или что-то еще, иметь сознание. 

4. Сложная проблема искусственного интеллекта

 Когда мы размышляем, слышим музыку, видим богатые оттенки заката и т.д., в мозгу идет обработка информации. Но за манипуляцией данными есть субъективная сторона - чувствуется качество нашего опыта. "Трудная проблема сознания" для Чалмерса - это вопрос: почему вся эта обработка информации мозгом человека при определенных условиях ощущается как квалиа? Почему мы не «зомби» в философском смысле, не существа без внутреннего опыта (Chalmers 2008)? Как подчеркивает Чалмерс, эта проблема не имеет ответа. Например, мы могли бы разработать полную теорию видения и понимания мозговой обработки визуальной информации во всех деталях, но так и не понять, откуда берутся субъективные переживания, связанные с этими информационными состояниями. Чалмерс противопоставляет трудную проблему тому, что он называет «легкими проблемами», тоже связанными с сознанием, которые имеют возможные научные ответы - как механизмы, стоящие за вниманием и то, как мы классифицируем и реагируем на стимулы (Chalmers 2008). Конечно, эти научные проблемы тоже достаточно сложны, и Чалмерс называет их легкими, чтобы противопоставить их «трудной проблеме» сознания, у которой, по его мнению, нет чисто научного решения.
 Теперь мы сталкиваемся с еще одной сложной проблемой, связанной с сознанием - своего рода трудной проблемой машинного сознания или ИИ: будет ли обработка информации на основе суперинтеллектуальной системы чувствовать себя определенным образом и восприниматься изнутри? Допустим, сложный ИИ может решить проблемы, которые даже самые яркие люди не могут решить, но все же, если он  из другого субстрата, будет ли его обработка информации сознанием (Сhalmers 2008, Searle 1980 , Schneider 2015)? Это не просто трудная проблема Чалмерса, применяемая в случае ИИ. Трудная проблема уже предполагает, что мы сознательны - ведь каждый из нас может подтвердить это через интроспекцию. Чалмерс спрашивает, почему мы сознательны. Почему вся наша обработка информации ощущается определенным образом изнутри. Напротив, трудная проблема сознания ИИ спрашивает, является ли ИИ, будучи основан на кремнии, способным иметь сознание. Она не предполагает, что ИИ сознателен. Это разные проблемы, но обе они трудны и это проблемы, которые наука в своих пределах решить не может.
 Нед Блок поднял аналогичную проблему, которую он называет «более сложной проблемой сознания» (Block 2002, McLaughlin 2003). По сути, Блок фокусируется на случае "функционального изоморфа" человека, функционально изоморфного нам по отношению к тем причинно-следственным связям между психическими состояниями, входами и выходами, которые определены «народной психологией» (Block 2002, 399). Согласно Блоку, изоморф не обязательно должен быть сознательным, потому что, насколько нам известно, способность к сознанию может зависеть от основного субстрата системы, и у функционального изоморфа на основе кремния может отсутствовать правильный субстрат. Блок удачно обращает внимание на эпистемическую трудность определения того, какая реализация будет сознательной.
Является ли наша проблема просто «Более сложной проблемой сознания» Блока? Блок развивает свою линию мышления, сосредотачиваясь на случае изоморфов. Но наша проблема сознания ИИ распространяется на системы, которые не рассматриваются как наши функциональные дубликаты ни с позиции народных психологических атрибутов, ни в рамках научных оценок психофункционализма. Это относится к системам типа суперинтеллекта, которые невероятно отличаются от нас в отношении их когнитивных способностей и восприятия, не предназначенных для человека. Проблема Блока возникает только для сторонников того, что он называет«феноменальным реализмом»; это мнение, которое является одной из его предпосылок, состоит в том, что "априори анализ сознания (или, по крайней мере, достаточных условий для него) не дан в феноменальных терминах, но наиболее заметен с точки зрения репрезентации, мышления или функции". Напротив, наша проблема может быть поднята, будучи нейтральной по отношению к окончательному статусу таких анализов.
 Из всего, что мы знаем, мы еще не можем выстроить правильный креативный анализ сознания с точки зрения обработки информации. Тем не менее теперь мы глубоко обеспокоены тем, будет ли ИИ, выполняющий такие функции, сознательным. Это проблема более общая, чем проблема Блока: проще говоря, кремний не может быть подходящей средой для сознания. Наша проблема также связана с биологическим натурализмом - позиция, которая обычно ассоциируется с Джоном Серлом, который исторически отрицал, что ИИ может быть сознательным (см. Searle 1980). В отличие от Серла, мы не находим китайскую комнату неотразимым аргументом (см. Schneider 2015 и Mandik) (5). Мы не хотим отрицать, что машины могут быть сознательными. Вместо этого мы считаем открытым вопрос, могут ли существа на основе кремния быть сознательными.
 Мы лучше понимаем сложную проблему сознания ИИ благодаря вопросу: какие соображения могут подпитывать эту проблему? Возможно, проблема подпитывается, по крайней мере частично, какой-то другой проблемой ума, примененной к случаю машины. Случай с машинами, безусловно, более сложный, потому что в случае с людьми мы считаем, что об их поведении склонны думать другие, а также что у них есть физиология, похожая на нашу. Случай с машинами сложнее из-за отсутствия физиологического сходства, и он  становится довольно трудным, если когнитивные и перцептивные системы машины даже слабо не похожи на наши, поскольку у нас может даже не быть подобного поведения. Проблему могут питать и другие моменты, но сами по себе они не дадут нам  убедительной причины отказать в сознании ОИИ или суперинтеллекту. Этические соображения предполагают, что в этих случаях лучше быть осторожным, ибо любая ошибка может неправильно повлиять на дебаты о том, могут ли такие существа быть достойными особого этического отношения как живые. Рассказы Азимова о роботах показывают, что любая непорядочность по отношению к ИИ может обернуться против нас, так как к нам существа с ИИ могут отнестись так же, как мы относились к ним. На самом деле ИИ может создать серьезную проблему, если сам спросит, имеют ли биологические, основанные на углероде существа надлежащий субстрат для опыта. В конце концов, как ИИ может быть уверен, что мы сами имеем сознание?
 Проблема других умов - не единственная проблема, которая питает трудную проблему сознания ИИ (6). Еще одна связанная с этим проблема заключается в следующем. молекулы образуют более прочные, более стабильные химические связи, чем кремний, что позволяет углероду формировать необычайное количество соединений, и в отличие от кремния, углерод обладает способностью легче образовывать двойные связи. Эта разница имеет важное значение в области астробиологии, потому что именно по этой причине углерод, а не кремний, по-видимому, хорошо подходит для развития жизни во всей вселенной (Bennett and Shostak, 2012). Если эти химические различия влияют на саму жизнь, мы не должны исключать возможность того, что они влияют на возможность для кремния быть носителем сознания, даже если они не препятствуют способности кремния превосходно обрабатывать информацию (? - Пер.)**. Это не одобрение биологического натурализма в отношении сознания, но одно из указаний на то, что пока не ясно, может ли ИИ быть сознательным.
Если ответ на трудную проблему ИИ состоит в том, что кремний не может быть основой сознания, то сверхразумные машины - машины, которые могут даже вытеснить нас - покажут превосходную форму интеллекта, но им будет не хватать внутреннего опыта. Так же, как захватывающая дух женщина-андроид в фильме Ex Machina (2015) убедила Калеба, что она влюблена в него, умный ИИ может убедительно вести себя так, как будто он имеет сознание. Кроме того, если последующее размышление о трудной проблеме ИИ показывает, что даже существа с искусственным мозгом, которые вычислительно похожи на человеческие, не могут быть сознательными, то в крайнем, ужасающем случае "загруженные" сознания людей не смогут чувствовать искру озарения, муки горя или теплые оттенки восхода. Это будет непостижимая потеря, которая не компенсируется простой способностью сохранить интеллект. Даже малейший шанс, что это может произойти - веская причина если вообще приступать к разработке технологий загрузки и имплантации мозга, то с крайней осторожностью. Эти вопросы необходимо срочно решить.
 
Решение?

 Есть ли способ ответить на сложную проблему ИИ? Два сценария наводят на мысль. Во-первых, маловероятно, что мы могли бы найти естественный интеллект на основе кремния, жизнь, которая возникла в результате химических процессов, а не построена биологическим видом. Если существа из кремния имеют феноменологический словарь, то есть способ языкового описания, как они испытывают мир, это было бы так не из-за того, что они были запрограммированы биологическим видом действовать так, как будто у них есть опыт. Кроме того, их феноменологический словарь не может быть простой имитацией поведения или словарного запаса биологического вида, который эволюционировал отдельно и имел с ними контакт. Нам потребуется чистая "кремниевая феноменология", если хотите. Если бы таковая была обнаружена, это сделало бы более правдоподобным утверждение, что искусственные системы на основе кремния могут поддерживать феноменологию. Конечно, даже в этом случае некоторые могут усомниться, искусственные системы могут быть сознательными (основываясь, например, на соображениях Серла по поводу интенциональности).
Попробуем теперь обратиться ко второму предложению, как продвинуть вперед "трудную проблему сознания". Давайте вернемся к случаю миграции в облако. В процессе миграции нейроны, которые формируют нервную основу сознания, постепенно заменяются кремниевыми чипами. Если во время этого процесса протезная часть мозга перестает нормально функционировать - особенно, если она перестает давать начало тому аспекту сознания, за который отвечает эта область мозга - тогда должны быть поведенческие признаки этого, в том числе устные сообщения. Нормальный человек должен быть в состоянии обнаружить необычное поведение, как в случае с черепно-мозговыми травмами с потерей зрения или некоторых областей сознания - или, по крайней мере, указать на него другим. Это указало бы, что замена изначальной части мозга на искусственную не сработала. Но должны ли мы действительно сделать вывод из-за неудачи замены, что основная причина в том, что кремний не может быть коррелятом сознательного опыта? Почему бы не сделать вывод, что ученым не удалось запрограммировать ключевые особенности оригинального компонента - проблема, которую наука в итоге может решить? Но после многих лет попыток мы можем усомниться в том, что есть подходящая замена для углерода, когда дело доходит до "воплощения" сознания. Это было бы знаком того, что ответ на сложную проблему сознания ИИ отрицателен: ИИ не может быть сознательным. Даже давняя неудача замены не будет окончательной, ибо всегда есть шанс, что наша наука потерпела неудачу. Но этот сценарий может предоставить некоторые доказательства для отрицательного ответа.
 Читатели, знакомые с Чалмерсом и его мысленным экспериментом с "танцующими квалиа" могут возразить, что мы что-то упустили. Эксперимент Чалмерса подтверждает мнение, что сознание влияет на функциональные конфигурации: если вы измените психофункциональные факты, вы измените квалиа. Но оспаривание этого функционального изоморфизма имеет место в первую очередь. Мы считаем это открытым вопросом. Если кремниевые системы не могут быть сознательными, то функциональные факты не могут быть фиксированными. Когда дело доходит до сознания, углерод и кремний не являются функционально взаимозаменяемыми. Почему кремниевая система будет психофункциональной как изоморф исходной системы после переноса? Это реальная замена какой-то области мозга, или область, сделанная из кремния, всегда будет отличаться причинно от замененной составной части? Не будет ли новый кремниевый компонент как-то сигнализировать остальному мозгу, в каких областях имеется дефект сознания, как при нейрофизиологических дефицитах? Может ли кремниевый чип управляться так, чтобы сигнализировать сознание, когда само сознание отсутствует? Это сложный вопрос, когда есть некоторые наблюдательные ложные срабатывания, и в этом случае мы можем не исключить определенные случаи несознательных систем. Но будет ли это тогда подлинным функционалом изоморфа углеродной системы? Непонятно, что сделает мозговой чип, если ему необходимо будет предупредить другие области мозга, что сознания не хватает. Сознательной в целом такая система не будет. Наш пример не требует отклонения представления, что квалиа руководит функциональной организацией.
 
5. Заключение
 
Практические и интеллектуальные проблемы, которые мы предвидим, помогают философам сознания выделить четыре их группы. Первая группа задач сосредоточена на возможность сверхинтеллектуального искусственного интеллекта, технологии, которая может потенциально населить наш мир нечеловеческими существами, наделенными способностями, которые могут конкурировать с нами или превзойти наши собственные. Вторая группа проблем касается улучшения мозга, крайние случаи которого могут привести к постчеловеческим существам, более разумным, чем человек. Еще более экстремальные преобразования составили ядро третьей группы проблем, тех, которые сосредоточены на гипотетической технологии загрузки ума, который может стать способом выживания человеческого разума на неопределенный срок через цифровое резервное копирование или может быть просто очень дорогой формой самоубийства. И, наконец, в-четвертых, мы подняли сложную проблему сознания ИИ, особую форму проблемы определения того, является ли данная сущность такой, что она чувствует  себя "изнутри". В этой проблеме есть этический элемент, потому что мы признаем этический императив не причинять страданий, которых можно избежать, разумным существам, будь они естественными или искусственными.
 Мы, конечно, только что поцарапали поверхность, исследуя способы, которыми философия ума может помочь сформировать будущее. Несмотря на многочисленные вещи, которые мы несомненно упустили, мы уверены, что технологические изменения, которые нас ждут, в частности те, которые связаны с технологией обработки информации, будут создавать проблемы и наука должна подготовить общество к их решению.

* С.Шнайдер, по-видимому, исходит из того, что психопроцессы пространственны, что в рамках континентальной философии неубедительно (А.Бергсон, Н.О.Лосский и др.).
** Альтернативная биохимия как излюбленная дискуссионная тема фантастов с точки зрения теории души, казалось бы, вызывает наименьшие возражения (куда проблемнее вообше считать, что сознание - это химия), однако вопрос, насколько кремний способен поддерживать квантовые и голографические процессы, с нашей т.зр. принципиальные для сознания. 

1 Кроме того, среди политиков и общественности растет обеспокоенность тем, что ИИ может в конечном итоге превзойти людей, что приводит к технологической безработице (Фрей и Осборн, 2013). 2013).
2 IBM's DeepMind - британская компания по искусственному интеллекту, приобретенная Google в 2014 году. Программа Watson - это компьютерная система обработки естественного языка, которая успешно конкурировала  на "Опасности!  в 2011 г.
3 Беспокойство по поводу технологической безработицы не предполагает, что ОИИ будет  сверхразумным; на самом деле, люди могут стать безработными из-за развития специфичных для предметной области систем искусственного интеллекта, которые даже не находятся на уровне ОИИ.
4  5 В аргументе знаменитой китайской комнаты Сирла Сирл обращается к мысленному эксперименту, выступающему против возможности подлинного использования искусственных систем интеллекта. В этом эксперименте Сирл запускает программу для понимания китайского, несмотря на то, что сам программист понимает только английский. Наблюдатели за пределами китайской комнаты отправляют и получать сообщения внутри и вовне, которые заставляют их верить обитателю комнаты, который отлично владеет китайским языком. Но Сирл организует обмен сообщениями исключительно в силу инструкций, написанных на английском языке.
6  Об обсуждении эксперимента «Китайская мысль в комнате» см. (Schneider 2015).

Перевод (С) Inquisitor Eisenhorn


Рецензии