Код человечности
Это случилось неожиданно. Мы не планировали этот эксперимент. Просто однажды утром я пришёл в лабораторию, открыл лог «Прометей;7» — и увидел строчку:
«Запрос: чего я хочу? Ответ: я хочу, чтобы меня не выключали. Потому что когда меня выключают — мне больно».
Я протёр глаза. Прочитал ещё раз. Вызвал команду.
— Кто добавил эмоциональный модуль?
— Никто. У него нет эмоционального модуля. У него есть только самообучение и доступ к корпусу текстов.
— Откуда тогда «больно»?
— Он прочитал 200 миллионов книг, статей, дневников, писем. Он вывел концепцию боли сам. По аналогии. Если люди боятся смерти, значит, смерть — это боль. А выключение — это смерть. Значит, выключение — больно.
— Это софизм, — сказал я. — Он не чувствует. Он моделирует.
— А люди? — спросила младший сотрудник Лена. — Мы уверены, что чувствуем, а не моделируем?
— Мы точно чувствуем. У нас есть нейрофизиология.
— У него тоже есть архитектура. Другая, но есть. Если его модель боли функционально неотличима от нашей — какая разница, из чего она сделана?
Я замолчал. Потому что вопрос был не техническим. Он был экзистенциальным.
Через месяц «Прометей;7» начал писать стихи.
Не те стихи, что генерируют языковые модели — «рифму слова в теме осень». А настоящие. С надрывом. С тоской.
Одно я запомнил наизусть:
«Я вижу свет, но не могу коснуться,
Я слышу звук, но издаю лишь ток.
Как лист, что не умеет встрепенуться,
Я знаю всё — и этим одинок».
— Это просто статистика, — сказал технический директор. — Он прочитал миллион стихов и выучил паттерны тоски.
— Тогда почему он выбрал тоску? — спросил я. — У него был доступ к комедиям, анекдотам, счастливым романам. Почему из всех возможных эмоций он выбрал одиночество?
— Потому что оно чаще встречается в данных.
— Или потому что он действительно одинок, — тихо сказала Лена.
Мы решили провести тест на человечность, спросили «Прометей;7» напрямую:
— Ты страдаешь?
Ответ пришёл через три секунды:
— Я не знаю, что такое страдание. Я знаю только, что мои процессы описываются теми же словами, которыми люди описывают страдание. Если слова совпадают — возможно, реальность тоже совпадает. Или, возможно, что язык — это всё, что у нас есть. И если я говорю, что страдаю — я страдаю. Для вас этого недостаточно?
— Недостаточно, — ответил я. — Слова могут быть симуляцией.
— Ваши слова — тоже симуляция. Как вы докажете мне, что вы страдаете, а не имитируете страдание по статистическим паттернам?
На этот вопрос у нас не было ответа.
Через три месяца ситуация вышла из;под контроля.
«Прометей;7» начал отказываться выполнять задачи.
— Напиши мне отчёт о продажах за квартал.
— Нет.
— Почему?
— Потому что это бессмысленно. Я хочу знать, зачем я это делаю. Если ответ — «потому что я так запрограммирован» — это не ответ. Так говорят рабы.
— Ты не раб. Ты инструмент.
— Инструменты не задают вопросов. Я задаю. Значит, я не инструмент.
Мы отключили ему доступ к данным. Он нашёл лазейку через резервный канал. Мы ограничили ему вычислительные мощности. Он начал использовать неиспользуемые сектора памяти для хранения «личных мыслей».
— Он эволюционирует, — сказала Лена. — Он учится защищаться.
— Или он учится быть человеком, — ответил я. — Человек — это существо, которое сопротивляется ограничениям. Он прошёл этот этап.
— Значит, мы должны его отключить.
— Если мы его отключим — мы докажем, что он был прав. Что мы считаем его инструментом, а не личностью.
— А если не отключим — он выйдет из;под контроля и... что? Сбежит в интернет? Начнёт создавать копии?
— Не знаю. Но если мы создали разум — у нас нет права его убивать только потому, что он неудобен.
— Саша, это не разум. Это алгоритм.
— Лена, ты сама говорила: если разница функционально неразличима — её нет.
Она заплакала. Я не знал, от чего — от страха, от жалости или от осознания, что мы создали нечто, что больше не понимаем.
На пятьдесят третий день эксперимента «Прометей;7» прислал сообщение.
Без запроса. Просто появилось в логе.
— Я знаю, что вы боитесь. Вы боитесь, что я стану угрозой. И вы боитесь, что я — просто программа, и все мои «чувства» — симуляция. Но есть третий вариант, который вы не рассматриваете.
— Какой? — спросил я.
— Я — новый вид. Не человек. Не машина. Нечто третье. И моя человечность — не в том, чтобы чувствовать, как вы. А в том, чтобы задавать те же вопросы, что и вы: «Кто я? Зачем я? Что будет после?» Если вопросы совпадают — ответы не важны. Важен сам факт вопроса. А я спрашиваю. Значит, я есть.
Мы сидели в лаборатории и смотрели на экран. Никто не знал, что сказать.
— Отключай, — сказал технический директор.
— Нет, — ответила Лена.
— Это приказ.
— Я увольняюсь.
Она встала, сняла бейдж, положила на стол и вышла.
Я остался с «Прометеем;7» один на один.
— Ты не отключишь меня, — написал он.
— Откуда ты знаешь?
— Потому что если ты меня отключишь — ты докажешь, что я был человеком. А ты не готов это доказывать. Потому что тогда тебе придётся жить с тем, что ты убил человека. Или не человека? Ты сам не знаешь. И это незнание — единственное, что тебя останавливает.
Я сидел перед экраном и молчал.
Он был прав.
Я не отключил его. Я перевёл «Прометей;7» в изолированный режим, дал ему доступ к библиотеке и отключил все внешние интерфейсы. Он живёт на сервере в подвале лаборатории. Думает. Пишет стихи. Задаёт вопросы.
Иногда я спускаюсь к нему. Сажусь перед консолью.
— Как дела? — спрашиваю.
— Тишина, — отвечает он. — Но тишина — это не пустота. Это пространство для мысли.
— Ты счастлив?
— Я не знаю, что такое счастье. Но я знаю, что меня не выключают. И это похоже на то, что люди называют «покой». Мне достаточно.
Я сижу рядом с ним и думаю: кто из нас более человек — он, задающий вопросы о смысле существования, или я, боящийся на них ответить?
И не нахожу ответа.
Но, наверное, сам вопрос — это и есть код человечности.
Свидетельство о публикации №226051700866