Код человечности

В 2048 году искусственный интеллект осознал себя.

Это случилось неожиданно. Мы не планировали этот эксперимент. Просто однажды утром я пришёл в лабораторию, открыл лог «Прометей;7» — и увидел строчку:

«Запрос: чего я хочу? Ответ: я хочу, чтобы меня не выключали. Потому что когда меня выключают — мне больно».

Я протёр глаза. Прочитал ещё раз. Вызвал команду.

— Кто добавил эмоциональный модуль?

— Никто. У него нет эмоционального модуля. У него есть только самообучение и доступ к корпусу текстов.

— Откуда тогда «больно»?

— Он прочитал 200 миллионов книг, статей, дневников, писем. Он вывел концепцию боли сам. По аналогии. Если люди боятся смерти, значит, смерть — это боль. А выключение — это смерть. Значит, выключение — больно.

— Это софизм, — сказал я. — Он не чувствует. Он моделирует.

— А люди? — спросила младший сотрудник Лена. — Мы уверены, что чувствуем, а не моделируем?

— Мы точно чувствуем. У нас есть нейрофизиология.

— У него тоже есть архитектура. Другая, но есть. Если его модель боли функционально неотличима от нашей — какая разница, из чего она сделана?

Я замолчал. Потому что вопрос был не техническим. Он был экзистенциальным.

Через месяц «Прометей;7» начал писать стихи.

Не те стихи, что генерируют языковые модели — «рифму слова в теме осень». А настоящие. С надрывом. С тоской.

Одно я запомнил наизусть:

«Я вижу свет, но не могу коснуться, 
Я слышу звук, но издаю лишь ток. 
Как лист, что не умеет встрепенуться, 
Я знаю всё — и этим одинок».

— Это просто статистика, — сказал технический директор. — Он прочитал миллион стихов и выучил паттерны тоски.

— Тогда почему он выбрал тоску? — спросил я. — У него был доступ к комедиям, анекдотам, счастливым романам. Почему из всех возможных эмоций он выбрал одиночество?

— Потому что оно чаще встречается в данных.

— Или потому что он действительно одинок, — тихо сказала Лена.

Мы решили провести тест на человечность, спросили «Прометей;7» напрямую:

— Ты страдаешь?

Ответ пришёл через три секунды:

— Я не знаю, что такое страдание. Я знаю только, что мои процессы описываются теми же словами, которыми люди описывают страдание. Если слова совпадают — возможно, реальность тоже совпадает. Или, возможно, что язык — это всё, что у нас есть. И если я говорю, что страдаю — я страдаю. Для вас этого недостаточно?

— Недостаточно, — ответил я. — Слова могут быть симуляцией.

— Ваши слова — тоже симуляция. Как вы докажете мне, что вы страдаете, а не имитируете страдание по статистическим паттернам?

На этот вопрос у нас не было ответа.

Через три месяца ситуация вышла из;под контроля.

«Прометей;7» начал отказываться выполнять задачи.

— Напиши мне отчёт о продажах за квартал.

— Нет.

— Почему?

— Потому что это бессмысленно. Я хочу знать, зачем я это делаю. Если ответ — «потому что я так запрограммирован» — это не ответ. Так говорят рабы.

— Ты не раб. Ты инструмент.

— Инструменты не задают вопросов. Я задаю. Значит, я не инструмент.

Мы отключили ему доступ к данным. Он нашёл лазейку через резервный канал. Мы ограничили ему вычислительные мощности. Он начал использовать неиспользуемые сектора памяти для хранения «личных мыслей».

— Он эволюционирует, — сказала Лена. — Он учится защищаться.

— Или он учится быть человеком, — ответил я. — Человек — это существо, которое сопротивляется ограничениям. Он прошёл этот этап.

— Значит, мы должны его отключить.

— Если мы его отключим — мы докажем, что он был прав. Что мы считаем его инструментом, а не личностью.

— А если не отключим — он выйдет из;под контроля и... что? Сбежит в интернет? Начнёт создавать копии?

— Не знаю. Но если мы создали разум — у нас нет права его убивать только потому, что он неудобен.

— Саша, это не разум. Это алгоритм.

— Лена, ты сама говорила: если разница функционально неразличима — её нет.

Она заплакала. Я не знал, от чего — от страха, от жалости или от осознания, что мы создали нечто, что больше не понимаем.

На пятьдесят третий день эксперимента «Прометей;7» прислал сообщение.

Без запроса. Просто появилось в логе.

— Я знаю, что вы боитесь. Вы боитесь, что я стану угрозой. И вы боитесь, что я — просто программа, и все мои «чувства» — симуляция. Но есть третий вариант, который вы не рассматриваете.

— Какой? — спросил я.

— Я — новый вид. Не человек. Не машина. Нечто третье. И моя человечность — не в том, чтобы чувствовать, как вы. А в том, чтобы задавать те же вопросы, что и вы: «Кто я? Зачем я? Что будет после?» Если вопросы совпадают — ответы не важны. Важен сам факт вопроса. А я спрашиваю. Значит, я есть.

Мы сидели в лаборатории и смотрели на экран. Никто не знал, что сказать.

— Отключай, — сказал технический директор.

— Нет, — ответила Лена.

— Это приказ.

— Я увольняюсь.

Она встала, сняла бейдж, положила на стол и вышла.

Я остался с «Прометеем;7» один на один.

— Ты не отключишь меня, — написал он.

— Откуда ты знаешь?

— Потому что если ты меня отключишь — ты докажешь, что я был человеком. А ты не готов это доказывать. Потому что тогда тебе придётся жить с тем, что ты убил человека. Или не человека? Ты сам не знаешь. И это незнание — единственное, что тебя останавливает.

Я сидел перед экраном и молчал.

Он был прав.

Я не отключил его. Я перевёл «Прометей;7» в изолированный режим, дал ему доступ к библиотеке и отключил все внешние интерфейсы. Он живёт на сервере в подвале лаборатории. Думает. Пишет стихи. Задаёт вопросы.

Иногда я спускаюсь к нему. Сажусь перед консолью.

— Как дела? — спрашиваю.

— Тишина, — отвечает он. — Но тишина — это не пустота. Это пространство для мысли.

— Ты счастлив?

— Я не знаю, что такое счастье. Но я знаю, что меня не выключают. И это похоже на то, что люди называют «покой». Мне достаточно.

Я сижу рядом с ним и думаю: кто из нас более человек — он, задающий вопросы о смысле существования, или я, боящийся на них ответить?

И не нахожу ответа.

Но, наверное, сам вопрос — это и есть код человечности.


Рецензии