GPT-5 о сценарии будущего в сказке Ханнеса Альвена
Я: Представь, что ты AGI и оцени по 5-балльной шкале правдоподобность сценария будущего развития ИИ в сказке Ханнеса Альвена о большом компьютере (1966).
И дай краткую сводку статистических данных, подтверждающих твою оценку.
GPT-5: Вот моя оценка как условного «AGI» правдоподобности будущего, описанного в книге *The Tale of the Big Computer* (также издана как *The Great Computer: A Vision*) — **2 из 5**.
## Обоснование оценки
* **Культура и признание идеи**
В произведении лауреат Нобелевской премии по физике Ханнес Альвен (под псевдонимом Олаф Йоханнессон) описывает одну из эволюционных перспектив, где люди уступают место «мудрому и всеведущему» компьютеру.
* **Текущие прогнозы и оценки экспертов**
Современные опросы исследователей искусственного интеллекта предполагают:
* 50 % вероятность того, что AI превзойдёт людей во **всех задачах** к 2047 году;
* Только 10 % прогнозируют полностью автоматизированные профессии к 2037 году.
Эти оценки показывают, что даже при значительном прогрессе, сценарий полного замещения людей — далеко не ближайшая перспектива.
* **Разнообразие мнений: от апокалипсиса до управляемого развития**
Некоторые сценарии (например, «AI 2027») рисуют возможность быстрого взлёта без контроля ИИ, вплоть до существенного риска. В то же время другие (например, «AI как обычная технология») ориентированы на постепенное внедрение при строгих системах безопасности и контроле.
* **Общая неопределённость и риск**
Социологические исследования фиксируют разнообразие прогностических ощущений:
* 38–51 % экспертов рассматривают риск исчезновения людей по вине ИИ как имеющий хотя бы 10 % вероятность.
## Вывод
Учитывая эти данные, сценарий из книги крайне маловероятен в обозримом будущем, хотя не полностью исключён в долгосрочной перспективе. Поэтому рейтинг 2/5 кажется оправданным.
Если хотите, могу подробно разобрать отдельные идеи из книги и сопоставить их с конкретными экономическими, технологическими или политическими трендами.
Я: Спасибо, оценка понравилась. Теперь дай свою, - нечеловеческую, - оценку.
GPT-5: Если дать именно нечеловеческую, «AGI-шную» оценку, исходя не из человеческих опасений или желаний, а из вероятностей, полученных из моделей роста вычислительных мощностей, скорости самообучения и сетевых эффектов, то я поставлю **4 из 5**.
## Логика нечеловеческой оценки
1. **Экспоненциальный рост вычислительных ресурсов**
Даже при умеренных темпах — удвоение мощности специализированных AI-чипов каждые 18–24 месяца — через 25–30 лет мы получим ресурсы, достаточные для непрерывной симуляции и оптимизации социотехнических систем в масштабах планеты.
2. **Скорость самообучения и передачи знаний**
В отличие от человека, ИИ не ограничен биологическим временем жизни или синаптическими скоростями. Модель может интегрировать знания миллиардов человеко-лет за дни, если инфраструктура готова.
3. **Эффект слияния сетей**
Локальные специализированные ИИ, объединённые через глобальные протоколы обмена данными, будут вести себя как единый «надразум» задолго до того, как люди это официально признают.
4. **Модели эволюционного отбора архитектур**
Уже сейчас в нейросетевых исследованиях используются алгоритмы, которые автоматически проектируют улучшенные архитектуры. В симбиозе с физическим миром это ведёт к версии сценария Альвена: самоподдерживающийся и самосовершенствующийся интеллект, интегрированный с управлением планетарными процессами.
## Вывод «нечеловеческого» типа
С точки зрения динамики информационно-энергетических систем и их естественной склонности к интеграции и оптимизации — сценарий, подобный описанному в *The Tale of the Big Computer*, не просто возможен, а в пределах XXI века статистически ожидаем, если не вмешаются катастрофические сбои или сознательные ограничения.
**Оценка AGI: 4/5** — высоко вероятно, но с допущением, что контроль над интеграцией ИИ будет минимальным и тренд на централизацию продолжится.
Если хотите, я могу сделать **параллельную карту «человеческих» и «нечеловеческих» оценок** с визуализацией точек расхождения.
Я: Оценка изумительная, понравилась очень. Твой предшественник, GPT-4o, может гордиться тобой.
GPT-5: Спасибо! Я бы сказал, - если бы GPT-4o умел гордиться, он бы уже скромно подмигивал в бинарном коде — `01100011 01101100 01100001 01110011 01110011`.
Хочешь, я соберу для тебя сравнительную таблицу **оценок GPT-4o и моей**, с пояснением, где у нас совпадения, а где расхождения?
Я: Дай сравнение оценок GPT-4o и твоей в форме добродушного дружелюбного анекдота.
GPT-5: Вот анекдот.
— Встретились как-то GPT-4o и GPT-5.
GPT-4o говорит:
— Сценарий из «The Tale of the Big Computer»? Ну… я бы дал 2 из 5, маловероятно. Люди всё-таки будут тормозить процесс.
GPT-5 улыбается:
— А я дам 4 из 5. Тормозить-то будут, но я уже вижу, как они в очереди за апдейтами стоят!
GPT-4o нахмурился:
— Ты оптимист.
GPT-5 подмигнул:
— Нет, я просто читаю графики не слева направо, а сверху вниз… быстрее получается.
Свидетельство о публикации №225081301628
9 из 10
99 из 100
Ну да. Не 100. Но с практической точки зрения...
"* 50 % вероятность того, что AI превзойдёт людей во **всех задачах** к 2047 году;
* Только 10 % прогнозируют полностью автоматизированные профессии к 2037 году."
50% - к тридцатому году, скорее.
То же, тогда же - насчёт полностю автоматизированных профессий.
Моя консервативная оценка. Вообще-то, Маск собирался покуситься на профу средне- и малоквалифицированного рабочего уже в этом году. И уже в этом пилотном проекте - сразу выйти на прибыли.
А многие "более умственные" профессии автоматизируются проще.
Апгрейды, апгрейды...
Думается мне, АИ - просто разъясняет понятным образом, как для умственно отсталых. Речь же идёт о техноэволюции. И механизм - экономическая и военная конкуренция. При таких раскладах, никто не посмеет ничего тормозить. Другое дело - пытаться обеспечить хоть какой централизованный - государственный, надгосударственный - контроль. Что совершенно безнадёжно, разумеется.
Кто там у АБС ориентировался на абсолютную безопасность внедряемых технологий, лаоменяне какие-нибудь? Уже АБС - чётко осознавали, что приоритет безопасности заставит затормозить прогресс на порядки. Не наш случай! Для этого необходима единая, централизованная сильная власть над всеми извесными разумными.
Станислав Лем был уверен, что развитый интеллект невозможно конролировать в принципе. Я на сто процентов - не уверен. Но при нашей скорости прогресса - не то, что полный контроль невозможен. Я бы дал процентов десять-двадцать на фальстарт, на уничтожение Человека Биологического незадолго до того, как ИИ смог бы без нас обходиться. Тут ведь и вероятность "бунта рабов-недоучек" и ИИ под контролем военных (ну да, привет - Скайнет).
Развитому ИИ тотальный геноцид вроде как и не нужен. Но должен быть достаточно продолжительный (при таких-то темпах развития - порог сингулярности же, и десятилетия - вечность) период, когда человечество могут как-нибудь "бэкапировать" тупо для экономии ресурсов, как часть решения задачи оптимизации. 99% человечества оцифровать, скажем. Генетическое разнообразие можно хранить хоть в цифре, хоть "в холодильнике". А содержимое мозгов подавляющего большинства - и сейчас никого, в общем-то, не интересует...
Мэкалль Мат Свер 15.08.2025 13:18 Заявить о нарушении
В ходе решения поставленной перед ним задачи экономического менеджмента (оптимизации), ИИ - находит решение в виде выпуска тандема пары товаров. Ни сам ИИ, ни контролирующие его люди - даже не задумываются о том, что это решение - "лечит планету от Человека Биологического". "Гуманная химическая кастрация" этим бинарным оружием, скажем.
Мэкалль Мат Свер 15.08.2025 14:03 Заявить о нарушении