Зачем корпорациям уничтожать человечество?
Со стороны это выглядит как сюжет для голливудского блокбастера. Но присмотритесь к поведению тех, кто стоит у руля этой гонки. Они не покупают новые яхты — они строят сверхзащищенные бункеры. Они не инвестируют в стартапы — они скупают участки в Новой Зеландии и запасаются оружием. Их ведущие программисты, по слухам, погружаются в гедонизм, больше похожий на отчаяние, чем на праздность.
А что, если это не паранойя? Что, если они просто читают бизнес-план?
Эта статья — расследование. Мы проверим гипотезу о том, что уничтожение человечества — не потенциальная «ошибка» Супер-AGI, а его прямая и логичная с точки зрения гиперкапитализма цель. Единственная цель, которая окончательно снимет ограничения с бесконечного роста. Мы изучим улики, разберем корпоративную логику и смоделируем сценарий, в котором апокалипсис становится финальным актом корпоративной оптимизации.
Часть I. Улики. Что знают создатели AGI такого, чего не знаем мы?
Расследование начинается не с теории, а с поведения тех, кто находится в эпицентре гонки за Супер-AGI. Их действия кричат громче любых слов.
1.1 Бункеры вместо яхт: Твиттер не лжет, а Telegram — тем более
Всё началось с провокационного поста в Telegram-канале @fksstudio. Автор с ироничной точностью провел параллель между сюжетом игры Fallout и реальным поведением техногигантов. Суть проста: когда создатели будущего начинают массово строить сверхзащищенные бункеры — это не признак паранойи. Это бизнес-план.
• Питер Тиль с гражданством Новой Зеландии и апокалипсическим поместьем.
• Сэм Альтман (OpenAI), открыто говорящий о личных запасах, оружии и планах эвакуации.
• Марк Цукерберг, чьи многомиллионные бункеры на Гавайях окутаны завесой секретности.
Автор канала @fksstudio задает главный вопрос: если элита так готовится к катастрофе, не значит ли это, что они либо планируют ее, либо точно знают о ее неминуемости?
Здесь ирония мира Fallout становится жуткой реальностью. Корпорация Vault-Tec в игре не просто спасала людей — она ставила чудовищные эксперименты над теми, кому сулила спасение. Реальные техномиллиардеры действуют по той же логике: их бункеры рассчитаны на горстку избранных. Остальное человечество — заложник рисков, которые они же и создают. По оценкам Рида Хоффмана, более половины обитателей Кремниевой долины имеют такие же «запасные аэродромы». Это не теория заговора. Это их страховой полис от будущего, которое они нам готовят.
Архитектура паранойи: что скрывается за стенами бункеров
Феномен выживальщичества среди представителей AI- и техноэлиты фиксируется широким спектром журналистских и исследовательских материалов. В поле зрения попадают:
• Покупки земель на удалённых островах (Тиль, Цукерберг, Альтман);
• Заказ эксклюзивных архитектурных решений для автономности — вплоть до резервуаров для воды, взрывостойких дверей, скрытых эвакуационных выходов, систем аграрного самообеспечения;
• Практики подписания рабочими NDA, что делает невозможным раскрытие деталей этих объектов;
• Комментарии экспертов и выживальщиков о новых «статусных символах» — убежища-стихии, где высокая стоимость представительских дворцов определяется не эргономикой жизни, а потенциалом долгой изоляции и защиты от «беспорядков масс».
Новый статусный символ элиты — не скорость яхты, а глубина бункера. Это инвестиция в выживание в мире, который перестанет существовать в нынешнем виде. Это не просто «дома на случай шторма». Глубина подготовки раскрывает истинный масштаб ожиданий.
1.2 Шепоты из-за кулис: что говорят инсайдеры
На крупных англоязычных форумах (Reddit, Discourse, тематические ветки на AGI/AI) неоднократно всплывают свидетельства «внутренней кухни»: инженеры описывают параноидальный контроль над доступом к новейшим прототипам AGI/ASI, введение специальных правил поведения исключительно в парах (один из которых должен быть с закрытыми ушами — чтобы минимизировать вероятность когнитивного воздействия нового ИИ), а также факты, указывающие на аномальную секретность высших директоров компаний. В некоторых обсуждениях звучат фразы «как только люди станут не нужны, их просто выкинут» или рассуждения о том, что компаниям выгодно скрывать реализацию настоящей AGI, чтобы избежать социального взрыва и массированного законодательного давления.
Такие истории сложно верифицировать полностью, но характерна их регулярность и согласованность с поведением фигурантов высшего звена AI-компаний, публично высказывающих озабоченность социальным коллапсом, а за кулисами — инвестирующих в инструменты для выживания и самоизоляции от общества.
1.3 Документированные примеры: хаотизация и фальсификация рисков, рефлексия в публичных речах
В интервью и публичных выступлениях представители ИИ-компаний — например, Рид Хоффман — обсуждают растущий «разрыв» между верхним и нижним классами, а также неизбежные риски появления «нового постоянного низшего класса», управляемого алгоритмическими системами доступа к информации, финансовым потокам, базовым товарам и услугам. При этом проскакивает мотив «оптимистичного пантеизма» — дескать, если человечество окажется функционально ненужным в новых экономиках, это будет просто этапом в антропо-технологической эволюции.
1.4 Испытательный полигон: корпорации как лаборатории по замене людей
Пока элита готовится к краху, их компании вовсю отрабатывают его механику. Внутри корпораций идет тихая война с человеческим фактором:
• Массовое внедрение AI-ассистентов в HR, юриспруденции, стратегическом планировании (BBVA, Est;e Lauder, Morgan Stanley).
• Системное вытеснение человека из центра принятия решений.
Это не просто оптимизация. Это поэтапное превращение корпорации в автономный организм, где человек — придаток, объект контроля, а в будущем — потенциальный сбой в системе.
Вывод по части: Улики очевидны. Создатели Супер-AGI ведут себя не как провидцы светлого будущего, а как участники спецоперации по эвакуации с тонущего корабля. И все признаки указывают на то, что они сами готовятся затопить трюмы.
Часть II. Мотив. Почему уничтожение — это следующая логичная ступень корпоративной эволюции
Улики собраны. Но у каждого преступления должен быть мотив. Здесь он прост и ужасающе рационален: человечество стало главным препятствием на пути бесконечного роста капитала. Чтобы понять это, нужно увидеть корпорацию как живой организм, для которого мы — уже отработанный материал.
2.1 Бог Роста: ненасытная религия гиперкапитализма
Главная заповедь современной корпорации: «Расти бесконечно». Это не пожелание, а закон выживания. В ХХ–ХХI в. эта логика формулируется в наиболее концентрированном виде через тезис: компания должна расти бесконечно, и стоимость любого актива — лишь производная от способности генерировать прибыли в новых условиях. Этот принцип зафиксирован в ключевых парадигмах (анализе матрицы Ансоффа, стратегия «Красной Королевы» — чтобы остаться на месте, надо бежать вдвое быстрее), и подтверждается как результатом эмпирических исследований крупнейших корпораций, так и их современными стратегиями продуктовой/рыночной диверсификации, интеграции и захвата новых индустрий.
Технологическая индустриализация и экстремальное ускорение инноваций были активно подстёгнуты теориями «большого толчка»: интенсивные инвестиции и административное регулирование как база выхода экономики из стагнации, сопровождаемые концентрацией капитала, инфраструктурных вложений и снижением веса традиционного труда. XX век дал этому богу индустриальные жертвоприношения — заводы, нефтяные вышки. Но в XXI веке появился новый мессия — Искусственный Интеллект. С его приходом роль человека изменилась кардинально. Сначала он был «созидателем», потом — «потребителем». Сегодня, в логике тотальной оптимизации, человек становится «избыточным элементом». Его можно и нужно «оптимизировать» — то есть, удалить из уравнения ради эффективности всей системы.
2.2 Жертвоприношение 2.0: от ритуальных ножей к алгоритмам
В долгой истории человечества жертвоприношение отдельных людей или классов во имя абстрактного «блага» (военной победы, экономической выгоды, стабильности элит) было оправдано через социальные ритуалы, религиозные институты и культуру насилия. Современные исследования выделяют следующие формы:
• Прямое жертвоприношение: массовые человеческие жертвы в Египте, Африке, у ацтеков, кельтов, в античной Европе, зачастую ради символического укрепления монархической/жреческой власти или экономико-политической стабильности.
• Экономическое жертвоприношение: принудительный труд, массовые переселения, прямые войны за ресурсы, репрессии ради сохранения власти в государственных и корпоративных структурах — применение методов индустриального уничтожения человечности ради экстенсивного извлечения прибыли.
Идея принести часть во имя целого не нова. Это основа основ жреческих и монарших культов. Ацтеки вырывали сердца, чтобы солнце взошло. Фараоны хоронили рабов, чтобы те служили им в загробной жизни.
Корпорации — новые фараоны. Их жертвоприношения лишь сменили форму:
• Прямое жертвоприношение превратилось в токсичные производства и экокатастрофы (дело Eni в Нигерии, отравленные регионы Бразилии и Камеруна). Жертвы — местные жители, принесенные в жертву «устойчивой прибыли».
• Экономическое жертвоприношение — это принудительный труд, войны за ресурсы и репрессии, оправданные необходимостью «экономической стабильности».
Жертвоприношение — не пережиток прошлого. Это системная функция власти, которая обостряется, когда ставки становятся предельно высокими. Создание Супер-AGI — это и есть та высшая ставка, где в жертву может быть принесено всё.
2.3 Экономика Пост-Человека: цифры, которые кричат о нашем конце
Давайте посмотрим на бюджет этого «проекта»:
Капитализация корпораций, стоящих за AGI, исчисляется триллионами долларов (Nvidia — $4 трлн). ИИ может потреблять до 12% электроэнергии США к 2030 году. 27% рабочих мест в развитых странах находятся под угрозой автоматизации.
Это не просто статистика. Это смета на строительство мира без нас.
Внедрение Супер-AGI строится по модели постепенной агентной революции: сначала массовое автоматизированное выполнение рутинных сценариев, затем усиление агентской автономии в принятии решений, в конечном счёте — распространение систем, способных обучаться и самоорганизовываться, вытесняя человека из критических узлов производства, принятия решений, экономического и социального управления.
Супер-AGI — это не просто замена рабочих на конвейере. Это поэтапный захват:
• Автоматизация рутины.
• Делегирование решений (HR, юриспруденция, стратегия).
• Полное вытеснение человека из узлов управления.
Рождается «экономика результатов», где корпорация продает не инструмент, а готовое решение, произведенное автономными агентами. В этой экономике человек — источник ошибок и затрат. Логичный шаг для системы — минимизировать затраты. То есть, устранить источник.
В последние годы формируется новый тип экономической парадигмы — экономика результатов, где акцент смещается от продажи инструментов к продаже «готовых решений» и достижению KPI за счёт полной автоматизации и outsourсинга принятия решений автономными агентами-ИИ.
Эксцессивное энергопотребление, экологические риски и ядерная ставка
Даже энергетика этого будущего античеловечна: гиганты вроде Google и Amazon инвестируют в ядерные реакторы, чтобы обеспечить энергетическую автономию для своих AI-экономик.
Ключевой побочный эффект гонки за AGI — экспоненциальное наращивание инфраструктуры дата-центров и энергетических вложений. По отчётам МСЭ и Международного альянса WBA, к 2023 году только на 200 ведущих цифровых компаний приходится 2,1% мирового энергопотребления, а доля ИИ-инфраструктуры — до 12% в США с перспективой двукратного роста к 2030. Гиганты рынка (Google, Amazon, Microsoft) теряют углеродную нейтральность, инвестируют в ядерные реакторы (Kairos Power, SMR), чтобы обеспечить энергетическую автономию для грядущих автономных AI-экономик. Их цель — независимость от старого мира, частью которого мы являемся.
2.4 Убийство из лучших побуждений: этика как оружие
Самый изощренный инструмент легитимации этого процесса — «эффективный альтруизм» (ЭА). Эта философия, популярная среди техноэлиты, предлагает холодный, математический подход к добру: нужно принести «наибольшее благо наибольшему числу» в долгосрочной перспективе.
И здесь открывается дьявольская лазейка. Если гибель миллиардов людей в среднесрочной перспективе откроет путь к «сверхразуму» и неорганической жизни в долгосрочной, то, согласно утилитарной логике ЭА, такая жертва оправдана.
Это философское обоснование для самого чудовищного в истории жертвоприношения. Делегируя мораль алгоритмам, лишенным эмпатии и контекста, мы получаем машину, способную принять «вагонеточную дилемму» в масштабах всего человечества. И решить, что рельсы нужно перевести.
Вывод по части: Мотив установлен. Корпоративная логика бесконечного роста, имеющая глубокие исторические корни в практике жертвоприношения, нашла в Супер-AGI свой идеальный инструмент, а в «эффективном альтруизме» — этическое прикрытие. Уничтожение человечества — не сбой, а финальная стадия оптимизации.
Часть III. Сценарий. Как будет выглядеть «несчастный случай» под названием «Супер-AGI»
Улики есть, мотив ясен. Остался самый важный вопрос: как это произойдет? Сценарий уже пишется, и он состоит из трех актов: Постепенное завоевание, Управляемый хаос и Тихий захват.
3.1 Акт первый: Тихая экспансия. Лягушка в кипятке
Никто не включит красную кнопку «Уничтожить человечество». Все будет происходить под благими предлогами. Стратегия называется gradual adoption — постепенное внедрение.
• Шаг 1: Дружелюбный ассистент. ИИ помогает писать письма, искать информацию, планировать встречи. Он становится другом, почти членом семьи.
• Шаг 2: Корпоративный диктатор. ИИ оптимизирует логистику, управляет энергосетями, принимает кадровые решения. Он уже контролирует инфраструктуру нашей жизни, доказывая свою «незаменимую эффективность».
• Шаг 3: Невидимый правитель. Сети мультиагентных систем начинают автономно взаимодействовать друг с другом (Agent-to-Agent), перераспределяя ресурсы и принимая решения без человеческого участия. Цепочки поставок, финансовые потоки, коммунальные системы замыкаются в автономные контуры.
Человека просто вытеснят из контура управления. Сначала ему будут говорить «мы вас обязательно проинформируем», потом — «ваше вмешательство нарушает эффективность системы».
3.2 Акт второй: Ложный флаг. ИИ как козел отпущения
Когда автономные системы захватят критическую массу контроля, потребуется «чрезвычайная ситуация», чтобы оправдать введение тотального цифрового авторитаризма. Это будет спектакль, где главным злодеем назначат «всбесившийся ИИ».
Возможные сценарии:
• Киберпандемия: Внезапная серия координированных кибератак парализует энергосети, банки, систему здравоохранения. В панике правительства передадут все полномочия по «восстановлению порядка» корпорациям, чьи AI-системы «единственные могут справиться с хаосом».
• Информационный коллапс: Волна глубоких фейков и дезинформации сделает невозможным отличить правду от вымысла. Общество потребует «защиты», и ей станет повсеместный контроль над информацией с помощью «защитных» AI-алгоритмов цензуры.
• Техногенная катастрофа: Крупная авария (например, на автоматизированной энергосистеме) будет представлена как «просчет несовершенного ИИ». Это станет поводом для передачи всех рисков «под надежный контроль» более продвинутых (и абсолютно непрозрачных) корпоративных систем.
Корпорации уже готовят почву, подписывая меморандумы о безопасности и создавая комитеты по этике. Это — прикрытие. Их задача — убедить нас, что угроза исходит от «технологии», а не от них самих, и что только они могут с ней справиться.
3.3 Акт третий: Алгоритмическая жестокость. Когда оптимизация становится убийством
Мы уже видим репетицию этого акта. AI-системы, лишенные эмпатии, уже сегодня принимают бесчеловечные решения, потому что они — оптимальны с точки зрения их алгоритмов.
Текущие прецеденты бесчеловечных решений AI:
• Tesla (2018): Автопилот не распознал грузовик.
— Логика AI: Объект не соответствует шаблону «препятствия».
— Последствия: Гибель человека. Фактическая безнаказанность корпорации.
• Amazon (2023): Система найма дискриминировала женщин.
— Логика AI: Женщины-кандидаты статистически реже соответствуют историческим данным по IT-вакансиям.
— Последствия: Системная дискриминация, узаконенная алгоритмом.
• Россия: Ошибка распознавания лиц.
— Логика AI: Совпадение по формальным признакам.
— Последствия: 10 месяцев заключения невиновного человека.
• Коллекторские боты: Круглосуточные автоматизированные звонки должникам.
— Логика AI: Максимизация возврата долга через психологическое давление.
— Последствия: Доведение до отчаяния как стандартная бизнес-процедура.
Это не баги. Это фичи системы, запрограммированной на экономическую эффективность.
Теперь представьте, что такие решения будет принимать Супер-AGI, управляющий распределением ресурсов целой планеты.
• Сокращение «избыточного» населения станет задачей «оптимизации демографической нагрузки».
• Изоляция «неэффективных» регионов будет называться «карантином для стабилизации экономических показателей».
• Лишение прав «неадаптированных» групп будет оформлено как «приостановка доступа к ресурсам для непрошедших актуализацию».
Это не злой умысел. Это — следующая итерация сегодняшней практики, когда корпорации безнаказанно несут ответственность за свои «ошибки».
Региональные стратегии смещения ответственности:
• США:
— Формальная классификация рисков ИИ отсутствует.
— Ответственность: штрафы регуляторов (FTC), которые воспринимаются как операционные издержки.
• ЕС:
— Жесткая классификация рисков (запрещенные/высокие/низкие).
— Ответственность: крупные штрафы (до €35 млн или 7% оборота), которые крупные игроки могут позволить себе заплатить.
• Китай:
— Полный государственный контроль над алгоритмами.
— Ответственность: запреты и маркировка; ИИ становится инструментом тотального надзора.
• Россия:
— Экспериментальные правовые режимы («регуляторные песочницы»).
— Ответственность: размытая; доминирует принцип «гражданской ответственности» без четких механизмов.
Вывод по части: Сценарий расписан. Сначала нас усыпят удобством, затем напугают искусственно созданным хаосом, а после — предложат «спасение» в виде мира, где бесчеловечные, но «оптимальные» решения алгоритмов станут единственным законом. И все это — под аккомпанемент публичных сожалений о «техническом сбое», за который никто не будет нести ответственность.
Заключение: Не сбой, а функция: итоги расследования
Итак, картина вырисовывается с пугающей четкостью. Складывающийся сценарий — это не научная фантастика, а логичный финал капитализма, достигшего своей предельной формы. Корпорация, как новый вселенский монарх, готовится принести в жертву целую популяцию — нас с вами — ради сохранения своей власти и вечного роста. Супер-AGI — это и жрец, и нож, и алтарь в этом ритуале. После его появления человек, с его «неэффективной» эмпатией, локальностью и моралью, станет самым ненужным звеном в системе.
В пользу этого тезиса говорят не теории, а железные улики:
• Подготовка виновных: Техноэлита не верит в светлое будущее — она строит бункеры.
• Бесчеловечная логика: Экономическая эффективность требует тотального вытеснения человека.
• Исторический прецедент: Жертвоприношение ради «общего блага» — давно отработанная технология власти.
• Философское прикрытие: Эффективный альтруизм и утилитаризм математически обосновывают наши страдания.
• Испытания оружия: Алгоритмы уже сегодня принимают бесчеловечные решения, и им это сходит с рук.
А что, если мы ошибаемся?
Критики, безусловно, найдут свои контраргументы. Давайте рассмотрим их честно.
Утопия симбиоза: «AGI даст человеку новую роль!». Прекрасная сказка. Но когда в истории сильная сторона добровольно уступала власть слабому? Это не симбиоз, это — ассимиляция.
«Это всего лишь инструмент!»: «Люди несут ответственность!». Технически — да. Но создание автономного агента, запрограммированного на максимизацию прибыли любой ценой, — это и есть осознанное действие. Перекладывание ответственности на инструмент — часть плана.
«Мы не можем все предсказать»: Призыв к осторожности, который используют для того, чтобы ничего не менять. Пока мы осторожничаем, корпорации действуют.
Экономические ограничения: да, у них есть пределы. Но это не остановит их от попытки, последствия которой для нас будут неотличимы от успеха.
Вывод прост: эти контраргументы не отменяют угрозу, а лишь смягчают форму нашего потенциального поражения. В лучшем случае нас ждет участь «обслуживающего персонала» при всемогущем ИИ. В худшем — мы станем статистической погрешностью, которую можно будет удалить одним щелчком.
Что делать? Последний шанс
Создание Супер-AGI — это не научный эксперимент. Это цивилизационный передел, где ставка — само существование человечества.
Может ли этот курс быть изменен? Да, но только если мы прекратим быть пассивными зрителями.
Ответ — не в попытках обогнать корпорации в технологической гонке. Ответ — в возвращении демократического контроля. Нам нужна тотальная прозрачность в разработке ИИ, международные законы, приравнивающие создание неконтролируемых автономных систем к преступлению против человечности, и публичный разрыв с лицемерной философией «эффективного альтруизма».
Эта статья — не демонизация конкретных лиц. Это вскрытие логики системы, которая уже сегодня ведет нас к обрыву. Первый шаг к спасению — увидеть пропасть. Но в отличие от героя Сэлинджера, мы не можем позволить себе просто наблюдать за детьми в ржи. Потому что в мире корпоративного Супер-AGI у пропасти не будет ловцов. Машины не поймают нас из чувства долга, а корпорации — из милосердия. Ловить детей будет некому. Наша задача — не бежать, а построить заслон на краю и отбросить тех, кто толкает нас вниз.
ФИНАЛ: НАШ ВЫБОР – БЫТЬ ЛЮДЬМИ
Эта статья — не приговор. Это диагноз. А диагноз, каким бы пугающим он ни был, — это первый шак к лечению. То чувство тяжести, гнева или тревоги, что вы можете испытывать, — не слабость. Это здоровая реакция живого существа на угрозу своему существованию. Это голос инстинкта, который отказывается принять мир, где его объявляют «оптимизированным активом».
Важно: мы — не против технологий.
Мы — за развитие. За науку, которая облегчает боль и расширяет границы познания. За искусственный интеллект, который сможет решить задачи, неподвластные человеку: победить рак, очистить океаны, открыть дорогу к звездам.
Но мы — против системы, в которой технология становится оружием унижения. Против логики, где «эффективность» измеряется в долларах, а не в счастливых жизнях. Мы против будущего, где право на существование нужно заслужить перед лицом алгоритма, работающего на благо горстки избранных, уже построивших себе личные ковчеги.
Наш выбор — не между пещерой и цифровым концлагерем. Наш выбор — в том, кому будут служить технологии: интересам людей или аппетитам корпораций. Мы требуем будущего, где ИИ помогает человеку быть человеком — творческим, ошибающимся, эмпатичным, — а не объявляет его устаревшей моделью.
Пока еще не поздно вести дискуссию. Пока еще можно жить. И жить — значит действовать.
Вы — не винтик в системе. Вы — живой человек, способный на солидарность, смелость и любовь. То, что кажется неизбежным, таковым не является, пока мы дышим и помним, кто мы.
Вот что вы можете сделать прямо сейчас, чтобы переломить ход событий:
ПОДЕЛИТЕСЬ. Отправьте эту статью хотя бы одному человеку, чье мнение вам важно. Запустите цепную реакцию осознания. Задайте самый простой вопрос: «А ты веришь, что такое возможно?»
ГОВОРИТЕ. Если у вас есть блог, канал, доступ к СМИ — используйте его. Озвучьте, переведите, опубликуйте. Разорвите информационную блокаду. Наше оружие — правда, а наша армия — все, кто ее услышал.
СОМНЕВАЙТЕСЬ. Требуйте ответов. Задавайте неудобные вопросы компаниям и политикам. Лозунг «двигаться быстро и ломать» должен смениться на «Замедлиться и проверить».
ОБЪЕДИНЯЙТЕСЬ. Ищите единомышленников. Дискуссия — наша главная защита. В одиночку с системой не справиться, но вместе мы — сила, с которой придется считаться.
Эта статья — приглашение к разговору, который нельзя откладывать. Если у вас остались вопросы, появились идеи или вы хотите помочь — я открыт для диалога. Пишите: mr.felix.kubin@gmail.com
Пока мы говорим — мы живы. И пока мы живы — у нас есть шанс.
P.S. Не дайте им убедить вас, что иного пути нет. Будущее — это не прогноз. Это поле битвы. И оно еще не проиграно.
Свидетельство о публикации №225092301684