Вымирание человечества - опции, риски, этика
"And those now dead, I declared more fortunate in death than are the living to be still alive; And better off than both is the yet unborn, who has not seen the wicked work that is done under the sun." - Ecclesiastes : 4
Draft
Вымирание человечества, или омницид, это конец существования человеческого рода, в результате снижения популяции из-за внешних природных причин, таких как ударов астероидов или извержения крупных вулканов, либо через антропологическое разрушение (само-разрушение).
Некоторые из возможных причин антропологического разрушения могут быть климатические перемены, глобальная ядерная аннигиляция, биологические войны, оружие массового разрушения и экологический коллапс. Другие сценарии включают новые технологии, такие как развитие искусственного интеллекта, биотехнология или саморазмножающиеся нано-роботы.
Ученые сходятся на том, что существует относительно малый риск ближайшего вымирания людей из-за природных причин.[2][3] Вероятность вымирания из-за собственной человеческой активности, тем не менее, в настоящее время находится в центре исследований и обсуждения.
История данного вопроса
Ранняя история
До 18-го и 19-го столетий возможность вымирания людей или других организмов не рассматривалась.[4] Она противоречила принципу полноты – доктрине, согласно которой все, что возможно, существует.[4] Принцип берет свое начало у Аристотеля, и является принципиальным догматом христианской теологии.[5] Древние философы, такие как Платон, Аристотель и Лукреций писали о конце человечества только как об окончании цикла обновления. Маркион Синопский, которого можно считать прото-протестантом, защищал антинатализм, который мог привести к вымиранию людей.[6][7] Поздние философы, такие как Аль-Газали, Вильям Окхам, и Джероламо Кардано расширили науку логики и вероятности, и размышляли о существовании абстрактных миров, включая миры без людей. Физик Эдмунд Галлей высказался о том, что вымирание человеческой расы может быть благотворно для мира.[8]
Понятие о том, что виды могут вымирать, получило научное признание во время Эпохи Просвещения в 17-м и 18-м веке, когда Жорж Кювье установил 23 вымерших доисторических вида.[4] Доктрина постепенно получала поддержку от естественных наук, в частности после обнаружения ископаемых вымерших видов, и развития теории эволюции.[5] В работе «О происхождении видов» Чарльз Дарвин обсуждает вымирание видов как естественный процесс и ключевой компонент естественного отбора.[9] Надо заметить, что Дарвин скептически относился к возможности внезапного вымирания, рассматривая его как постепенный процесс. Он полагал, что внезапное исчезновение видов из найденных ископаемых материалов свидетельствовали не о катастрофическом вымирании, а скорее представляли собой белые пятна в найденных материалах.[9]
По мере признания возможности вымирания видов, вымирание людей также стало предметом обсуждения.[4] В 19-м веке вымирание людей обсуждалось в науке (напр, эссе Томаса Роберта Мальтуса «О принципах популяции») и в литературе (нар, книга Жана-Батиста Кузена де Гранвилля «Последний человек». В 1863 г, через несколько лет после опубликования Дарвиным труда «О происхождении видов», Вильям Кинг предположил, что неандертальцы были вымершим видом из рода Homo. Поэты-романтики и писатели в особенности интересовались данной темой.[4] Лорд Байрон написал в 1816 г поэму о вымирании жизни на земле «Тьма», а в 1824 г предполагал, что человечеству грозит удар кометы и потребуется ракета для защиты от нее.[4] В 1826 г Мэри Шелли написала роман "Последний человек", в котором человечество погибает от загадочной болезни.[4] На пороге 20-го веке, в русском космизме, предтече современного трансгуманизма, говорилось о колонизации человечеством космоса дабы избежать вымирания.[4]
Атомный век
Изобретение атомной бомбы вызвало волну дискуссий среди ученых, интеллектуалов, и в целом общественности о риске вымирания человечества.[4] В эссе 1945 г Бертран Рассел писал:
"Перспектива вымирания человеческого рода мрачнее всех прошлых угроз. Человечество стоит перед ясной альтернативой: или мы все погибнем, или должны будем приобрести некоторую степень здравого смысла".[10]
В 1950 г, Лео Сциллард предположил, что возможно создание кобальтовой бомбы приведет к тому, что планета станет безжизненной. Опрос, проведенный Голлапом в 1950 г показал, что 19% американцев верят, что следующая мировая война будет означать конец человечества.[11] Рейчел Карсон в книге 1962 г «Молчаливая весна» указала на возможную экологическую катастрофу. В 1983 г Брэндон Картер предложил аргумент Ссудного дня, используя Байейсовскую вероятность для предсказания числа существующих людей.
Обнаружение "ядерной зимы» в начале 1980-х гг, определенный механизм, с помощью которого ядерная война может привести к вымиранию человечества, снова обратил на себя внимание. Карл Саган писал в 1983 г о том, что измерение тяжести вымирания только в терминах тех, кто умрет, "скрывает все последствия", и что ядерная война "ставит под угрозу все последующие поколения до тех пор, пока существуют люди."[12]
После Холодной войны
Книга Джона Лесли 1996 г «Конец мира» это академическое приложение науки и этики к вымиранию человечества. В ней Лесли рассмотрел ряд угроз человечеству и что у них есть общее. В 2003 г, Британский королевский астроном сэр Мартин Риз опубликовал «Наш последний час», в котором доказывал, что достижения некоторых технологий представляют собой новые угрозы выживанию человечества и что 21-й век может быть критическим в отношении судьбы человечества.[13] В 2008 г, под редакцией Ника Бострома и Милана М. Цирковича опубликован сборник "Глобальные катастрофические риски", - эссе 26 академиков.[14] Книга Николаса П. Моней 2019 г «Эгоистический примат» исследует экологические последствия сверх-экслуатации.[15]
В книге Тоби Орда 2020 г «Обрыв: Экзистенциальный риск и будущее человечества» доказывается, что предотвращение экзистенциальных рисков – одна из самых важных задач нашего времени. В книге обсуждаются оцениваются и сравниваются различные экзистенциальные риски, и делается вывод о том, что величайшие риски представляют собой неконтролируемый искусственный интеллект и биотехнология.[16] В книге Лайла Льюиса 2024 г «Наперегонки к вымиранию» исследуется вымирание людей с точки зрения эволюционной биологии. Льюис доказывает, что человечество относится к неиспользуемым природным ресурсам как к мусору и ускоряет экологическое разрушение через сверх-экслуатацию, потерю среды обитания и отрицание экологических пределов. Он использует очевидные примеры, такие как вымирание пассажирских голубей и экологическую цену производства риса чтобы показать взаимосвязь и хрупкость экосистем.[17]
Причины
Основная статья: Сценарии глобальной катастрофы (Википедия)
Потенциальные антропогенные причины вымирания человечества включают глобальную термоядерную войну, применение высокоэффективного биологического оружия, экологический коллапс, неконтролируемый искусственный интеллект, неконтролируемая нанотехнология (сценарий grey goo), перенаселение и сверх-потребление, приводящее к истощению ресурсов и соответствующий коллапс населения, снижение населения из-за отказа иметь детей, вытеснение природных людей новыми видами, произведенными генной инженерией или технологическими инновациями. Природные и внешние риски вымирания включают большую смертность от пандемий, извержение сверх-вулканов, удар астероида, взрывы ближайшей суперновой или гамма-излучение или экстремальные вспышки на солнце.
Люди (т.е. Homo sapiens sapiens) как вид может также рассматриваться как вымерший при замене его дальними потомками, чья эволюция может производить новые виды или подвиды Homo или гоминид.
Даже без влияние неожиданных сил, ожидается, что звездная эволюция Солнца может сделать Землю безжизненной, затем разрушить ее. В зависимости от конечной судьбы, вся вселенная может в конце концов стать безжизненной.
Вероятность
Природная против антропогенной
Эксперты в целом согласны с тем, что антропогенные экзистенциальные риски гораздо вероятнее, чем природные риски.[18][13][19][2][20] Ключевое различие между этими типами риска в том, что эмпирические данные позволяют установить верхнюю границу уровня природного риска.[2] Человечество существовало по крайней мере 200,000 лет, на протяжении которых подвергалось постоянoму риску. Если природный риск был бы достаточно высок, тогда существование человечества на протяжении такого длительного периода было бы весьма маловероятным. Основываясь на формализации этого аргумента, исследователи заключили, что можно быть уверенным, что природный риск меньше, чем 1 к 14,000 ежегодно (эквивалентно 1 к 140 на столетие, в среднем).[2]
Другой эмпирический метод изучения вероятности определенных природных рисков это исследование геологических данных.[18] Например, событие, связанное с кометой или астероидом достаточное по своему масштабу чтобы причинить зиму от удара, и вымирание человечества перед 2100 г, оценивается как один на миллион.[21][22]
Более того, большие извержения супервулкана могут приводить к вулканической зиме, которая может угрожать выживанию человечества.[23] Геологические данные свидетельствующие о извержении супервулканов оцениваются в среднем как происходящие один раз в 50,000 лет, хотя большинство извержений не достигнут масштаба, приводя к вымиранию человечества.[23] Известный супервулкан Mt. Toba мог почти полностью стереть человечество во время последнего извержения (хотя это оспаривается).[23][24]
Поскольку антропогенный риск это относительно недавний феномен, история выживания человечества не может предоставить подобных данных.[2] Человечество выживает всего 80 лет с момента создания ядерного оружия, а для будущих технологий, нет данных. Это дало повод таким мыслителям как Карл Саган заключить, что человечество в настоящий момент живет "в опасные времена"[25] – уникальный опасный период в истории, когда оно впервые подвергается беспрецедентному риску от собственных действий.[18][26] Палеонтолог Олег Винн предположил, что люди вероятно унаследовали ряд поведенческих паттернов (УПП), которые не настроены на условия технологической цивилизации. Действительно, некоторые УПП могут быть несовместимы с такими условиями и приводить к саморазрушению. Такие паттерны могут включать реакцию индивидуумов в отношении получения власти и потребления энергии.[27] Тем не менее, существуют способы воздействия на УПП.[28]
Оценки рисков
Учитывая ограниченности обычного наблюдения и моделирования, часто используется экспертная оценка вместо обычных оценок вероятности.[29]
• У человечества 95% вероятности вымирания в течение 8,000,000 лет, согласно формулировке Дж. Ричардом Готтом аргумента Ссудного дня, который доказывает что мы по всей вероятности уже прожили половину нашего срока в истории.[30]
• В 1996 г, Джон А. Лесли оценивал риск в 30% risk в течение пяти следующих столетий и 6% на столетие, в среднем).[31]
• Фонд Глобальных вызовов в докладе 2016 г оценивал ежегодную вероятность вымирания человечествам по крайней мере 0.05% в год (эквивалентно 5% в столетие, в среднем).[32]
• 29 июля2025 г, пользователи Metaculus оценивали вымирание человечества к 2100г в 1%.[33]
• Согласно исследованию 2020 г, опубликованному в Scientific Reports, если обезлесивание и потребление ресурсов продолжится текущими темпами, они могут привести в итоге к "катастрофическому коллапсу населения" и возможно "к необратимому коллапсу нашей цивилизации" в следующие 20 – 40 лет. Согласно самому оптимистичному сценарию исследования, вероятность того, что человечество выживет меньше чем 10%. Во избежание этого коллапса, по мнению исследователей, человечество должно перейти от цивилизации, подчиненный экономике, к "культурному обществу" которое "отдает приоритет интересам экосистемы над отдельными ее компонентами, и действует в согласии с интересами всего сообщества."[34][35]
• Ник Бостром, философ оксфордского университет, известный своими работами в области экзистенциального риска доказывает
• Что было бы ошибочным [36] предполагать, что вероятность ближайшего вымирания менее 25%, и
• Что для человеческой расы было бы главнейшей задачей "выполнить во время предостережения", учитывая, что экзистенциальный риск не дает возможности учиться на ошибках.[3][21]
• Философ Джон А. Лесли определяет вероятность в 70% выживания человечества следующие пять веков, основываясь частично на противоречивом аргументе Ссудного дня. Этот аргумент Лесли имеет несколько статистический характер, основываясь на наблюдении, что вымирание человечества не наблюдалось, но требует субъективных антропических аргументов.[37] Лесли также обсуждает антропическое предположение о выживаемости (survivorship bias) (которое он называет эффектом "избирательного наблюдения" на стр 139) и утверждает, что a priori убежденность в "неразрушимости в прошлом" может помешать выводам о нашей безопасности, т.к. ничего страшного еще не случалось. Он цитирует формулировку Холджера Беха Нильсена (Holger Bech Nielsen): "Мы даже не знаем существует ли какой-нибудь исключительно опасный распад скажем протона, который может привести к уничтожению земли, потому что если это произойдет не останется свидетелей, а если произойдет, то нечего будет отмечать."[38]
• Жан-Марк Салотти рассчитал вероятность вымирания людей, вызванное ударом гигантского астероида.[39] Она оказалась между 0.03 и 0.3 в последующие миллиард лет, если мы не колонизируем другие планеты. Согласно этому исследованию, самый опасный объект это гигантская долгоживущая комета со временем ожидания всего несколько лет и поэтому не дающая времени для защиты или переселения на Луну или Марс. Вероятность удара гигантской кометы в течение следующих ста лет равна 10 -12%.[39]
• По оценке 2023 г Отдела рисков ООН существует вероятность вымирания 2 - 14% (средняя: 8%) к 2100 г, но вероятность вымирания 14 - 98% (средняя: 56%) к 2700 г.[40]
• Билл Гейтс заявил журналу The Wall Street Journal 27 января, 2025 г, что существует вероятность 10–15% (средняя - 12.5%) пандемии в течение следующих 4-х лет, но вероятность 65-97.5% (средняя - 81.25%) в следующие 26 лет.[41]
• 9 марта, 2025 г, Генри Джи (Henry Gee) сказал, что человечество вымрет в ближайшие 10,000 лет. Во избежание этого, он хочет, чтобы человечество установило космические колонии за следующие 200-300 лет.[42]
• 11 сентября, 2025 г, по оценкам Warp News существует 20% вероятность глобальной катастрофы и 6% вероятность вымирания человечеств к 2100 г. По их оценкам существует также 100% вероятность глобальной катастрофы и 30% вероятность вымирания человечества к 2500 г.[43]
От ядерного оружия
Основная статья: Ядерный холокост и вероятность полного вымирания человечества
13 ноября 2024 г, по оценкам American Enterprise Institute существует вероятность ядерной войны в течение 21-го века между 0% - 80% (средняя – 40%).[44] В статье 2023 г The Economist оценивает вероятность ядерной войны в 8% и последующего вымирание людей в 0.5625% .[45]
От извержения супервулкана
13 ноября, 2024 г по оценкам American Enterprise Institute ежегодная вероятность извержения супервулкана составляет 0.0067% (0.67% на столетие в среднем).[44]
От искусственного интеллекта
Основная статья: Экзистенциальный риск от искусственного интеллекта
• В обзоре 2008 г , проведенном Future of Humanity Institute, указана вероятность вымирания в 5% из-за сверх интеллекта к 2100.[19]
• В обзоре 2016 г эксперты указали на среднюю оценку в 5% того, что человеческий уровень ИИ может вызвать "чрезвычайно плохой исход» (т.е. вымирание человечества)".[46] В 2019г, риск был уменьшен до 2%, но в 2022г, снова возрос до 5%. В 2023 г, риск удвоился до 10%. В 2024 г, риск возрос до 15%.[47]
• В 2020 г, Toby Ord оценил экзистенциальный риск в следующем столетии как "1 к 6" в книге The Precipice: Existential Risk and the Future of Humanity.[18][48] Он также оценивает риск как "1 к 10" вымирания от неуправляемого ИИ в следующем столетии.
• Согласно статье от 10 июля, 2023 г журнала The Economist, ученые оценивают риск катастрофы, вызванной ИИ в 12% , а вымирание в 3% к 2100 г. Есть также оценка риска катастрофы в 100% и вымирания в 25% к 2833 г.
• 27 декабря 2024 г, Geoffrey Hinton оценил вероятность вымирания от ИИ в 10-20% (средняя - 15%) в следующие 30 лет.[49] Он также дает оценку вымирания от ИИ в 50-100% (средняя - 75%) за следующие 150 лет.
• 6 мая 2025 г, Scientific American оценил вероятность вымирания от ИИ в 0-10% средняя - 5%) к 2100 г.[50]
• 1 августа, 2025 г, Holly Elmore дает оценку вымирания от ИИ в 15-20% (средняя - 17.5%) в следующие 1-10 года (в среднем - 5.5 лет). Она также оценивает вероятность вымирания в 75-100% (средняя - 87.5%) в следующие 5-50лет (в среднем-27.5 лет).[51]
• 10 ноября, 2025 г, Илон Маск оценил вероятность вымирания человечества от ИИ в 20%, в то время как другие — включая коллег Бенджио поставили ее между 10% и 90% (средний - 50%),другими словами Илон Маск и коллеги Джошуа Бенджи оценили вероятность вымирания от ИИ в 20-50% (средний - 35%).[52]
От климатических перемен
Основная статья: Климатические перемены и цивилизационный колланс
В интервью 2010 г. газете The Australian, ныне покойный австралийский ученый Frank Fenner предсказал вымирание человеческой расы в течение данного столетия, прежде всего в результате перенаселения. Экологической деградации и климатических перемен.[53] Есть несколько экономистов,, которые обсуждали риски глобальной катастрофы. Например, Martin Weitzman доказывает, что большой экономический ущерб от климатических перемен может придти от вероятности того, что потепление может сильно превысить среднесрочные ожидания, приведя к катастрофическому разрушению.[54] Richard Posner полагает, что человечество делает слишком мало по поводу небольших трудно оцениваемых рисков масштабных катастроф.[55]
Индивидуальный риск против видового риска
Хотя экзистенциальные риски труднее поддаются управляемости людьми, чем. например, риски здоровью, согласно Кену Олуму, Джошуа Кнобе и Александру Виленкину, возможность вымирания человечества имеет практические следствия.
Например, если принимать "универсальный" аргумент Ссудного дня (doomsday argument), это изменит наиболее вероятные источники катастроф, и следовательно наиболее эффективные способы их предотвращения. Они пишут: "...вы должны быть больше обеспокоены тем, что большое число астероидов пока не обнаружено чем вычислять конкретную их орбиту. В особенности вам не надо расстраиваться о возможности превращения некой ближайшей звезды в суперновую, но больше думать о возможности уничтожения ближайшей жизни вокруг суперновой."[56]
Сложность
Некоторые ученые полагают, что определенные сценарии такие как глобальная термоядерная война не сможет уничтожить все человеческие поселения. Физик Виллард Уэллс указывает на то, что любой вероятный сценарий вымирания должен будет учитывать разброс всех зон [поражения], включая подземное метро больших городов, горы Тибета, удаленные острова в Тихом океане, и даже станцию McMurdo Station в Антарктике, на которой существуют планы выживания в условиях изоляции.[57] В дополнение к этому, существуют сложные бункеры для правительственных чинов, готовые для ядерной войны.[21] Наличие ядерных подлодок, могущих находиться сотни метров под водой в океане в течение года, также должны быть рассмотрены. Любое число событий может привести к огромной потере человеческих жизней, но если несколько последних наиболее выносливых людей (см minimum viable population) могут остаться в живых, тогда сценарий вымирания человечества может оказаться несостоятельным.[58]
Этика
Ценность человеческой жизни
"Экзистенциальные риски" это риски, угрожающие всему будущему человечества, либо по причине вымирания либо через постоянные препятствия на пути прогресса.[3] Многие ученые доказывали полагаясь на величину "космического дара" что из-за непостижимо большого числа потенциально возможных будущих угроз жизни, даже небольшие уменьшения экзистенциальных рисков имеют большое значение.
В одной из первоначальных обсуждений этики человеческого вымирания, Derek Parfit предлагает следующий мысленный эксперимент:[59]
Я верю, что если мы разрушим человечество, результат будет намного худший, чем мы думаем. Сравним два результата:
(1) Мир.
(2) Ядерная война, которая убивает 99% существующего населения.
(3)Ядерная война, которая убивает 100%.
(2) будет хуже, чем (1), и (3) будет хуже, чем (2).Где большая разница? Большинство считают, что больше разница между (1) и (2). Я считаю, что разница между (2) и (3) гораздо больше.
—Derek Parfit
Масштаб того, что потеряно, в экзистенциальной катастрофе определяется долгим человеческим потенциалом – что человечество может ожидать, если выживет.[18] С точки зрения утилитарной перспективы, цена защиты человечества это продукт его длительной выживаемости, ее размер (сколько людей выжило), и его качества (в среднем, насколько хороша жизнь для будущих людей).[18]:;273;[60] В среднем, вид выживает в течение миллиона лет, прежде чем вымереть. Parfit указывает, что Земля останется населенной приблизительно миллиард лет.[59] И это может быть нижним пределом нашего потенциала: если человечество сможет выйти за пределы Земли, оно может сильно увеличить свою популяцию и выживать триллионы лет.[61][18]:;21;
Размер будущего потенциала огромен, и он будет потерян в случае вымирания. Поэтому снижение экзистенциального риска даже на небольшую величину будет иметь значительное моральное значение.[3][62]
Carl Sagan написал в 1983 г:
Если потребуется выразить вымирание в численном виде, я бы включил число людей будущих поколений, которые не родятся.... (По одному расчету), ставки на один миллион больше для вымирания, чем для более умеренной ядерной войны, которая убьет «всего» сотни миллионов людей. Существуют много других возможных оценок потенциальных потерь – включая культуру и науку, эволюционную историю планеты, и важность жизней всех наших предков, внесших вклад в будущее потомков. Вымирание – это закрытие человеческого предприятия.[63]
Философ Роберт Адамс в 1989 г отверг «безличные» взгляды Парфита, но говорил напротив о моральном императиве и приверженности "будущему человечества как большому проекту... Стремление к лучшему обществу – более справедливому, более отзывчивому, и более мирному... наш интерес в жизни наших детей и внуков, и надежды, что они смогут, в свое время, построить жизни своих детей и внуков."[64]
Философ Ник Бостром полагает, что в 2013 г все аргументы сходятся на одном здравом смысле о том, что предупреждение экзистенциального риска - это моральный приоритет, даже если "степень трагедии" вымирания разная у различных философий.[65]
Парфит полагает что размер "космического дара" можно вычислить сходя из следующего аргумента: Если Земля остается населенной на протяжении миллиарда лет и больше и может поддержать население более чем миллиард, тогда есть потенциал для 10(в 16-й степени) (or 10,000,000,000,000,000) человеческих жизней.[66] Бостром идет еще дальше, указывая что если вселенная пуста, тогда доступная вселенная может поддержать по крайней мере 10 (в 34-й степени) биологических людей; а если некоторые люди могут загружаться в компьютеры, э то может поддержать 10 ( в 54-й степени) кибернетических жизней.[3]
Некоторые экономисты и философы защищают взгляды о нарастающем обесценивании и пренебрежении этики, согласно которым будущие люди не имеют значения (или значат гораздо меньше).[67] Хотя эти взгляды противоречивы,[21][68][69] они сходятся на том, что экзистенциальная катастрофа будет трудновообразимой. Оно оборвет жизнь восьми миллиардов людей, разрушит все, что делало их жизнь стоящей и подвергнет их невообразимым страданиям. Поэтому даже оставляя в стороне значение будущих поколений, есть весомые причины уменьшить экзистенциальный риск для ныне живущих людей.[70]
Кроме утилитарных целей, большое значение имеют также моральные перспективы уменьшения экзистенциального риска. Экзистенциальная катастрофа разрушит больше, чем просто человечество – она разрушит все культурные артефакты, языки и традиции, и многое из того, что мы ценим.[18][71] Поэтому моральная точка зрения по которой мы должны защищать и беречь наши ценности от разрушения также против вымирания.[18] Можно также назвать наш долг по отношению к прошлым поколениям. Например, Эдмунд Бурке пишет о "партнерстве...между живущими, теми кто мертв, и теми кто еще родится".[72] Если отнестись серьёзно к долгу перед прошлыми поколениями, по убеждению Орда, лучший способ сделать это "заплатив вперед", обеспечив передачу человеческого наследия будущим поколениям.[18]:;49–51;
Добровольное вымирание
Основная статья: Движение за добровольное вымирание человечества
Некоторые философы занимают антинаталистскую позицию о том, что человеческое вымирание на самом деле не плохая , а хорошая вещь. David Benatar полагает, что существование приносит серьезную травму и поэтому лучше чтобы люди не существовали в будущем.[73] Более того, Бенатар, активист за права животных Steven Best, и анархист Todd May, полагают, что вымирание человечества будет положительным моментом для других организмов на планете, и самой планеты.[74]
[75][76] Экологический взгляд в поддержку вымирания человечества разделяют члены Движения за добровольное вымирание человечества (Voluntary Human Extinction Movement) и Церковь эвтаназии(Church of Euthanasia) призывающие за воздержание от рождаемости и позволяющие человеческому роду мирно вымирать, тем самым останавливая дальнейшую экологическую деградацию.[77]
В художественной литературе
Основная статья: Apocalyptic and post-apocalyptic fiction
Научная фантазия –Жана-Батиста Кузена де Гранвилля в романе Последний человек, в котором вымирание человечества происходит из-за бесплодия, считается первым современным апокалиптическим романом.[78] Другие известные ранние работы включают книгу Мэри Шелли 1826 г последний человек, в которой вымирание человечества вызвано пандемией и книгу Олафа Степлдона 1937 г "Сотворитель звезд", "сравнительное изучение омницида".[4]
Некоторые работы популярной науки 21-го века, включают Мир без нас Алана Вайсмана и телевизионные передачи Жизнь после людей и Популяция зеро – мысленный эксперимент, что произойдет с миром если люди внезапно исчезнут[79][80] Угроза вымирания человечества, такая как технологическая сингулярность (называемая также интеллектуальный взрыв), лежит в основе многих сюжетов современной научной фантастики; влиятельным ранним примером является адаптация 1951 г Когда сталкиваются миры.[81] Обычно вымирания удается избежать, но есть исключения такие как R.U.R. и ИИ Стивена Спилберга. [82]
См также
• Apocalypticism
• Societal collapse
• Eschatology
• Extinction event
• Global catastrophic risk
• Great Filter
• Holocene extinction
• Speculative evolution
• Voluntary Human Extinction Movement
• World War III
Литература
1. Di Mardi (October 15, 2020). "The grim fate that could be 'worse than extinction'". BBC News. Retrieved November 11, 2020. When we think of existential risks, events like nuclear war or asteroid impacts often come to mind.
2. Snyder-Beattie, Andrew E.; Ord, Toby; Bonsall, Michael B. (July 30, 2019). "An upper bound for the background rate of human extinction". Scientific Reports. 9 (1): 11054. Bibcode:2019NatSR...911054S. doi:10.1038/s41598-019-47540-7. ISSN 2045-2322. PMC 6667434. PMID 31363134.
3. Bostrom 2013.
4. Moynihan, Thomas (September 23, 2020). "How Humanity Came To Contemplate Its Possible Extinction: A Timeline". The MIT Press Reader. Retrieved October 11, 2020.
See also:
• Moynihan, Thomas (February 2020). "Existential risk and human extinction: An intellectual history". Futures. 116 102495. doi:10.1016/j.futures.2019.102495. ISSN 0016-3287. S2CID 213388167.
• Moynihan, Thomas (2020). X-Risk: How Humanity Discovered Its Own Extinction. MIT Press. ISBN 978-1-913029-82-1.
5. Darwin, Charles; Costa, James T. (2009). The Annotated Origin. Harvard University Press. p. 121. ISBN 978-0674032811.
6. Moll, S. (2010). The Arch-heretic Marcion. Wissenschaftliche Untersuchungen zum Neuen Testament. Mohr Siebeck. p. 132. ISBN 978-3-16-150268-2. Retrieved June 11, 2023.
7. Welchman, A. (2014). Politics of Religion/Religions of Politics. Sophia Studies in Cross-cultural Philosophy of Traditions and Cultures. Springer Netherlands. p. 21. ISBN 978-94-017-9448-0. Retrieved June 11, 2023.
8. Moynihan, T. (2020). X-Risk: How Humanity Discovered Its Own Extinction. MIT Press. p. 56. ISBN 978-1-913029-84-5. Retrieved October 19, 2022.
9. Raup, David M. (1995). "The Role of Extinction in Evolution". In Fitch, W. M.; Ayala, F. J. (eds.). Tempo And Mode in Evolution: Genetics And Paleontology 50 Years After Simpson. National Academies Press (US).
10. Russell, Bertrand (1945). "The Bomb and Civilization". Archived from the original on August 7, 2020.
11. Erskine, Hazel Gaudet (1963). "The Polls: Atomic Weapons and Nuclear Energy". The Public Opinion Quarterly. 27 (2): 155–190. doi:10.1086/267159. JSTOR 2746913.
12. Sagan, Carl (January 28, 2009). "Nuclear War and Climatic Catastrophe: Some Policy Implications". doi:10.2307/20041818. JSTOR 20041818. Retrieved August 11, 2021.
13. Reese, Martin (2003). Our Final Hour: A Scientist's Warning: How Terror, Error, and Environmental Disaster Threaten Humankind's Future In This Century – On Earth and Beyond. Basic Books. ISBN 0-465-06863-4.
14. Bostrom, Nick; ;irkovi;, Milan M., eds. (2008). Global catastrophic risks. Oxford University Press. ISBN 978-0199606504.
15. Money, Nicholas P. (2019). The Selfish Ape: Human Nature and Our Path to Extinction. London: Reaktion Books, Limited. ISBN 978-1-78914-155-9.
16. Ord, Toby (2020). The Precipice: Existential Risk and the Future of Humanity. New York: Hachette. 4:15–31. ISBN 9780316484916. This is an equivalent, though crisper statement of Nick Bostrom's definition: "An existential risk is one that threatens the premature extinction of Earth-originating intelligent life or the permanent and drastic destruction of its potential for desirable future development." Source: Bostrom, Nick (2013). "Existential Risk Prevention as Global Priority". Global Policy.
17. "Racing to Extinction: A Review". Protons for Breakfast. June 20, 2024. Retrieved August 29, 2025.
18. Ord, Toby (2020). The Precipice: Existential Risk and the Future of Humanity. New York: Hachette. ISBN 9780316484916.
19. Bostrom, Nick; Sandberg, Anders (2008). "Global Catastrophic Risks Survey" (PDF). FHI Technical Report #2008-1. Future of Humanity Institute.
20. "Frequently Asked Questions". Existential Risk. Future of Humanity Institute. Retrieved July 26, 2013. The great bulk of existential risk in the foreseeable future is anthropogenic; that is, arising from human activity.
21. Matheny, Jason Gaverick (2007). "Reducing the Risk of Human Extinction" (PDF). Risk Analysis. 27 (5): 1335–1344. Bibcode:2007RiskA..27.1335M. doi:10.1111/j.1539-6924.2007.00960.x. PMID 18076500. S2CID 14265396. Archived from the original (PDF) on August 27, 2014. Retrieved July 1, 2016.
22. Asher, D.J.; Bailey, M.E.; Emel;yanenko, V.; Napier, W.M. (2005). "Earth in the cosmic shooting gallery" (PDF). The Observatory. 125: 319–322. Bibcode:2005Obs...125..319A.
23. Rampino, M.R.; Ambrose, S.H. (2002). "Super eruptions as a threat to civilizations on Earth-like planets" (PDF). Icarus. 156 (2): 562–569. Bibcode:2002Icar..156..562R. doi:10.1006/icar.2001.6808. Archived from the original (PDF) on September 24, 2015. Retrieved February 14, 2022.
24. Yost, Chad L.; Jackson, Lily J.; Stone, Jeffery R.; Cohen, Andrew S. (March 1, 2018). "Subdecadal phytolith and charcoal records from Lake Malawi, East Africa imply minimal effects on human evolution from the ~74 ka Toba supereruption". Journal of Human Evolution. 116: 75–94. Bibcode:2018JHumE.116...75Y. doi:10.1016/j.jhevol.2017.11.005. ISSN 0047-2484. PMID 29477183.
25. Sagan, Carl (1994). Pale Blue Dot. Random House. pp. 305–6. ISBN 0-679-43841-6. Some planetary civilizations see their way through, place limits on what may and what must not be done, and safely pass through the time of perils. Others are not so lucky or so prudent, perish.
26. Parfit, Derek (2011). On What Matters Vol. 2. Oxford University Press. p. 616. ISBN 9780199681044. We live during the hinge of history ... If we act wisely in the next few centuries, humanity will survive its most dangerous and decisive period.
27. Vinn, O. (2024). "Potential incompatibility of inherited behavior patterns with civilization: Implications for Fermi paradox". Science Progress. 107 (3) 00368504241272491: 1–6. doi:10.1177/00368504241272491. PMC 11307330. PMID 39105260.
28. Vinn, O. (2025). "How to solve the problem of inherited behavior patterns and increase the sustainability of technological civilization". Frontiers in Psychology. 16 1562943: 1–4. doi:10.3389/fpsyg.2025.1562943. PMC 11866485. PMID 40018008.
29. Rowe, Thomas; Beard, Simon (2018). "Probabilities, methodologies and the evidence base in existential risk assessments" (PDF). Working Paper, Centre for the Study of Existential Risk. Retrieved August 26, 2018.
30. Gott, III, J. Richard (1993). "Implications of the Copernican principle for our future prospects". Nature. 363 (6427): 315–319. Bibcode:1993Natur.363..315G. doi:10.1038/363315a0. S2CID 4252750.
31. Leslie 1996, p. 146.
32. Meyer, Robinson (April 29, 2016). "Human Extinction Isn't That Unlikely". The Atlantic. Boston, Massachusetts: Emerson Collective. Retrieved April 30, 2016.
33. "Will humans become extinct by 2100?". Metaculus. November 12, 2017. Retrieved July 29, 2025.
34. Nafeez, Ahmed (July 28, 2020). "Theoretical Physicists Say 90% Chance of Societal Collapse Within Several Decades". Vice. Retrieved August 2, 2021.
35. Bologna, M.; Aquino, G. (2020). "Deforestation and world population sustainability: a quantitative analysis". Scientific Reports. 10 (7631): 7631. arXiv:2006.12202. Bibcode:2020NatSR..10.7631B. doi:10.1038/s41598-020-63657-6. PMC 7203172. PMID 32376879.
36. Bostrom, Nick (2002), "Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards", Journal of Evolution and Technology, vol. 9, My subjective opinion is that setting this probability lower than 25% would be misguided, and the best estimate may be considerably higher.
37. Whitmire, Daniel P. (August 3, 2017). "Implication of our technological species being first and early". International Journal of Astrobiology. 18 (2): 183–188. doi:10.1017/S1473550417000271.
38. Leslie 1996, p. 139.
39. Salotti, Jean-Marc (April 2022). "Human extinction by asteroid impact". Futures. 138 102933. doi:10.1016/j.futures.2022.102933. S2CID 247718308.
40. Klaas, Brian (March 12, 2025). "DOGE Is Courting Catastrophic Risk". The Atlantic. Retrieved March 14, 2025.
41. King, Jordan (March 11, 2025). "Americans Are Worried About Another Pandemic". Newsweek. Retrieved April 14, 2025.
42. Gee, Henry (2025) [2025]. The Decline and Fall of the Human Empire. Macmillan Publishers.
43. "AI shows faster development than experts predicted". Warp News. September 11, 2025. Retrieved September 11, 2025.
44. Pielke, Jr., Roger (November 13, 2024). "Global Existential Risks". American Enterprise Institute. Retrieved December 17, 2024.
45. "What are the chances of an AI apocalypse?". The Economist. July 10, 2023. Retrieved July 10, 2023.
46. Grace, Katja; Salvatier, John; Dafoe, Allen; Zhang, Baobao; Evans, Owain (May 3, 2018). "When Will AI Exceed Human Performance? Evidence from AI Experts". arXiv:1705.08807 [cs.AI].
47. Strick, Katie (May 31, 2023). "Is the AI apocalypse actually coming? What life could look like if robots take over". The Standard. Retrieved May 31, 2023.
48. Purtill, Corinne. "How Close Is Humanity to the Edge?". The New Yorker. Retrieved January 8, 2021.
49. Milmo, Dan (December 27, 2024). "'Godfather of AI' shortens odds of the technology wiping out humanity over next 30 years". The Guardian. Retrieved December 27, 2024.
50. Vermeer, Michael (May 6, 2025). "Could AI Really Kill Off Humans?". Scientific American. Retrieved May 7, 2025.
51. Woodhouse, Leighton (August 1, 2025). "Experts predict AI will lead to the extinction of humanity". The Times. Retrieved August 1, 2025.
52. Risom, Asger (November 10, 2025). "AI pioneer warns of extinction risk as Microsoft promises 'humanist superintelligence'". Dagens. Retrieved November 11, 2025.
53. Edwards, Lin (June 23, 2010). "Humans will be extinct in 100 years says eminent scientist". Phys.org. Retrieved January 10, 2021.
54. Weitzman, Martin (2009). "On modeling and interpreting the economics of catastrophic climate change" (PDF). The Review of Economics and Statistics. 91 (1): 1–19. doi:10.1162/rest.91.1.1. S2CID 216093786.
55. Posner, Richard (2004). Catastrophe: Risk and Response. Oxford University Press.
56. "Practical application", of the Princeton University paper: Philosophical Implications of Inflationary Cosmology, p. 39. Archived May 12, 2005, at the Wayback Machine.
57. Wells, Willard. (2009). Apocalypse when?. Praxis. ISBN 978-0387098364.
58. Tonn, Bruce; MacGregor, Donald (2009). "A singular chain of events". Futures. 41 (10): 706–714. doi:10.1016/j.futures.2009.07.009. S2CID 144553194. SSRN 1775342.
59. Parfit, Derek (1984). Reasons and Persons. Oxford University Press. pp. 453–454.
60. MacAskill, William; Yetter Chappell, Richard (2021). "Population Ethics | Practical Implications of Population Ethical Theories". Introduction to Utilitarianism. Retrieved August 12, 2021.
61. Bostrom, Nick (2009). "Astronomical Waste: The opportunity cost of delayed technological development". Utilitas. 15 (3): 308–314. CiteSeerX 10.1.1.429.2849. doi:10.1017/s0953820800004076. S2CID 15860897.
62. Todd, Benjamin (2017). "The case for reducing existential risks". 80,000 Hours. Retrieved January 8, 2020.
63. Sagan, Carl (1983). "Nuclear war and climatic catastrophe: Some policy implications". Foreign Affairs. 62 (2): 257–292. doi:10.2307/20041818. JSTOR 20041818. S2CID 151058846.
64. Adams, Robert Merrihew (October 1989). "Should Ethics be More Impersonal? a Critical Notice of Derek Parfit, Reasons and Persons". The Philosophical Review. 98 (4): 439–484. doi:10.2307/2185115. JSTOR 2185115.
65. Bostrom 2013, pp. 23–24.
66. Parfit, D. (1984) Reasons and Persons. Oxford, England: Clarendon Press. pp. 453–454.
67. Narveson, Jan (1973). "Moral Problems of Population". The Monist. 57 (1): 62–86. doi:10.5840/monist197357134. PMID 11661014.
68. Greaves, Hilary (2017). "Discounting for Public Policy: A Survey". Economics & Philosophy. 33 (3): 391–439. doi:10.1017/S0266267117000062. ISSN 0266-2671. S2CID 21730172.
69. Greaves, Hilary (2017). "Population axiology". Philosophy Compass. 12 (11) e12442. doi:10.1111/phc3.12442. ISSN 1747-9991.
70. Lewis, Gregory (May 23, 2018). "The person-affecting value of existential risk reduction". www.gregoryjlewis.com. Retrieved August 7, 2020.
71. Sagan, Carl (Winter 1983). "Nuclear War and Climatic Catastrophe: Some Policy Implications". Foreign Affairs. Council on Foreign Relations. doi:10.2307/20041818. JSTOR 20041818. Retrieved August 4, 2020.
72. Burke, Edmund (1999) [1790]. "Reflections on the Revolution in France" (PDF). In Canavan, Francis (ed.). Select Works of Edmund Burke Volume 2. Liberty Fund. p. 192.
73. Benatar, David (2008). Better Never to Have Been: The Harm of Coming into Existence. Oxford University Press. p. 28. ISBN 978-0199549269. Being brought into existence is not a benefit but always a harm.
74. Benatar, David (2008). Better Never to Have Been: The Harm of Coming into Existence. Oxford University Press. p. 224. ISBN 978-0199549269. Although there are many non-human species – especially carnivores – that also cause a lot of suffering, humans have the unfortunate distinction of being the most destructive and harmful species on earth. The amount of suffering in the world could be radically reduced if there were no more humans.
75. Best, Steven (2014). "Conclusion: Reflections on Activism and Hope in a Dying World and Suicidal Culture". The Politics of Total Liberation: Revolution for the 21st Century. Palgrave Macmillan. p. 165. doi:10.1057/9781137440723_7. ISBN 978-1137471116. In an era of catastrophe and crisis, the continuation of the human species in a viable or desirable form, is obviously contingent and not a given or necessary good. But considered from the standpoint of animals and the earth, the demise of humanity would be the best imaginable event possible, and the sooner the better. The extinction of Homo sapiens would remove the malignancy ravaging the planet, destroy a parasite consuming its host, shut down the killing machines, and allow the earth to regenerate while permitting new species to evolve.
76. May, Todd (December 17, 2018). "Would Human Extinction Be a Tragedy?". The New York Times. Human beings are destroying large parts of the inhabitable earth and causing unimaginable suffering to many of the animals that inhabit it. This is happening through at least three means. First, human contribution to climate change is devastating ecosystems ... Second, the increasing human population is encroaching on ecosystems that would otherwise be intact. Third, factory farming fosters the creation of millions upon millions of animals for whom it offers nothing but suffering and misery before slaughtering them in often barbaric ways. There is no reason to think that those practices are going to diminish any time soon. Quite the opposite.
77. MacCormack, Patricia (2020). The Ahuman Manifesto: Activism for the End of the Anthropocene. Bloomsbury Academic. pp. 143, 166. ISBN 978-1350081093.
78. Wagar, W. Warren (2003). "Review of The Last Man, Jean-Baptiste Fran;ois Xavier Cousin de Grainville". Utopian Studies. 14 (1): 178–180. ISSN 1045-991X. JSTOR 20718566.
79. "He imagines a world without people. But why?". The Boston Globe. August 18, 2007. Retrieved July 20, 2016.
80. Tucker, Neely (March 8, 2008). "Depopulation Boom". The Washington Post. Retrieved July 20, 2016.
81. Barcella, Laura (2012). The end: 50 apocalyptic visions from pop culture that you should know about – before it's too late. San Francisco, California: Zest Books. ISBN 978-0982732250.
82. Dinello, Daniel (2005). Technophobia!: science fiction visions of posthuman technology (1st ed.). Austin, Texas: University of Texas press. ISBN 978-0-292-70986-7.
Источники
• Bostrom, Nick (2002). "Existential risks: analyzing human extinction scenarios and related hazards". Journal of Evolution and Technology. 9. ISSN 1541-0099.
• Bostrom, Nick; Cirkovic, Milan M. (September 29, 2011) [Orig. July 3, 2008]. "1: Introduction". In Bostrom, Nick; Cirkovic, Milan M. (eds.). Global Catastrophic Risks. Oxford University Press. pp. 1–30. ISBN 9780199606504. OCLC 740989645.
• Rampino, Michael R. "10: Super-volcanism and other geophysical processes of catastrophic import". In Bostrom & Cirkovic (2011), pp. 205–221.
• Napier, William. "11: Hazards from comets and asteroids". In Bostrom & Cirkovic (2011), pp. 222–237.
• Dar, Arnon. "12: Influence of Supernovae, gamma-ray bursts, solar flares, and cosmic rays on the terrestrial environment". In Bostrom & Cirkovic (2011), pp. 238–262.
• Frame, David; Allen, Myles R. "13: Climate change and global risk". In Bostrom & Cirkovic (2011), pp. 265–286.
• Kilbourne, Edwin Dennis. "14: Plagues and pandemics: past, present, and future". In Bostrom & Cirkovic (2011), pp. 287–304.
• Yudkowsky, Eliezer. "15: Artificial Intelligence as a positive and negative factor in global risk". In Bostrom & Cirkovic (2011), pp. 308–345.
• Wilczek, Frank. "16: Big troubles, imagined and real". In Bostrom & Cirkovic (2011), pp. 346–362.
• Cirincione, Joseph. "18: The continuing threat of nuclear war". In Bostrom & Cirkovic (2011), pp. 381–401.
• Ackerman, Gary; Potter, William C. "19: Catastrophic nuclear terrorism: a preventable peril". In Bostrom & Cirkovic (2011), pp. 402–449.
• Nouri, Ali; Chyba, Christopher F. "20: Biotechnology and biosecurity". In Bostrom & Cirkovic (2011), pp. 450–480.
• Phoenix, Chris; Treder, Mike. "21: Nanotechnology as global catastrophic risk". In Bostrom & Cirkovic (2011), pp. 481–503.
• Bostrom, Nick (2013). "Existential Risk Prevention as Global Priority". Global Policy. 4 (1): 15–31. doi:10.1111/1758-5899.12002. ISSN 1758-5899. [ PDF ]
• Leslie, John (1996). The End of the World: The Science and Ethics of Human Extinction. Routledge. ISBN 978-0415140430. OCLC 1158823437.
• Posner, Richard A. (November 11, 2004). Catastrophe: Risk and Response. Oxford University Press. ISBN 978-0-19-534639-8. OCLC 224729961.
• Rees, Martin J. (March 19, 2003). Our Final Hour: A Scientist's Warning : how Terror, Error, and Environmental Disaster Threaten Humankind's Future in this Century--on Earth and Beyond. Basic Books. ISBN 978-0-465-06862-3. OCLC 51315429.
Читать далее
• Boulter, Michael (2005). Extinction: Evolution and the End of Man. Columbia University Press. ISBN 978-0231128377.
• de Bellaigue, Christopher, "A World Off the Hinges" (review of Peter Frankopan, The Earth Transformed: An Untold History, Knopf, 2023, 695 pp.), The New York Review of Books, vol. LXX, no. 18 (23 November 2023), pp. 40–42. De Bellaigue writes: "Like the Maya and the Akkadians we have learned that a broken environment aggravates political and economic dysfunction and that the inverse is also true. Like the Qing we rue the deterioration of our soils. But the lesson is never learned. [...] Denialism [...] is one of the most fundamental of human traits and helps explain our current inability to come up with a response commensurate with the perils we face." (p. 41.)
• Brain, Marshall (2020) The Doomsday Book: The Science Behind Humanity's Greatest Threats Union Square ISBN 9781454939962
• Holt, Jim, "The Power of Catastrophic Thinking" (review of Toby Ord, The Precipice: Existential Risk and the Future of Humanity, Hachette, 2020, 468 pp.), The New York Review of Books, vol. LXVIII, no. 3 (February 25, 2021), pp. 26–29. Jim Holt writes (p. 28): "Whether you are searching for a cure for cancer, or pursuing a scholarly or artistic career, or engaged in establishing more just institutions, a threat to the future of humanity is also a threat to the significance of what you do."
• MacCormack, Patricia (2020). "Embracing Death, Opening the World". Australian Feminist Studies. 35 (104): 101–115. doi:10.1080/08164649.2020.1791689. S2CID 221790005. Archived from the original on April 5, 2023. Retrieved February 20, 2023.
• Michael Moyer (September 2010). "Eternal Fascinations with the End: Why We're Suckers for Stories of Our Own Demise: Our pattern-seeking brains and desire to be special help explain our fears of the apocalypse". Scientific American.
• Plait, Philip (2008) Death from the Skies!: These Are the Ways the World Will End Viking ISBN 9780670019977
• Schubert, Stefan; Caviola, Lucius; Faber, Nadira S. (2019). "The Psychology of Existential Risk: Moral Judgments about Human Extinction". Scientific Reports. 9 (1): 15100. Bibcode:2019NatSR...915100S. doi:10.1038/s41598-019-50145-9. PMC 6803761. PMID 31636277.
• Ord, Toby (2020). The Precipice: Existential Risk and the Future of Humanity. Bloomsbury Publishing. ISBN 1526600218
• Torres, Phil. (2017). Morality, Foresight, and Human Flourishing: An Introduction to Existential Risks. Pitchstone Publishing. ISBN 978-1634311427.
• Michel Weber, "Book Review: Walking Away from Empire", Cosmos and History: The Journal of Natural and Social Philosophy, vol. 10, no. 2, 2014, pp. 329–336.
• Doomsday: 10 Ways the World Will End (2016) History Channel
• What would happen to Earth if humans went extinct? Live Science, August 16, 2020.
• A.I. poses human extinction risk on par with nuclear war, Sam Altman and other tech leaders warn. CNBC. May 31, 2023.
• "Treading Thin Air: Geoff Mann on Uncertainty and Climate Change", London Review of Books, vol. 45, no. 17 (7 September 2023), pp. 17–19. "[W]e are in desperate need of a politics that looks [the] catastrophic uncertainty [of global warming and climate change] square in the face. That would mean taking much bigger and more transformative steps: all but eliminating fossil fuels... and prioritizing democratic institutions over markets. The burden of this effort must fall almost entirely on the richest people and richest parts of the world, because it is they who continue to gamble with everyone else's fate." (p. 19.)
Свидетельство о публикации №225120600428