Теоретически возможны следующие примеры взаимной нейтрализации опасных технологий и катастроф: 1. Ядерная война останавливает развитие технологий вообще. 2. Тотальный ИИ предотвращает биотерроризм. 3. Биотерроризм делает невозможным развитие ИИ 4. Ядерная зима предотвращает глобальное потепление. Суть в том, что крупная катастрофа делает невозможной глобальную, отбрасывая человечество на несколько эволюционных ступеней назад. Это возможно в том случае, если мы входим в длительный период высокой вероятности крупных катастроф, но малой вероятности глобальных катастроф. В некотором смысле со второй половине ХХ века мы находимся в этом периоде. Тем не менее это не помешало нам успешно приблизится к тому моменту, когда до создания многих средств глобального всеобщего уничтожения остались, возможно, десятки лет. Было бы в каком-то смысле «приятно» доказать теорему, что глобальная катастрофа невозможна, потому что к ней не дадут приблизиться очень крупные катастрофы. Однако эта теорема носила бы исключительно вероятностный характер, так как некоторые опасные сверхтехнологии могут появиться в любой момент, особенно ИИ. Кроме того, любая большая авария (но меньшая отбрасывающей назад катастрофы) повышает осознанность людей в отношении рисков. Хотя здесь возникает определённый стереотип: ожидание повторения точно такого же риска.
Ви переглядаєте статтю (реферат): «Предотвращение одной катастрофы с помощью другой» з дисципліни «Структура глобальної катастрофи»