Общие замечания. Ошибка как интеллектуальная катастрофа
Можно предложить следующую метамодель глобальных рисков: основным глобальным риском является, с одной стороны, то, что цивилизация одновременно порождает много разных глобальных рисков, а с другой стороны – принципиальная не способность человека и созданных им систем всемирной власти управлять глобальными рисками. Это доходит до уровня парадокса: то, что нам угрожает – это, как выразился Билл Джой, "знания массового поражения". Однако наша неспособность противостоять этим угрозам связана с нашим незнанием. Незнанием самих рисков, а потом незнанием деталей того, кто и где начал реализовывать конкретный риск. Избыток знаний с одной стороны сталкивается с крайним недостатком знаний с другой стороны. Отсюда и единственный (но малоприятный) вывод: уровень контроля должен быть пропорционален уровню угрозы. Знание угроз должно быть равно угрозе от знаний. Анализу первой половины этой дилеммы была посвящена первая часть этой книги. Здесь же мы рассмотрим причины неспособности человека и созданных им всемирных систем управления адекватно реагировать на возникающие глобальные риски. Полный анализ теории принятия решения относительно глобальных рисков ещё пока написан, и здесь мы ограничимся оставлением списка основных когнитивных искажений, который могут влиять на оценку глобальных рисков и принятие решений. Когнитивные искажения в оценке глобальных рисков можно уподобить искажениям на неком канале связи. В начале этого канала стоит сама возможность глобальной катастрофы, а в конце – реализация этой возможности. Среда этого канала – это человеческое общество в своей исторической конкретике. Описание этого как «канала связи» условно, но оно поможет нам упорядочить огромную массу когнитивных искажений и прочих ошибок в принятии решений. То есть когнитивные искажения не витают сами по себе в пространстве. Они приобретают значение в той мере, в какой современное общество оказывается неспособным предотвратить те риски, которые оно технически могло бы предотвратить. Рассмотрим разные этапы прохождения этого сигнала. Для примера возьмём условный физический эксперимент, ведущий к образованию «синей слизи». 1. Фаза незнания. На первой стадии никто не знает о самой возможности «синей слизи». В начале нет никакой возможности об этом догадаться, но потом оказывается , что вообще-то, если бы поставили некие опыты или продумали последствия, то можно было бы догадаться и раньше. 2. Фаза идеи. На следующей стадии появляется человек, который предположил, что «синяя слизь» возможна. Затем он предполагает, что «синяя слизь» приведёт к глобальной катастрофе. 3. Фаза споров. На этой фазе он начинает взаимодействовать с другими людьми, обсуждая возможность «синей слизи». Он сталкивается с огромным количеством непонимания, отвержения. Здесь играет масса когнитивных искажений. 4. Фаза партий. В какой-то момент возникает группа единомышленников. Тут можно вспомнить теорию научных революций Куна. Эта группа единомышленников стремится сообщить о своих идеях лицам, принимающим решения. Идёт политическая борьба. 5. Фаза правительств. Наконец, большинство мировых правительств соглашаются с опасностью «синей слизи». Начинается правительственная активность по борьбе с «синей слизью». Создаются комитеты, принимается протокол по «синей слизи». Аналог – борьба с глобальным потеплением. При этом идея «синей слизи» искажается. Цветут теории заговора о том, что «синей слизи» не существует. 6. Фаза реагирования. Поступают сообщения, что возник очаг «синей слизи» в одной республике. Необходимо немедленно принимать оперативные меры. Наши рассуждения о глобальных рисках подвержены тем или иным систематическим ошибкам и искажениям, которые оказывают влияние на конечные выводы этих рассуждений, а, следовательно, и на нашу безопасность. «Ошибки» не вполне точное слово – по-английски это называется ‘cognitive biases’, что можно перевести как «предубеждения» или «отклонения в ходе рассуждений», или, если употребить точный психологический термин, «когнитивные искажения». Когнитивные искажения являются естественным свойством человеческого ума, и в этом нет никакого оттенка «вины», который со школьной скамьи связан с нашим представлением об «ошибках». Однако важно знать, что поскольку когнитивные искажения – это естественное свойство человека, возникшего эволюционным путём, то каждый подвержен им и может найти их в своих рассуждениях. Основной способ исправления когнитивных искажений – эксперимент – не может помочь нам в случае глобальных рисков. Поэтому мы должны гораздо ответственнее подойти к задаче безошибочного мышления о них. При этом важно помнить, что любые списки когнитивных искажений предназначены для поиска ошибок в своих мыслях, а не для победы в спорах с другими людьми, поскольку во втором случае это приведёт только к накоплению ошибок в своей системе и закрытости к новой информации. Даже если вклад каждой из нескольких десятков возможных ошибок мал, вместе они могут отклонить вероятностную оценку того или иного сценария в разы и привести к неправильному приложению средств обеспечения безопасности. Не трудно убедиться в силе этих ошибок – достаточно опросить нескольких людей, знающих одни и те же факты о человеческой истории, и попросить их дать уверенный прогноз на XXI век – и вы увидите, насколько будут различаться конечные выводы: одни будут уверены в неизбежности исчерпания нефти, другие верить в торжество ветроэнергетики, третьи ожидать мировой пандемии; одни буду считать вероятность применения ядерного оружия огромной, другие полагать, что это крайне маловероятно. Исследователь глобальных рисков должен знать об этих подводных камнях. В этом разделе предпринимается попытка составить список таких ошибок. Использованы работы зарубежных и российских исследователей, а также авторские наработки. Базовым текстом по проблеме является статья Елиезера Юдковского «Систематические ошибки в рассуждениях, потенциально влияющие на оценку глобальных рисков» [Yudkowsky 2008а] в упоминавшемся уже сборнике «Риски глобальной катастрофы». Данный список не заменяет эту статью, в который приведён математический и психологический анализ ряда приведённых здесь когнитивных искажений. Однако многие описания факторов ошибок взяты из другой литературы или обнаружены самим автором. Анализ возможных ошибок в рассуждениях о глобальных рисках является шагом на пути к созданию методологии работы с глобальными рисками, а значит, и к их предотвращению. Интересно стремление разных групп, исследующих альтернативные сценарии будущего, составить своё список интеллектуальных ловушек. Например, недавно появилась статья о ‘cognitive biases’, влияющих на оценку теории «пика Хуберта», то есть исчерпания запасов нефти . Цель работы – свести возможные когнитивные искажения в удобный и структурированный список. При этом максимальное внимание уделено полноте списка, а не доказательству каждого отдельного пункта. Однако уже сейчас понятно, что данный список неполон, и его нетрудно расширить по крайней мере вдвое, например, взяв список всех открытых когнитивных искажений и проверив его применимость к глобальным рискам. Данный список не претендует ни на полноту, ни на точность классификации, и некоторые его пункты могут оказаться тождественны другим, но сказанным иными словами. Подробное разъяснение каждой отдельной возможной ошибки в оценке риска заняло бы весь объём статьи. (См. например, мою статью «Природные катастрофы и антропный принцип» [Турчин 2007b], где одна из приведённых в этой статье возможных причин ошибок разбирается на более чем 20 печатных страницах.) Вместе с тем важно помнить, что ошибкам в рассуждениях в той же мере свойственная патологическая самоорганизация, как и ошибкам и цепочкам событий, которые приводят к реальным катастрофам. Это означает, что даже небольшие ошибки, приводящие к небольшому отклонению оценок, имеют тенденцию зацепляться одна за другую, взаимоусиливаясь, особенно при возникновении положительной обратной связи с ними. Ложный вывод – это интеллектуальная катастрофа. Нетрудно проследить на примере реальных аварий, как ошибочные рассуждения пилотов самолётов приводили к катастрофам, и даже обозначить, какие именно ошибки в рассуждениях они совершили. Можно сказать, что почти любая катастрофа происходит из-за человеческих ошибок. Эти ошибки хронологически выстраиваются так: вслед за ошибками в рассуждениях о возможностях идут ошибки в конструировании, в «предполётной» подготовке, в пилотировании, в управлении критической ситуацией, в устранении последствий аварии и в анализе её причин. Наши рассуждения о глобальных рисках в основном относятся к первой стадии, к рассуждениям о возможности и предварительной оценке вероятностей тех или иных рисков. Нет смысла выстраивать стратегию противостояния глобальным рискам до того, как определились приоритеты. Соответственно, приведённые в данной статье ошибки также относятся, в первую очередь, к самой ранней фазе противодействия глобальным рискам. Однако они могут проявлять себя и позже, на стадии конструирования механизмов зашиты и принятия конкретных решений. Тем не менее, в этом тексте не ставится задача об анализе ошибок на более поздних стадиях защиты от глобальной катастрофы, хотя и упоминается ряд причин ошибочных действий «операторов». Отдельным вопросом является то, когда именно такие ошибки могут случиться. Одни из этих ошибок происходят в процессе дискуссий в «мирное время», когда общество решает, к каким именно рискам ему стоит готовиться. Другие в полной мере проявляются в аварийных ситуациях, когда люди вынуждены быстро оценить их опасность и принять решения. Грубо говоря, принято разделять все ошибки на ошибки «конструктора» и «пилота». Ошибки «конструктора» совершаются большими группами людей в течение многих лет, тогда как ошибки пилота совершаются одним или малой группой людей в течение секунд или минут. Это может быть, вообще говоря, неверно относительно глобальных катастроф, в случае, если ситуация начнёт развиваться настолько быстро, что проектирование и управление будут развиваться фактически в одном темпе. Есть также вероятность, что некоторые описания ошибок, которые я здесь привожу, могут оказаться объектами моего неверного понимания – то есть тоже быть ошибочными. И нет ни малейших сомнений, что этот список не полон. Поэтому данный список следует использовать скорее как стартовую площадку для критического анализа любых рассуждений о глобальных рисках, но не как инструмент для постановки окончательного диагноза. Опасная иллюзия состоит в том, что ошибки в рассуждениях о глобальных рисках или невелики, или легко обнаружимы и устранимы. Корни этой иллюзии в следующем рассуждении: «Раз самолёты летают, несмотря на все возможные ошибки, и вообще жизнь на Земле продолжается, то значение этих ошибок невелико». Это аналогия неверна. Самолёты летают потому, что в ходе их эволюции, конструирования и испытаний разбились тысячи машин. И за каждой этой аварией стояли чьи-то ошибки, которые каждый раз учитывались и в целом не повторялись. У нас нет тысячи планет, которые мы можем разбить, чтобы понять, как нам правильно обращаться с взрывоопасной комбинацией био, нано, ядерных и ИИ-технологий. Мы не можем использовать и тот факт, что Земля ещё цела для каких-либо выводов о будущем (см. мою статью «Природные катастрофы и антропный принцип»), потому что нельзя делать статистических выводов по одному случаю. И, конечно, особенно потому, что будущие технологии принципиально изменят жизнь на Земле. Итак, мы лишены привычного способа устранения ошибок – проверки. И, тем не менее, именно сейчас нам важнее всего в истории человечества не ошибиться. Возможно, что есть ряд когнитивных искажений и логических парадоксов, которые проявляются только в рассуждениях о глобальных рисках, и которые нами пока не обнаружены, но полностью меняют всю весь ход рассуждений. Точно также я не хочу сказать, что все исследователи допускают все перечисленные здесь ошибки. Наоборот, большинство этих ошибок, вероятно, самоочевидны большинству исследователей – или вообще не кажутся ошибками. Однако есть шанс, что какие-то ошибки пропущены. Под термином «когнитивные искажения» я имею в виду здесь не только нарушения логики, но и любые интеллектуальные конструкции, которые могут оказать влияние на конечные выводы и увеличить риск глобальной катастрофы. Некоторые приведённые ошибки могут не приводить в текущих обстоятельствах к каким-либо последствиям, тем не менее, полезно их иметь в виду.
Ви переглядаєте статтю (реферат): «Общие замечания. Ошибка как интеллектуальная катастрофа» з дисципліни «Структура глобальної катастрофи»