ДИПЛОМНІ КУРСОВІ РЕФЕРАТИ


ИЦ OSVITA-PLAZA

Реферати статті публікації

Пошук по сайту

 

Пошук по сайту

Головна » Реферати та статті » Геополітика » Структура глобальної катастрофи

Риски, связанные с самокопирующимися идеями (мемами)
В книге «Эгоистичный ген» Докинз [Докинз 1993] предложил концепцию «мемов» – идей, которые способны реплицироваться, передаваясь от одного человека к другому, так ведут себя, например, слухи. Любая область, где способны существовать самовоспроизводящиеся элементы, и которая может касаться всех людей, потенциально является источником глобального риска. Возможен ли такой мем, который мог бы привести к гибели всех людей?
С одной стороны, имеем в истории примеры крайне опасных мемов: радикальные политические теории и разные формы религиозного фанатизма. С другой стороны, мему, чтобы распространяться, нужны живые люди. И поскольку люди уже существуют давно, можно предположить, что нет таких опасных мемов, которые могли бы легко самозародиться и всех истребить. Наконец, мем – это только мысль, и она не убивает сама по себе. Маловероятно, что возможна идея, которая влияла бы на всех людей без исключения, и влияла бы смертельно. Наконец, в обществе существует равновесие различных мемов. С другой стороны, опасные мемы попадают под концепцию «знаний массового поражения», введённую Биллом Джоем в статье «Нужны ли мы будущему».
Однако в нынешнюю эпоху мемы обрели возможность существовать и независимо от людей – в текстах и компьютерных программах. В современную эпоху самокопирующийся опасный мем может получить поддержку от неких технических средств. Очевидно, что сейчас я не могу придумать пример реально опасного мема, потому что если бы я его написал здесь, то это было бы преступным актом. Информация о том, как производить опасный сверхнаркотик была бы таким опасным мемом.
И подобно тому, как в случае биологического оружия опасен не один какой-либо особенно вирулентный вирус, а возможность производить много разных штаммов, быстрее, чем от них возможна защита, так и здесь может быть опасен не один какой-то мем, а то, что их появится настолько много, что они затопят любую защиту. Например, искусственный интеллект может генерировать опасные мемы.
Список существующих сейчас мемов, которые в некоторой степени опасны:
1) Представления об исключительности своей религии. А.П. Назаретян считает неизбежно присущее религиям свойство нетерпимости к другим религиям – важнейшей угрозой выживанию человечества в XXI веке. Он полагает, что религия, как социальный институт, способствует объединению группы людей через ненависть к другой группе. Выход он видит в создании светской системы целей, которая не подразделяет людей на плохих и хороших. Точно также работают идеи, связанные с национальными и расовыми различиями людей.
2) Знания о производстве наркотиков.
3) Организации, в которых основной целью является вербовка новых членов, например, секты или действующая в США банда «М13».
4) Самосбывающиеся пророчества о катастрофах. Ярким примером такого события было бы официальное сообщение о неизбежности глобальной катастрофы в ближайшем будущем. Например, о столкновении Земли через год с огромным астероидом. Даже если бы это сообщение было ложным, последствия его обнародования были бы катастрофическими. Большинство людей прекратило бы заниматься долгосрочными проектами, и вообще работать. Кто-то бы ударился в религию, кто-то бы совершал акты немотивированного насилия, злоупотреблял наркотиками и т. д., стремясь получить максимум удовольствия за оставшееся время. Последовавшая анархия сделала бы невозможными усилия по предотвращению катастрофы, даже если бы в них был определённый смысл.
5) Некая модель поведения, ведущая к распространению опасной болезни. Пример: каннибализм у неандертальцев, который возможно, стал причиной их вымирания за счёт того, что они заражались прионом вроде вызывающего «коровье бешенство», поедая мозги своих соплеменников. Или сексуальная революция, ведущая к распространению ВИЧ.
6) Необычайно масштабные и яркие мечты, ведущие к принятию ради них более высоких норм риска и/или «дающее право» убивать много других людей. Например, «красный террор» оправдывался тем, что, в конечном счёте, коммунизм принесёт благо гораздо большему числу людей. Новые технологии открывают перед человеком почти божественные возможности, порождая невероятные соблазны и побуждая допускать больший риск.
7) Мощные идеологические системы, вроде фашизма.
Борцы с глобальным риском сами могут стать глобальным риском. В каждый момент времени на Земле найдется десятки или сотни человек, считающие, что то или иное событие в ближайшем будущем является глобальным риском. С их точки зрения является «рациональным» идти на любые жертвы, чтобы остановить этот риск. Например, сбросить атомную бомбу на коллайдер.

Ви переглядаєте статтю (реферат): «Риски, связанные с самокопирующимися идеями (мемами)» з дисципліни «Структура глобальної катастрофи»

Заказать диплом курсовую реферат
Реферати та публікації на інші теми: ГОЛОВНІ РИНКОВІ ХАРАКТЕРИСТИКИ ТОВАРУ
Аудит звітності з податку з власників транспортних засобів та інш...
Класифікація банківських кредитів
Графіка
ПОХОДЖЕННЯ ТА РОЗВИТОК КОМЕРЦІЙНИХ БАНКІВ


Категорія: Структура глобальної катастрофи | Додав: koljan (06.05.2013)
Переглядів: 520 | Рейтинг: 0.0/0
Всього коментарів: 0
Додавати коментарі можуть лише зареєстровані користувачі.
[ Реєстрація | Вхід ]

Онлайн замовлення

Заказать диплом курсовую реферат

Інші проекти




Діяльність здійснюється на основі свідоцтва про держреєстрацію ФОП