Риски, связанные с развитием биотехнологий
Поможем в ✍️ написании учебной работы
Поможем с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой

Основной риск состоит в одновременном попадании в окружающую среду нескольких десятков генетически модифицированных патогенов, способных поражать как людей, так и всю биосферу. Это может произойти в ходе войны или стать следствием деятельности нескольких независимых друг от друга биохакеров.

Сейчас в Интернет ежегодно выпускается до 2 миллионов компьютерных вирусов, и это число постоянно растет. Аналогичная активность возможна и у биохакеров. Уже сейчас стоимость оборудования, необходимого для создания вируса, упала до нескольких сот долларов, время сократилось до недель, а необходимый уровень знаний снизился до школьного. Кроме того, генетические коды многих опасных вирусов были опубликованы в Интернете, например, гриппа «испанка».

Таким образом, риск биотехнологий является наиболее «зрелым» и наиболее серьезным.

Риски, связанные с развитием искусственного интеллекта.

Опасность того, что однажды созданный ИИ будет способен к быстрому, все более ускоряющемуся саморазвитию, в ходе которого, как полагает Стив Омохундро, «инстинкт самосохранения» может вытеснить в нем другие заложенные заранее системы цели, и он начнет воспринимать людей как угрозу для себя. Такой ИИ Юдковски назвал «недружественным».

Опасность появления ошибочной системы команд для сверхИИ, которая побудит его захватить Землю и уничтожить людей. Превосходящий интеллект может придумать множество способов уничтожения человека, если перед ним встанет такая задача: с помощью управляемых роботов, токсинов, нанотеха.

Дополнительные риски связаны с войной между двумя сильными ИИ, а также состоят в утрате «необходимости в человеке» по мере замены всех его функций ИИ. Именно об этом предупреждал Билл Джой в статье «Почему мы не нужны будущему» (2000).

Риски, связанные с развитием нанотехнологий.

«Серая слизь» — гипотетический сценарий конца света, связанный с успехами молекулярных нанотехнологий и предсказывающий, что неуправляемые самореплицирующиеся нанороботы поглотят всю биомассу Земли, выполняя свою программу саморазмножения. Термин впервые был использован Эриком Дрекслером в его книге «Машины созидания....» (1986).

Возможность создания способного к саморепликации нанотехнологического оружия — микроскопических, невидимых глазу нанороботов, которые могут скрытно распространяться по территории противника, а затем атаковать людей, впрыскивая им яды или проникая в мозг, или уничтожить всю технику, замыкая электрические линии связи.

Удешевление с помощью нанотеха производства любого другого оружия, в том числе ядерного.

Риски, связанные с развитием ядерного оружия.

Вопреки распространенному мнению, «обычная» ядерная война между сверхдержавами вряд ли может привести к полному вымиранию человечества: большая часть населения Земли выживет, и многие страны сохранят технологический потенциал для дальнейшего развития. Главный риск — тотальное ядерное заражение в случае создания, а затем применения стационарной кобальтовой бомбы, предложенной Лео Силардом.

Дополнительные риски — пробуждение спящих сверхвулканов с помощью ядерных зарядов, тотальная ядерная война, ядерный терроризм в больших масштабах.

Стоимость обогащения урана снижается по экспоненциальному закону, что делает подобное оружие все более доступным.

Например, недавно разработана технология лазерного обогащения урана, которая позволяет заменить тысячи центрифуг одним устройством.

Природные катастрофы.

Периодичность извержения сверхвулканов на Земле составляет около 100 000 лет.

Современная цивилизация могла бы пережить вулканическую зиму, хотя потери были бы огромны.

Другой широко известный глобальный риск — падение астероида, подобного тому, который, вероятно, послужил одной из причин вымирания динозавров. Об этом событии свидетельствует кратер Чиксулуб в Мексике.

Астероиды диаметром около 10 км падают на Землю один раз в 30 млн лет.

И даже такую катастрофу пережило бы некоторое количество людей. Полностью уничтожить род людской мог бы только астероид диаметром от 30 км, но его бы уже давно открыли.

Еще одна причина массовых вымираний в прошлом — это гаммавсплески, то есть такие взрывы сверхновых, при которых образуется узкий пучок гамма-лучей, способный «поджарить» планеты на расстоянии в тысячи световых лет. Правда, его воздействие будет коротким, так что обратная сторона планеты может уцелеть.

Другие глобальные природные катастрофы еще менее вероятны. Однако есть риск, что человек своей деятельностью спровоцирует природную катастрофу, для которой уже сложились условия: направит к Земле астероид или пробудит супервулкан.

Непредвидимые последствия.

Значительное число проблем, с которыми человечество может столкнуться в будущем, порождаются законом непредвидимых последствий, который формулируется так: «Любое вмешательство в сложную систему может привести или не привести к желаемым результатам, но наверняка приведет к непредвидимым и часто нежелательным последствиям». Большинство экологических проблем являются примерами действия этого закона.

Кроме того, к непредвидимым последствиям относятся возможные риски от научных экспериментов, самый знаменитый из которых, но далеко не единственный — это риск возникновения микроскопической черной дыры в коллайдере.

Дата: 2019-04-23, просмотров: 176.