Годовой отчет Фонда «Глобальные катастрофические риски — 2016 г.» (Global Catastrophic Risks 2016) является результатом продолжающихся партнерских отношений между Фондом и исследователями из Института будущего человечества (Future of Humanity Institute), а также проектом «Глобальные приоритеты» Оксфордской школы Мартина (Oxford Martin School) при Оксфордском университете. В отчете по заказу Фонда 15 исследователей выделили и проанализировали несколько важнейших глобальных катастрофических рисков, потенциально способных уничтожить 10% или более от общей численности населения планеты.

В отчете рассматриваются разные виды рисков. Изменение климата — риск, который в настоящее время привлекает наибольшее внимание. Исследователи подчеркивают, что важно рассматривать не только наиболее вероятные последствия, но и обращать внимание на сценарии, которые менее вероятны, но тоже могут привести к катастрофическому ущербу. Например, это повышение глобальной температуры на 4, 6 или 8 градусов по Цельсию (а не на 2 градуса, как рассматривалось на конференции по изменению климата в Париже).

Кроме климатических рисков, в отчете рассматриваются ядерная война и пандемии. Исследователи указали также на другой тип катастрофического риска — так называемые «новые риски». К ним относятся, например, искусственный интеллект, геоинжиниринг и синтетическая биология. Общим для всех «новых рисков» является то, что они были порождены технологическими достижениями, направленными прежде всего на обогащение человечества, — однако ошибочное или неправильное использование этих технологий чревато разрушительными последствиями.

Годовой отчет не ограничивается описанием рисков: ученые Оксфордского университета попытались отразить взаимовлияние этих рисков и возможные методы их снижения, а также определить, кто должен нести основную ответственность за это.

Загрузить полный текст отчета | Загрузить резюме