Институт будущего человечества (FHI) |
---|
|
Задача: "research big-picture questions about humanity and its prospects" |
Международное название |
Future of Humanity Institute |
Основан |
2005 |
Закрыт |
2024 |
Тип |
междисциплионарный исследовательский центр |
Директор |
Ник Бустрём |
Расположение |
Англия, Оксфорд |
Юридический адрес |
Оксфордский университет, Mill Street, Trajan House |
Сайт |
fhi.ox.ac.uk |
Институт будущего человечества (англ. Future of Humanity Institute, FHI) — английский междисциплионарный исследовательский центр, функционировавший как часть факультета философии[англ.] и Школы Мартина[англ.] Оксфордского университета[1].
Основан в 2005 году, директором являлся философ Ник Бостром. В исследователький штат среди прочих входили футуролог Андерс Сандберг, инженер Эрик Дрекслер, экономист Робин Хэнсон[англ.], а также Тоби Орд[англ.], основавший благотворительное сообщество «Giving What We Can[англ.]»[2].
Задача института заключалась в изучении наиболее важных и первостепенных для человечества областей, таких как влияние технологий и возможности глобальной катастрофы в будущем. Для работы применялся междисциплинарный подход. Институт также всячески способствовал участию общественности в управлении государством, предприятиями, университетами и другими организациями, развитию двухстороннего диалога между ними.
История
Философ Ник Бостром основал институт в ноябре 2005 года как часть Школы Мартина Оксфордского университета, а затем школы Джеймса Мартина 21st Century School[3]. В период с 2008 по 2010 год FHI организовал конференцию по глобальным катастрофическим рискам, было написано 22 статьи в научных журналах и опубликовано 34 главы в научных сборниках. Исследователи FHI давали политические рекомендации на Всемирном экономическом форуме, частному и некоммерческому сектору (например, Фонду Макартуров и Всемирной организации здравоохранения), а также правительственным учреждениям Швеции, Сингапура, Бельгии, Соединённого Королевства Великобритании и Соединённых Штатов Америки.
Ник Бостром и специалист по биоэтике Джулиан Савулеску[англ.] также опубликовали книгу «Совершенствование человека (англ. Human Enhancement)» в марте 2009 года. Совсем недавно исследователи FHI сосредоточили внимание на опасностях, связанных с продвинутым искусственным интеллектом. В 2014 году они опубликовали несколько книг о рисках, связанных с ИИ, в том числе «Умнее нас» Стюарта Армстронга и «Искусственный интеллект. Этапы, Угрозы, Стратегии» Ника Бострома[4]. В 2018 году организация Open Philanthropy[англ.] рекомендовала выделить FHI грант в размере примерно 13,4 миллиона фунта стерлингов в течение трёх лет[5].
Основные направления исследования
Экзистенциальный риск
Крупнейшая тема, на изучение которой FHI потратила много времени, — это риск глобальных катастроф и, в частности, экзистенциальный риск. В статье 2002 года Ник Бостром определил «экзистенциальный риск» как такой, «при котором неблагоприятный исход либо уничтожит разумную жизнь земного происхождения, либо навсегда и радикально сократит её потенциал»[6]. Это включает в себя сценарии, в которых человечеству не причиняется прямого вреда, но оно не может колонизировать космос и использовать доступные ресурсы наблюдаемой Вселенной в проектах, имеющих ценность для человечества, как обсуждалось в статье 2003 года «Астрономические отходы: альтернативные издержки замедленного технологического развития (англ. Astronomical Waste: The Opportunity Cost of Delayed Technological Development)»[7].
В 2020 году старший научный сотрудник FHI Тоби Орд опубликовал книгу «Пропасть: экзистенциальный риск и будущее человечества (англ. The Precipice: Existential Risk and the Future of Humanity)», в которой он утверждает, что защита будущего человечества является одной из важнейших моральных проблем нашего времени[8][9].
Совершенствование человека и рациональность
С работой FHI по оценке рисков, астрономических потерь и опасностей, связанных с технологиями будущего, тесно связана работа над перспективами и рисками, связанными с улучшением человеческого потенциала. Изменения, о которых идёт речь, могут быть биологическими, цифровыми или социологическими, и акцент делается на наиболее радикальных предполагаемых изменениях, а не на наиболее вероятных краткосрочных инновациях. Исследования FHI в области биоэтики сосредоточены на потенциальных последствиях генотерапии, продлении жизни, мозговых имплантатах и нейрокомпьютерных интерфейсах, а также на загрузке сознания[10].
Основное внимание FHI уделяет методам оценки и повышения уровня человеческого интеллекта и рациональности как способу определения скорости и направления технологического и социального прогресса. Работа FHI по изучению человеческой иррациональности, на примере когнитивной эвристики[англ.] и искажениях, включает в себя постоянное сотрудничество с Amlin[англ.] по изучению системного риска, возникающего из-за предвзятости при моделировании[11][12].
Примечания
Ссылки