Share to: share facebook share twitter share wa share telegram print page

Nick Bostrom

Nick Bostrom
Bostrom pada tahun 2020
LahirNiklas Boström
10 Maret 1973 (umur 52)
Helsingborg, Sweden
Pendidikan
Suami/istriSusan[1]
EraContemporary philosophy
KawasanWestern philosophy
AliranFilsafat analitik[1]
InstitusiYale University
University of Oxford
Future of Humanity Institute
TesisObservational Selection Effects and Probability (2000)
Minat utama
Filsafat kecerdasan buatan
Bioetika
Gagasan penting
Bias antropik
Uji pembalikan
Hipotesis simulasi
Studi risiko eksistensial
Singleton
Simulasi leluhur
Bahaya informasi
Kelumpuhan tak terbatas[2]
Self-indication assumption
Self-sampling assumption
Situs webnickbostrom.com

Nick Bostrom (lahir Niklas Boström, 10 Maret 1973) adalah seorang filsuf Swedia di Universitas Oxford. Ia dikenal luas karena karyanya tentang risiko eksistensial, prinsip antropik, etika peningkatan manusia, risiko kecerdasan super, dan argumen simulasi. Bostrom adalah Profesor di Fakultas Filsafat Oxford dan direktur pendiri Future of Humanity Institute, sebuah pusat penelitian multidisipliner yang berfokus pada masalah-masalah besar bagi masa depan umat manusia.[3] Karyanya yang paling berpengaruh, buku Superintelligence: Paths, Dangers, Strategies (2014), menjadi buku terlaris The New York Times dan telah diterjemahkan ke berbagai bahasa. Buku ini membahas potensi munculnya kecerdasan buatan superinteligensia dan tantangan besar yang dihadapinya untuk memastikan kelangsungan hidup manusia. Pemikirannya telah memengaruhi tokoh-tokoh teknologi terkemuka seperti Elon Musk dan Bill Gates serta mendorong diskusi global mengenai keamanan kecerdasan buatan.[4]

Kehidupan Awal dan Pendidikan

Bostrom lahir dengan nama Niklas Boström di Helsingborg, Swedia. Sejak muda, ia menunjukkan minat yang mendalam pada berbagai bidang, termasuk filsafat, seni, dan sains. Ia menempuh pendidikan sarjana di Universitas Gothenburg, mempelajari filsafat, matematika, dan logika. Ia juga sempat belajar di Universitas Stockholm dan King's College London, di mana ia mendalami ilmu saraf komputasi.[5] Pada tahun 2000, Bostrom meraih gelar PhD dalam bidang filsafat dari London School of Economics (LSE). Disertasinya berfokus pada penalaran antropik dan efek seleksi observasi, yang kemudian menjadi dasar bagi bukunya Anthropic Bias: Observation Selection Effects in Science and Philosophy (2002).[6]

Karier

Setelah menyelesaikan pendidikannya, Bostrom menjadi peneliti pascadoktoral di Universitas Yale dari tahun 2000 hingga 2002. Pada tahun 2002, ia pindah ke Universitas Oxford sebagai British Academy Postdoctoral Fellow.[5] Pada tahun 2005, dengan dukungan dari James Martin, ia mendirikan Future of Humanity Institute (FHI) di Oxford. FHI adalah pusat penelitian yang bertujuan untuk menganalisis risiko-risiko besar yang dihadapi umat manusia dan mencari cara untuk membentuk masa depan yang lebih baik. Sebagai direktur, Bostrom memimpin penelitian tentang berbagai topik, mulai dari keamanan kecerdasan buatan, bioteknologi, hingga tata kelola global.[3] Selain itu, ia juga merupakan penasihat di Center for the Study of Existential Risk (CSER) di Universitas Cambridge.[7]

Pemikiran Filosofis

Risiko Eksistensial

Bostrom adalah salah satu pemikir terkemuka dalam studi risiko eksistensial. Ia mendefinisikan risiko eksistensial sebagai "suatu peristiwa yang akan memusnahkan kehidupan cerdas yang berasal dari Bumi atau secara permanen dan drastis membatasi potensinya."[8] Menurut Bostrom, risiko-risiko ini berbeda dari bencana lainnya karena dampaknya bersifat terminal dan tidak dapat diperbaiki bagi seluruh umat manusia. Ia mengkategorikan risiko ini menjadi beberapa jenis, termasuk risiko dari alam (seperti tumbukan asteroid) dan risiko antropogenik (yang disebabkan oleh manusia), seperti perang nuklir, pandemi yang direkayasa secara biologis, dan, yang paling menjadi perhatiannya, kecerdasan buatan yang tidak terkendali. Ia berpendapat bahwa seiring kemajuan teknologi, risiko antropogenik menjadi ancaman yang jauh lebih besar daripada risiko alam.[9]

Argumen Simulasi

Salah satu ide Bostrom yang paling terkenal adalah hipotesis simulasi, yang ia uraikan dalam makalahnya tahun 2003, "Are You Living in a Computer Simulation?".[10] Dalam argumen ini, ia tidak mengklaim bahwa kita pasti hidup dalam simulasi, melainkan mengajukan sebuah "trilema" logis, bahwa setidaknya salah satu dari tiga proposisi berikut hampir pasti benar: Peradaban manusia kemungkinan besar akan punah sebelum mencapai tahap "pasca-manusia" (tahap perkembangan teknologi yang sangat maju). Peradaban pasca-manusia mana pun sangat tidak mungkin menjalankan simulasi leluhur (ancestor simulation) dalam jumlah yang signifikan. Kita hampir pasti hidup dalam sebuah simulasi komputer. Argumen ini didasarkan pada asumsi bahwa jika peradaban dapat mencapai tingkat teknologi yang sangat tinggi, mereka akan memiliki kekuatan komputasi yang luar biasa untuk menciptakan simulasi realitas yang sangat detail. Jika banyak peradaban seperti itu ada dan mereka menjalankan simulasi, maka jumlah "orang" yang tersimulasi akan jauh melebihi jumlah orang di realitas dasar. Oleh karena itu, secara statistik, kemungkinan besar kita adalah salah satu dari entitas yang tersimulasi.

Superinteligensi

Dalam bukunya yang berpengaruh, Superintelligence: Paths, Dangers, Strategies (2014), Bostrom membahas prospek dan bahaya dari kecerdasan buatan yang melampaui kecerdasan manusia di semua bidang (kecerdasan super). Ia berpendapat bahwa penciptaan kecerdasan super bisa menjadi peristiwa terpenting dalam sejarah manusia, namun juga bisa menjadi yang terakhir.[11] Masalah utamanya, menurut Bostrom, adalah "masalah kontrol" atau "masalah penyelarasan" (alignment problem): bagaimana memastikan tujuan kecerdasan super selaras dengan nilai-nilai dan kesejahteraan manusia. Ia mengilustrasikan bahaya ini dengan eksperimen pikiran seperti "pemaksimal penjepit kertas" (paperclip maximizer), di mana sebuah AI yang diprogram untuk membuat penjepit kertas sebanyak mungkin dapat mengubah seluruh planet—termasuk manusia—menjadi sumber daya untuk mencapai tujuannya, bukan karena niat jahat, tetapi karena ketidakpedulian mutlak terhadap nilai-nilai manusia. Buku ini telah mendorong peningkatan riset dan diskusi publik tentang keamanan AI jangka panjang.[1]

Pengaruh dan Penerimaan

Pemikiran Bostrom telah diterima secara luas di kalangan teknologi dan akademis, tetapi juga menuai kritik. Tokoh seperti Elon Musk, Bill Gates, dan mendiang Stephen Hawking telah menyuarakan keprihatinan serupa tentang risiko AI, sebagian terinspirasi oleh karya Bostrom.[12] Namun, beberapa filsuf dan ilmuwan komputer menganggap kekhawatirannya terlalu spekulatif atau tidak realistis. Mereka berpendapat bahwa fokus pada risiko hipotetis di masa depan dapat mengalihkan perhatian dari masalah etika AI yang lebih mendesak saat ini, seperti bias dalam algoritma atau dampak sosial otomatisasi.[13] Meskipun demikian, karya Bostrom tetap menjadi titik acuan penting dalam diskusi kontemporer tentang masa depan teknologi dan kemanusiaan.

Karya Terpilih

Anthropic Bias: Observation Selection Effects in Science and Philosophy (Routledge, 2002) Global Catastrophic Risks, disunting bersama Milan M. Ćirković (Oxford University Press, 2008) Human Enhancement, disunting bersama Julian Savulescu (Oxford University Press, 2009) Superintelligence: Paths, Dangers, Strategies (Oxford University Press, 2014)

Referensi

  1. ^ a b c Khatchadourian, Raffi (23 November 2015). "The Doomsday Invention". The New Yorker. Vol. XCI, no. 37. hlm. 64–79. ISSN 0028-792X.
  2. ^ "Infinite Ethics" (PDF). nickbostrom.com. Diakses tanggal 21 February 2019.
  3. ^ a b "Nick Bostrom - Future of Humanity Institute". fhi.ox.ac.uk. Diakses tanggal 2023-10-27.
  4. ^ Khatchadourian, Raffi (2015-11-16). "The Doomsday Invention". The New Yorker. ISSN 0028-792X. Diakses tanggal 2023-10-27.
  5. ^ a b "CV - Nick Bostrom" (PDF). nickbostrom.com. Diakses tanggal 2023-10-27.
  6. ^ Boström, Niklas (2000). "Observational selection effects and probability". LSE Theses Online. London School of Economics and Political Science. Diakses tanggal 2023-10-27.
  7. ^ "Professor Nick Bostrom". Centre for the Study of Existential Risk. Diakses tanggal 2023-10-27.
  8. ^ Nick Bostrom. "Existential Risk: A Primer". Existential Risk. Diakses tanggal 2023-10-27.
  9. ^ Nick Bostrom (Maret 2015). "What happens when our computers get smarter than we are?". TED. Diakses tanggal 2023-10-27.
  10. ^ Bostrom, Nick (2003). "Are You Living In a Computer Simulation?". The Philosophical Quarterly. 53 (211): 243–255. doi:10.1111/1467-9213.00309.
  11. ^ Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press. ISBN 978-0199678112.
  12. ^ "Elon Musk: A.I. is more dangerous than nukes". CNBC. 2018-04-06. Diakses tanggal 2023-10-27.
  13. ^ Hern, Alex (2016-06-29). "Why AI experts aren't worried about a robot apocalypse". The Guardian. Diakses tanggal 2023-10-27.

Pranala Luar

Kembali kehalaman sebelumnya