Eliezer Shlomo Yudkovsky adalah pakar Amerika dalam kecerdasan buatan, yang mengkaji masalah-masalah keistimewaan teknologi dan menyokong penciptaan AI Mesra. Beliau adalah pengarang beberapa kisah fiksyen sains di mana beliau menggambarkan beberapa topik yang berkaitan dengan sains kognitif dan rasional.
![Image Image](https://images.culturehatti.com/img/kultura-i-obshestvo/75/eliezer-yudkovski-biografiya-tvorchestvo-karera-lichnaya-zhizn.jpg)
Eliezer Yudkowski: biografi
Eliezer Shlomo Yudkovsky adalah salah satu rasionalis yang paling aktif di Amerika moden, seorang penyelidik komputer dan peminat idea "kecerdasan buatan mesra".
Lahir pada 11 September 1979. Pengasas dan penyelidik bersama di organisasi penyelidikan bukan kerajaan Institut Penyelidikan Perisik Mesin, yang menerbitkan buku-bukunya. Eliezer Yudkovsky adalah penulis novel falsafah Harry Potter dan Kaedah Rasionalisme, yang diterbitkan di bahagian-bahagian di Internet antara 2010 dan 2015. Di dalamnya, Harry berkembang dalam keluarga seorang saintis Oxford dan, sebelum perjalanan ke Hogwarts, belajar dari dia kaedah pemikiran rasional.
Setakat yang diketahui, ia tidak mempunyai kaitan dengan bulatan "realis spekulatif". Nama beliau sering disebutkan berkaitan dengan Robin Hanson, selama beberapa tahun (dari 2006 hingga 2009) mereka adalah dua penulis utama blog "Mengatasi Prasangka", yang ada pada uang Institut Kemanusiaan Masa Depan di Oxford.
Kadang-kadang nama Yudkovsky dapat didengar sehubungan dengan Raymond Kurzweil. Beliau adalah wakil falsafah masyarakat tekno-geeks, tidak dapat diakses dan tidak dapat difahami, oleh itu, kepada kebanyakan orang awam kemanusiaan, yang mana hampir semua pembaca realis spekulatif tergolong. Ia tidak menghairankan, kerana dia sering beralih kepada bahasa logik dan matematik, kesimpulan probabilistik dan statistik, terdedah menggunakan formula dan jadual.
Kepentingan saintifik
Yudkovsky adalah pengasas bersama dan penyelidik di Singularity Institute for Artificial Intelligence Institute (SIAI). Dia memberikan sumbangan besar kepada pembangunan institut ini. Beliau adalah pengarang buku "Creating Friendly AI" (2001), artikel "Tahap Pertubuhan dalam Perisikan Am" (2002), "Voltan Terowong Koheren" ("Voltan Terowong Koheren" 2004) dan teori keputusan yang tidak menentu (2010). Penerbitan saintifik terbarunya adalah dua artikel dalam koleksi "Risiko bencana global" (2008) yang diedit oleh Nick Bostrom, iaitu, "Kecerdasan Buatan sebagai Faktor Risiko Global Positif dan Negatif" dan "Penyelewengan Kognitif dalam Menilai Risiko Global". Yudkovsky tidak belajar di universiti dan merupakan pendakwa secara automatik tanpa pendidikan formal dalam bidang AI.
Yudkovsky meneroka reka bentuk AI yang mampu pemahaman diri, pengubahsuaian diri, dan peningkatan diri rekursif (Seed AI), serta seni bina AI yang akan mempunyai struktur motivasi yang stabil dan positif (Friendly Artificial Intelligence). Sebagai tambahan kepada kerja penyelidikannya, Yudkovsky terkenal dengan penjelasannya mengenai model-model kompleks dalam bahasa bukan akademik, dapat diakses oleh kalangan pembaca yang luas, misalnya, lihat artikelnya "Penjelasan Intuitif Teorema Bayes".
Yudkovsky, bersama dengan Robin Hanson, merupakan salah satu penulis utama Blog Mengatasi Bias (mengatasi prasangka). Pada awal tahun 2009, beliau mengambil bahagian dalam penyusunan blog Less Wrong, yang bertujuan untuk "mengembangkan rasional manusia dan mengatasi gangguan kognitif." Selepas itu, Mengatasi Bias menjadi blog peribadi Hanson. Bahan yang dibentangkan di blog ini dianjurkan sebagai rantai jawatan yang menarik ribuan pembaca - lihat, sebagai contoh, rantaian teori hiburan.
Yudkovsky adalah pengarang beberapa kisah fiksyen sains di mana beliau menggambarkan beberapa topik yang berkaitan dengan sains kognitif dan rasional.
Kerjaya
- 2000. Yudkovsky menemui Institut Singularity (kemudian berganti nama menjadi MIRI).
- 2006. Yudkovsky menyertai blog Mengatasi Bias kolektif dan mula menulis teks yang kemudian menjadi Rantai.
- 2009. Berdasarkan penyertaan Yudkovsky di Mengatasi Bias, blog kolektif terkenal LessWrong.com dicipta.
- 2010-2015. Yudkovsky menulis GPiMRM.
- 2013. Yudkovsky menerbitkan jawatan terbaru di LessWrong.com dan berhenti menulis di laman web ini. Pada tahun 2017, Yudkovsky menerbitkan kebanyakan teks yang tersedia di Facebook dan Arbital
Percubaan pemikiran
Bayangkan sebuah superintelligence tiruan yang sangat pintar yang terkunci di dunia maya - katakan, hanya dalam kotak snuff. Anda tidak tahu sama ada dia bermaksud, ramah atau neutral. Apa yang anda tahu ialah dia mahu keluar dari kotak dan anda boleh berinteraksi dengannya melalui antara muka teks. Sekiranya AI benar-benar superintelligent, bolehkah anda bercakap dengannya selama lima jam dan tidak tunduk pada pujukan dan manipulasinya - tidak membuka kotak snuff?
Percubaan pemikiran ini dicadangkan oleh Eliezer Yudkowsky, seorang penyelidik di Institut Penyelidikan Kejuruteraan Kejuruteraan (MIRI). MIRI mempunyai ramai ahli sains yang sedang mengkaji risiko membangunkan superintelligence buatan; walaupun ia belum muncul lagi, ia sudah menarik perhatian dan membangkitkan perdebatan.
Yudkovsky berhujah bahawa superintelligence buatan boleh mengatakan segala-galanya untuk meyakinkan anda: penalaran berhati-hati, ancaman, penipuan, hubungan rapport, cadangan bawah sedar dan sebagainya. Dengan kelajuan cahaya, AI membina plot, meneliti kelemahan dan menentukan bagaimana ia paling mudah untuk meyakinkan anda. Sebagai ahli teori ancaman eksperimen, Nick Bostrom meletakkannya, "kita mesti percaya bahawa superintelligence dapat mencapai segala sesuatu yang ditetapkan sebagai matlamatnya."
Percubaan AI snuffbox memberikan keraguan tentang keupayaan kita untuk mengawal apa yang kita boleh buat. Ia juga menjadikan kita memahami kemungkinan yang agak aneh tentang apa yang kita tidak tahu mengenai realiti kita sendiri.