Bincangkan dilema etika dan liabiliti yang mungkin timbul daripada pengenalan kereta pandu sendiri. Kami meneroka bagaimana pertimbangan etika kereta pandu sendiri boleh direka bentuk daripada perspektif utilitarian dan deontologi, dan mengemukakan pendekatan berbeza untuk menangani isu ini.
Kita menghadapi banyak konflik dalam hidup kita. Kami berhujah dengan orang ramai untuk melihat pendapat siapa yang betul, dan kami tertanya-tanya sama ada tindakan kami betul dari segi etika. Tambahan pula, kita mempersoalkan mengapa kita harus melakukan apa yang "betul dari segi etika" dan apa yang "betul" pada mulanya. Dalam erti kata lain, kita semua ingin tahu apa yang "betul" atau "baik" dalam hidup kita. Jadi apakah etika? Kita boleh memberikan definisi yang panjang dan rumit, tetapi mari kita anggap ia sebagai sesuatu yang kita sebagai manusia dijangka lakukan, dan ingat kembali kenyataan sebelumnya. Kita menghadapi banyak "konflik etika" dalam kehidupan kita.
Terdapat pelbagai jenis konflik etika yang kami hadapi, tetapi dalam artikel ini, kami akan menumpukan pada isu etika yang berkaitan dengan sains dan teknologi. Mungkin terdapat banyak isu etika yang berkaitan dengan sains dan teknologi. Walau bagaimanapun, kebanyakan isu etika yang berkaitan dengan sains dan teknologi tertumpu kepada persoalan tanggungjawab: "Siapa yang bertanggungjawab?" Apabila teknologi dibangunkan dan seseorang dicederakan akibatnya, selalu ada perdebatan tentang siapa yang bertanggungjawab untuk kemudaratan itu, terutamanya apabila ia melibatkan manusia yang mengendalikan atau mengarahkan mesin, kesalahan boleh diberikan kepada kumpulan atau orang tertentu. , tetapi perdebatan berterusan apabila kesalahan itu samar-samar, seperti apabila ia melibatkan kecerdasan buatan.
Seperti yang dinyatakan sebelum ini, liabiliti boleh menjadi kabur apabila mesin membuat keputusan dan tindakan autonomi dan bukannya dikendalikan oleh pengendali manusia. Kereta pandu sendiri khususnya adalah pemandangan biasa dalam kehidupan seharian kita, tetapi kita sering tidak mempunyai peluang untuk memikirkan secara mendalam tentang batasan atau isu etika mereka. Itulah sebabnya kami telah memilih kereta pandu sendiri sebagai topik untuk artikel ini.
Jadi, apakah isu etika dengan kereta autonomi? Kereta autonomi ialah kereta yang memandu sendiri tanpa memerlukan pemandu. Isu etika yang dikaitkan dengan kereta autonomi menjadi lebih menonjol apabila terdapat bahaya konkrit, seperti seseorang yang cedera atau mengalami kerugian kewangan. Mengaplikasikan isu ini pada kereta pandu sendiri, persoalan timbul: "Siapa yang harus bertanggungjawab atas bahaya yang disebabkan oleh kereta pandu sendiri?"
Sebelum membincangkan perkara ini, kita harus mempertimbangkan bahawa subjek tanggungjawab etika ialah ejen etika. Dalam erti kata lain, ejen etika menggunakan pertimbangan yang rasional untuk memikirkan sama ada apa yang dia lakukan adalah betul. Jika, walaupun mempunyai pertimbangan rasional yang mencukupi, tingkah laku yang tercela dari segi etika dilakukan, orang itu bertanggungjawab. Oleh itu, kita perlu meneliti sama ada kenderaan autonomi boleh ditakrifkan sebagai agen etika.
Perbincangan tradisional etika robot menganggap bahawa robot adalah agen etika yang bertindak berdasarkan prinsip etika mereka sendiri. Walau bagaimanapun, adalah sukar untuk menganggap bahawa kenderaan autonomi bertindak berdasarkan prinsip etika dan pertimbangan rasional mereka sendiri. Oleh itu, terdapat dua bidang utama tanggungjawab etika untuk kenderaan autonomi. Yang pertama berkaitan dengan cara kereta pandu sendiri boleh direka bentuk untuk membuat keputusan sekiranya berlaku kemalangan. Ini adalah "dilema etika" klasik, seperti keselamatan siapa yang harus diutamakan oleh kereta pandu sendiri jika tidak dapat dielakkan seseorang akan cedera - pejalan kaki atau penghuninya? Yang kedua adalah berkaitan dengan kecacatan teknikal: jika kecacatan dalam proses pengeluaran menyebabkan kecederaan kepada penumpang atau pejalan kaki, siapa yang bertanggungjawab?
Apabila membincangkan isu etika kereta pandu sendiri, isu pertama adalah yang utama, jadi artikel ini akan menumpukan pada isu pertama sahaja. Untuk isu pertama, kita boleh membezakan antara dua kes: ⓐ antara penunggang dan pejalan kaki, dan ⓑ antara pejalan kaki. Masalah ⓐ boleh digambarkan oleh bekas tebing. Jika kenderaan autonomi berada di atas jambatan sempit dan akan berlanggar dengan bas yang datang dari arah bertentangan, kenderaan itu menghadapi dilema: patutkah ia terus berjalan dan berlanggar dengan bas, atau patutkah ia memandu keluar dari jambatan dan membunuh penumpang ? Kes ⓑ boleh digambarkan sebagai dilema Troli. Sebuah kereta api troli dengan brek rosak sedang berjalan di landasan, dan terdapat lima pekerja di landasan. Jika kereta api terus berjalan, lima orang buruh itu akan mati. Orang yang mengendalikan kereta api boleh menukar trek ke rel lain yang sedang diusahakan oleh seorang buruh. Dilema sama ada untuk menukar landasan timbul atau tidak: pengorbanan segelintir orang untuk ramai, atau pengorbanan ramai untuk menyelamatkan segelintir orang.
Jadi, apakah algoritma etika untuk kereta pandu sendiri untuk dipilih dalam dilema sedemikian? Terdapat tiga pendekatan utama kepada etika dalam kecerdasan buatan (AI) dan robotik, serta kenderaan autonomi. Ini adalah pendekatan atas ke bawah, pendekatan bawah ke atas, dan pendekatan hibrid.
Pendekatan atas ke bawah melibatkan pemilihan teori etika tertentu dan kemudian menganalisis keperluan sistem pengkomputeran untuk mereka bentuk algoritma dan subsistem yang boleh melaksanakan teori tersebut. Dalam erti kata lain, algoritma dilaksanakan berdasarkan sistem teori etika, seperti utilitarianisme Bentham dan Mill atau deontologi Kant. Dalam artikel ini, kita akan melihat utilitarianisme dan deontologi, dua teori etika yang mewakili pendekatan atas ke bawah.
Pertama, mari kita lihat utilitarianisme. Apabila kita memikirkan utilitarianisme, kita sering memikirkan frasa "kebahagiaan terbesar daripada jumlah terbanyak." Dalam erti kata lain, pendekatan utilitarian menganggap utiliti semua ahli kumpulan. Jika anda menganggap utilitarianisme sebagai satu algoritma besar, ia boleh mempunyai banyak sub-algoritma. Sebagai contoh, terdapat sub-algoritma yang mana nilai utiliti harus diutamakan. Menerapkan ini kepada contoh tebing yang disebutkan sebelum ini, terdapat lebih ramai orang di dalam bas daripada di dalam kereta pandu sendiri. Oleh itu, sekiranya berlaku perlanggaran dengan bas, kereta pandu sendiri akan jatuh dari tebing kerana akan ada lebih banyak perbelanjaan perubatan untuk membayar pampasan.
Walau bagaimanapun, dalam perlanggaran dunia sebenar, algoritma utilitarian akan menggunakan sub-algoritma untuk memutuskan siapa yang akan dipukul. Proses "memilih" mangsa ini boleh membawa kepada pelbagai masalah, termasuk kemungkinan melanggar prinsip kesaksamaan yang termaktub dalam Pindaan Ke-11. Utilitarianisme mempunyai aspek positif kerana algoritma atas "kebahagiaan terbesar daripada jumlah terbanyak" itu sendiri mudah untuk dikomputerkan, tetapi tidak jelas cara mengira utiliti setiap individu dalam situasi konflik, dan ia menimbulkan persoalan asas tentang kegunaan mengira nyawa manusia sebagai ukuran kegunaan.
Yang kedua ialah aspek deontologi. Deontologi menyatakan bahawa penilaian moral sesuatu tindakan ditentukan oleh pematuhannya kepada "keharusan deontik" yang dinyatakan secara universal tanpa mengira akibatnya. Imperatif deontik boleh diringkaskan sebagai imperatif kesejagatan, "Bertindak sedemikian rupa sehingga nisbah kehendak anda sentiasa dan pada masa yang sama prinsip perundangan sejagat," dan keharusan kemanusiaan, "Bertindak dengan cara yang manusia, sama ada dalam diri sendiri atau orang lain, sentiasa dan pada masa yang sama adalah tujuan dan tidak pernah menjadi cara." Untuk kes tebing yang disebutkan di atas, pendekatan deontologi akan mengikut keharusan deontologi untuk "tidak sesekali menganggap manusia sebagai satu cara untuk mencapai matlamat. Dalam kes ini, kereta pandu sendiri tidak akan menganggap pemandu atau penumpang bas sebagai "cara", jadi ia akan cuba mengelakkan perlanggaran sebanyak mungkin tanpa menghargai nyawa mereka. Algoritma etika berdasarkan pendekatan deontologi boleh dilihat secara positif kerana ia boleh dibangunkan dengan cara yang menghormati kehidupan manusia dalam situasi tertentu.
Walau bagaimanapun, pendekatan deontologi juga mempunyai beberapa batasan. Pertama sekali, terdapat batasan yang timbul daripada aplikasi praktikal imperatif deontologi. Sebagai contoh, ia mencadangkan 'prinsip perundangan universal', yang menimbulkan persoalan sama ada terdapat prinsip universal yang boleh digunakan dalam semua situasi. Juga, kriteria untuk mentakrifkan prinsip universal boleh menjadi subjektif. Akhir sekali, jika kehidupan manusia diutamakan dalam semua situasi, sukar untuk membuat pertimbangan beretika tentang bahaya lain.
Selain pendekatan atas ke bawah yang dibincangkan setakat ini, terdapat pendekatan bottom-up dan hibrid. Pendekatan bawah ke atas melibatkan mereka bentuk algoritma berdasarkan data latihan empirikal. Ini berpotensi untuk berfungsi dengan lebih baik dalam situasi dunia sebenar daripada pendekatan atas ke bawah, kerana algoritma dibina untuk mencerminkan kes empirikal semasa ia belajar daripada data. Pendekatan hibrid, sebaliknya, menggabungkan kekuatan kedua-dua pendekatan atas ke bawah dan bawah ke atas untuk mereka bentuk algoritma yang bersifat utilitarian, mencari utiliti maksimum, dan sifat deontologi, mengikut prinsip etika sejagat.
Isu etika kenderaan autonomi yang dibincangkan dalam artikel ini mungkin akan menjadi lebih menonjol apabila teknologi berkembang, dan kita harus menumpukan usaha kita untuk meneroka pendekatan yang berbeza untuk menyelesaikan dilema etika yang akan dihadapi oleh kenderaan autonomi, dan pada pelaksanaannya dalam amalan.