Manusia Sedia Mendapat Manfaat dari Benevolent AI

Kemas kini: 8 Jun 2021
Manusia Sedia Mendapat Manfaat dari Benevolent AI

Manusia mengharapkan bahawa AI baik hati dan boleh dipercayai. Satu kajian baru menunjukkan bahawa pada masa yang sama manusia tidak mahu bekerjasama dan berkompromi dengan mesin. Malah mereka mengeksploitasi mereka.

Bayangkan diri anda memandu di jalan yang sempit dalam masa terdekat apabila tiba-tiba sebuah kereta lain muncul dari selekoh di hadapan. Ia adalah kereta memandu sendiri tanpa penumpang di dalamnya. Adakah anda akan maju dan menegaskan hak jalan anda, atau memberi jalan untuk membiarkannya berlalu? Pada masa ini, kebanyakan kita berkelakuan baik dalam situasi yang melibatkan manusia lain. Adakah kita akan menunjukkan kebaikan yang sama terhadap kenderaan autonomi?

Dengan menggunakan kaedah dari teori permainan tingkah laku, pasukan penyelidik antarabangsa di LMU Munich dan University of London telah melakukan kajian dalam talian secara besar-besaran untuk melihat sama ada orang akan bertindak sama dengan sistem kecerdasan buatan (AI) seperti yang mereka lakukan dengan sesama manusia.

Kerjasama menyatukan masyarakat. Selalunya menuntut kita berkompromi dengan orang lain dan menerima risiko yang mereka biarkan. Lalu lintas adalah contoh yang baik. Kita kehilangan sedikit masa ketika kita membiarkan orang lain berlalu di depan kita dan marah ketika orang lain gagal membalas kebaikan kita. Adakah kita akan melakukan perkara yang sama dengan mesin?

Orang mempunyai tahap kepercayaan yang sama terhadap AI seperti manusia: kebanyakan berharap dapat bertemu dengan seseorang yang bersedia untuk bekerjasama. Perbezaannya muncul selepas itu. Orang kurang bersedia untuk membalas dengan AI, dan sebaliknya, memanfaatkan kebaikannya untuk keuntungan mereka sendiri. Kembali ke contoh lalu lintas, pemandu manusia akan memberi jalan kepada manusia lain tetapi tidak menggunakan kereta memandu sendiri. Kajian ini mengenal pasti keengganan untuk berkompromi dengan mesin sebagai cabaran baru untuk masa depan interaksi manusia-AI.

"Kami meletakkan orang sebagai orang yang berinteraksi dengan agen tiruan untuk pertama kalinya, kerana ia boleh berlaku di jalan raya," jelas Jurgis Karpus, PhD, seorang ahli teori permainan tingkah laku dan seorang ahli falsafah di LMU Munich dan pengarang pertama kajiannya. “Kami memodelkan pelbagai jenis pertemuan sosial dan menemukan corak yang konsisten. Orang menjangkakan agen tiruan dapat bekerjasama dengan sesama manusia. Namun, mereka tidak membalas budi mereka dan memanfaatkan AI lebih banyak daripada manusia. "

Dengan perspektif dari teori permainan, sains kognitif, dan falsafah, para penyelidik mendapati bahawa 'eksploitasi algoritma' adalah fenomena yang kuat. Mereka mengulangi penemuan mereka di sembilan eksperimen dengan hampir 2,000 peserta manusia. Setiap eksperimen mengkaji pelbagai jenis interaksi sosial dan membolehkan manusia memutuskan sama ada untuk berkompromi dan bekerjasama atau bertindak sendiri. Harapan pemain lain juga diukur. Dalam permainan terkenal, Dilema Tawanan, orang mesti mempercayai bahawa watak lain tidak akan mengecewakan mereka. Mereka menerima risiko dengan manusia dan AI, tetapi lebih sering mengkhianati kepercayaan AI, untuk mendapatkan lebih banyak wang.

"Kerjasama dipertahankan oleh pertaruhan bersama: Saya percaya anda akan baik kepada saya, dan anda percaya saya akan baik kepada anda. Kebimbangan terbesar dalam bidang kami ialah orang tidak akan mempercayai mesin. Tetapi kami menunjukkan bahawa mereka melakukannya! " catatan Dr Bahador Bahrami, seorang ahli sains saraf sosial di LMU, dan salah seorang penyelidik kanan dalam kajian ini. "Mereka baik-baik saja dengan membiarkan mesin mati, dan itu adalah perbezaan besar. Bahkan orang tidak melaporkan banyak rasa bersalah ketika melakukannya, ”tambahnya.

AI yang berat sebelah dan tidak beretika telah membuat banyak tajuk utama - dari kegagalan ujian 2020 di United Kingdom hingga sistem keadilan - tetapi penyelidikan baru ini memunculkan perhatian baru. Industri dan perundangan berusaha untuk memastikan bahawa kecerdasan buatan adalah baik. Tetapi kebajikan boleh menjadi bumerang. Sekiranya orang berfikir bahawa AI diprogramkan untuk bersikap baik terhadap mereka, mereka akan cenderung untuk bekerjasama. Sebilangan kemalangan yang melibatkan kenderaan memandu sendiri mungkin sudah menunjukkan contoh kehidupan sebenar: pemandu mengenali kenderaan autonomi di jalan raya dan mengharapkan ia memberi jalan keluar. Sementara itu, kenderaan yang memandu sendiri mengharapkan adanya kompromi yang normal antara pemandu. ”

Eksploitasi algoritma mempunyai kesan yang lebih jauh. "Sekiranya manusia enggan membiarkan kereta memandu sendiri yang sopan bergabung dari jalan tepi jalan, perlukah kereta memandu sendiri kurang sopan dan lebih agresif agar berguna?

AI yang baik hati dan boleh dipercayai adalah kata kunci yang disukai semua orang. Tetapi memperbaiki AI bukanlah keseluruhan cerita. Sekiranya kita menyedari bahawa robot di hadapan kita akan bekerjasama tidak kira apa, kita akan menggunakannya untuk kepentingan diri kita sendiri.

Kompromi adalah minyak yang menjadikan masyarakat berfungsi. Bagi kita masing-masing, ia kelihatan seperti tindakan kecil untuk kepentingan diri sendiri. Bagi masyarakat secara keseluruhan, ia boleh membawa kesan yang lebih besar. Sekiranya tidak ada yang membiarkan Autonomi kereta bergabung dengan lalu lintas, mereka akan membuat kesesakan lalu lintas mereka sendiri di sisi, dan tidak menjadikan pengangkutan lebih mudah.