Manusia Siap Memanfaatkan AI yang Baik Hati

Pembaruan: 8 Juni 2021
Manusia Siap Memanfaatkan AI yang Baik Hati

Manusia berharap bahwa AI itu baik dan dapat dipercaya. Sebuah studi baru mengungkapkan bahwa pada saat yang sama manusia tidak mau bekerja sama dan berkompromi dengan mesin. Mereka bahkan mengeksploitasinya.

Bayangkan diri Anda mengemudi di jalan sempit dalam waktu dekat ketika tiba-tiba mobil lain muncul dari tikungan di depan. Ini adalah mobil self-driving tanpa penumpang di dalamnya. Apakah Anda akan mendorong dan menegaskan hak jalan Anda, atau memberi jalan untuk membiarkannya berlalu? Saat ini, kebanyakan dari kita berperilaku baik dalam situasi seperti itu yang melibatkan manusia lain. Akankah kita menunjukkan kebaikan yang sama terhadap kendaraan otonom?

Menggunakan metode dari teori permainan perilaku, tim peneliti internasional di LMU Munich dan Universitas London telah melakukan studi online skala besar untuk melihat apakah orang akan berperilaku kooperatif dengan sistem kecerdasan buatan (AI) seperti yang mereka lakukan dengan sesama manusia.

Kerjasama menyatukan masyarakat. Seringkali kita harus berkompromi dengan orang lain dan menerima risiko bahwa mereka mengecewakan kita. Lalu lintas adalah contoh yang baik. Kita kehilangan sedikit waktu ketika kita membiarkan orang lain lewat di depan kita dan marah ketika orang lain gagal membalas kebaikan kita. Apakah kita akan melakukan hal yang sama dengan mesin?

Orang-orang memiliki tingkat kepercayaan yang sama terhadap AI sebagai manusia: kebanyakan berharap untuk bertemu seseorang yang siap bekerja sama. Perbedaan datang setelahnya. Orang-orang kurang siap untuk membalas dengan AI, dan sebaliknya, mengeksploitasi kebaikannya untuk keuntungan mereka sendiri. Kembali ke contoh lalu lintas, seorang pengemudi manusia akan memberi jalan kepada manusia lain tetapi tidak untuk mobil yang mengemudi sendiri. Studi ini mengidentifikasi keengganan untuk berkompromi dengan mesin sebagai tantangan baru bagi masa depan interaksi manusia-AI.

“Kami menempatkan orang pada posisi seseorang yang berinteraksi dengan agen buatan untuk pertama kalinya, karena itu bisa terjadi di jalan,” jelas Jurgis Karpus, PhD, ahli teori permainan perilaku dan filsuf di LMU Munich dan penulis pertama pembelajaran. “Kami memodelkan berbagai jenis pertemuan sosial dan menemukan pola yang konsisten. Orang-orang mengharapkan agen buatan untuk bekerja sama seperti sesama manusia. Namun, mereka tidak membalas kebaikan mereka dan mengeksploitasi AI lebih dari manusia.”

Dengan perspektif dari teori permainan, ilmu kognitif, dan filsafat, para peneliti menemukan bahwa 'eksploitasi algoritma' adalah fenomena yang kuat. Mereka mereplikasi temuan mereka di sembilan percobaan dengan hampir 2,000 peserta manusia. Setiap eksperimen meneliti berbagai jenis interaksi sosial dan memungkinkan manusia untuk memutuskan apakah akan berkompromi dan bekerja sama atau bertindak egois. Harapan para pemain lain juga diukur. Dalam permainan terkenal, Dilema Tahanan, orang harus percaya bahwa karakter lain tidak akan mengecewakan mereka. Mereka mengambil risiko dengan manusia dan AI, tetapi mengkhianati kepercayaan AI lebih sering, untuk mendapatkan lebih banyak uang.

“Kerja sama ditopang oleh taruhan bersama: Saya percaya Anda akan baik kepada saya, dan Anda percaya saya akan baik kepada Anda. Kekhawatiran terbesar di bidang kami adalah bahwa orang tidak akan mempercayai mesin. Tapi kami menunjukkan bahwa mereka melakukannya!” catat Dr Bahador Bahrami, ahli saraf sosial di LMU, dan salah satu peneliti senior dalam studi tersebut. “Mereka baik-baik saja dengan membiarkan mesin turun, dan itu adalah perbedaan besar. Orang-orang bahkan tidak melaporkan banyak rasa bersalah ketika mereka melakukannya, ”tambahnya.

AI yang bias dan tidak etis telah menjadi berita utama—mulai dari kegagalan ujian 2020 di Inggris Raya hingga sistem peradilan—tetapi penelitian baru ini memunculkan peringatan baru. Industri dan legislator berusaha untuk memastikan bahwa kecerdasan buatan itu baik hati. Tapi kebajikan bisa menjadi bumerang. Jika orang berpikir bahwa AI diprogram untuk berbaik hati kepada mereka, mereka tidak akan tergoda untuk bekerja sama. Beberapa kecelakaan yang melibatkan mobil self-driving mungkin sudah menunjukkan contoh kehidupan nyata: pengemudi mengenali kendaraan otonom di jalan dan mengharapkannya untuk menyerah. Sementara itu, kendaraan self-driving mengharapkan kompromi normal antara pengemudi untuk bertahan.”

Eksploitasi algoritma memiliki konsekuensi lebih lanjut. “Jika manusia enggan membiarkan mobil self-driving yang sopan bergabung dari sisi jalan, apakah mobil self-driving harus kurang sopan dan lebih agresif agar bermanfaat?

AI yang baik dan dapat dipercaya adalah kata kunci yang disukai semua orang. Tetapi memperbaiki AI bukanlah keseluruhan cerita. Jika kita menyadari bahwa robot di depan kita akan bekerja sama, apapun yang terjadi, kita akan menggunakannya untuk kepentingan diri kita sendiri.

Kompromi adalah minyak yang membuat masyarakat bekerja. Bagi kita masing-masing, itu hanya terlihat seperti tindakan kecil untuk kepentingan pribadi. Bagi masyarakat secara keseluruhan, itu bisa memiliki dampak yang jauh lebih besar. Jika tidak ada yang mengizinkan otonom mobil bergabung dengan lalu lintas, mereka akan membuat kemacetan lalu lintas mereka sendiri di samping, dan tidak membuat transportasi lebih mudah.