İnsanlar Hayırsever Yapay Zekadan Yararlanmaya Hazır

Güncelleme: 8 Haziran 2021
İnsanlar Hayırsever Yapay Zekadan Yararlanmaya Hazır

İnsanlar yapay zekanın yardımsever ve güvenilir olmasını bekliyor. Yeni bir çalışma, insanların aynı zamanda makinelerle işbirliği yapma ve uzlaşma konusunda isteksiz olduklarını ortaya koyuyor. Hatta onları istismar ediyorlar.

Yakın gelecekte dar bir yolda giderken aniden önünüzdeki virajdan başka bir arabanın çıktığını hayal edin. İçinde yolcu bulunmayan, sürücüsüz bir otomobil. İleriye doğru ilerleyip yol hakkınızı mı savunacaksınız yoksa geçmesine izin mi vereceksiniz? Şu anda çoğumuz diğer insanların dahil olduğu bu tür durumlarda nazik davranırız. Aynı nezaketi otonom araçlara da gösterecek miyiz?

LMU Münih ve Londra Üniversitesi'ndeki uluslararası bir araştırmacı ekibi, davranışsal oyun teorisinin yöntemlerini kullanarak, insanların yapay zeka (AI) sistemleriyle de diğer insanlarla olduğu gibi işbirliği içinde davranıp davranmayacaklarını görmek için büyük ölçekli çevrimiçi çalışmalar yürüttü.

İşbirliği bir toplumu bir arada tutar. Çoğu zaman başkalarıyla uzlaşmamızı ve onların bizi hayal kırıklığına uğratma riskini kabul etmemizi gerektirir. Trafik buna iyi bir örnektir. Başkalarının önümüzden geçmesine izin verdiğimizde biraz zaman kaybederiz ve başkaları bizim iyiliğimize karşılık vermediğinde öfkeleniriz. Aynısını makineler için mi yapacağız?

İnsanlar yapay zekaya karşı insanlarla aynı düzeyde güvene sahiptir: çoğu, işbirliği yapmaya hazır biriyle tanışmayı bekler. Fark daha sonra ortaya çıkıyor. İnsanlar yapay zekaya karşılık vermeye çok daha az hazırlar ve bunun yerine onun yardımseverliğini kendi çıkarları için kullanıyorlar. Trafik örneğine dönecek olursak, bir insan sürücü başka bir insana yol verir ama sürücüsüz bir arabaya yol vermez. Çalışma, makinelerle uzlaşma konusundaki bu isteksizliği, insan-yapay zeka etkileşiminin geleceğine yönelik yeni bir zorluk olarak tanımlıyor.

LMU Münih'te davranışsal oyun teorisyeni ve filozof ve bu kitabın ilk yazarı PhD Jurgis Karpus, "İnsanları, yolda olabileceği gibi, yapay bir ajanla ilk kez etkileşime giren birinin yerine koyuyoruz" diye açıklıyor. çalışma. "Farklı türden sosyal karşılaşmaları modelledik ve tutarlı bir model bulduk. İnsanlar yapay ajanların diğer insanlar kadar işbirlikçi olmasını bekliyordu. Ancak iyiliklerine o kadar da karşılık vermediler ve yapay zekayı insanlardan daha fazla sömürdüler.”

Oyun teorisi, bilişsel bilim ve felsefeden gelen bakış açılarıyla araştırmacılar 'algoritma istismarının' sağlam bir olgu olduğunu buldular. Bulgularını yaklaşık 2,000 insan katılımcıyla yapılan dokuz deneyde tekrarladılar. Her deney farklı türden sosyal etkileşimleri inceliyor ve insanın uzlaşma ve işbirliği mi yoksa bencilce mi hareket edeceğine karar vermesine olanak tanıyor. Diğer oyuncuların beklentileri de ölçüldü. Tanınmış bir oyun olan Tutukluların İkilemi'nde insanlar diğer karakterlerin onları hayal kırıklığına uğratmayacağına güvenmelidir. Riski hem insanlarla hem de yapay zekayla kucakladılar, ancak daha fazla para kazanmak için yapay zekanın güvenine çok daha sık ihanet ettiler.

“İşbirliği karşılıklı bir iddiayla sürdürülür: Bana karşı nazik olacağına inanıyorum ve benim de sana karşı nazik olacağıma güveniyorsun. Alanımızdaki en büyük endişe insanların makinelere güvenmemesidir. Ama biz onların bunu yaptığını gösteriyoruz!” LMU'da sosyal sinir bilimci ve araştırmadaki kıdemli araştırmacılardan biri olan Dr Bahador Bahrami'ye dikkat çekiyor. “Ancak makineyi yarı yolda bırakmakta sorun yok ve bu büyük bir fark. Hatta insanlar bunu yaptıklarında çok fazla suçluluk duygusu bildirmiyorlar” diye ekliyor.

Önyargılı ve etik olmayan yapay zeka, Birleşik Krallık'taki 2020 sınav fiyaskosundan adalet sistemlerine kadar pek çok manşete çıktı, ancak bu yeni araştırma yeni bir uyarıyı gündeme getiriyor. Endüstri ve yasa koyucular yapay zekanın yardımsever olmasını sağlamak için çabalıyor. Ancak iyilik geri tepebilir. İnsanlar yapay zekanın kendilerine karşı yardımsever olacak şekilde programlandığını düşünürlerse işbirliği yapma konusunda daha az istekli olacaklardır. Sürücüsüz araçların karıştığı kazalardan bazıları zaten gerçek hayattan örnekler gösteriyor olabilir: sürücüler yolda otonom bir aracı tanıyor ve onun yol vermesini bekliyor. Bu arada sürücüsüz araç, sürücüler arasında normal uzlaşmaların sağlanmasını bekliyor."

Algoritma istismarının ileride başka sonuçları da olur. "İnsanlar kibar bir sürücüsüz arabanın yan yoldan katılmasına izin vermiyorsa, sürücüsüz arabanın faydalı olabilmesi için daha az kibar ve daha agresif olması mı gerekiyor?

Yardımsever ve güvenilir yapay zeka, herkesin heyecan duyduğu bir terimdir. Ancak yapay zekayı düzeltmek hikayenin tamamı değil. Karşımızdaki robotun ne olursa olsun işbirlikçi olacağının farkına varırsak onu bencil çıkarlarımız için kullanırız.

Uzlaşmalar toplumun çalışmasını sağlayan petroldür. Her birimiz için bu sadece küçük bir kişisel çıkar eylemi gibi görünüyor. Bir bütün olarak toplum için bunun çok daha büyük yansımaları olabilir. Eğer kimse izin vermezse özerk Arabalar trafiğe katılırsa yan tarafta kendi trafik sıkışıklıklarını yaratacak, ulaşımı kolaylaştırmayacaktır.