Con người đã sẵn sàng để tận dụng lợi thế của AI nhân từ

Cập nhật: ngày 8 tháng 2021 năm XNUMX
Con người đã sẵn sàng để tận dụng lợi thế của AI nhân từ

Con người mong đợi rằng AI nhân từ và đáng tin cậy. Một nghiên cứu mới cho thấy rằng đồng thời con người không muốn hợp tác và thỏa hiệp với máy móc. Họ thậm chí còn khai thác chúng.

Hãy tưởng tượng bạn đang lái xe trên một con đường hẹp trong tương lai gần thì đột nhiên có một chiếc xe khác lao ra từ khúc cua phía trước. Đây là một chiếc xe tự lái không có hành khách bên trong. Bạn sẽ thúc đẩy và khẳng định quyền được đi của mình hay nhường đường cho nó đi qua? Hiện tại, hầu hết chúng ta đều cư xử tử tế trong những tình huống liên quan đến người khác. Liệu chúng ta có thể hiện lòng tốt đó đối với xe tự hành không?

Sử dụng các phương pháp từ lý thuyết trò chơi hành vi, một nhóm các nhà nghiên cứu quốc tế tại LMU Munich và Đại học London đã tiến hành các nghiên cứu trực tuyến quy mô lớn để xem liệu mọi người có hành xử hợp tác với các hệ thống trí tuệ nhân tạo (AI) như cách họ làm với đồng loại hay không.

Hợp tác tổ chức một xã hội với nhau. Nó thường đòi hỏi chúng ta phải thỏa hiệp với những người khác và chấp nhận rủi ro mà họ làm chúng ta thất vọng. Giao thông là một ví dụ điển hình. Chúng ta hơi mất thời gian khi để người khác lướt qua trước mặt mình và cảm thấy tức giận khi người khác không đáp lại lòng tốt của chúng ta. Chúng ta sẽ làm điều tương tự với máy móc?

Mọi người có cùng mức độ tin tưởng đối với AI như con người: hầu hết đều mong đợi gặp được người sẵn sàng hợp tác. Sự khác biệt đến sau đó. Mọi người ít sẵn sàng đáp lại hơn với AI, và thay vào đó, khai thác lòng nhân từ của nó để phục vụ lợi ích của họ. Trở lại với ví dụ về giao thông, một người lái xe sẽ nhường đường cho người khác nhưng không nhường đường cho xe tự lái. Nghiên cứu xác định việc không muốn thỏa hiệp với máy móc là một thách thức mới đối với tương lai của tương tác giữa con người và AI.

“Chúng tôi đặt mọi người vào vị trí của một người lần đầu tiên tương tác với một tác nhân nhân tạo, vì nó có thể xảy ra trên đường,” Jurgis Karpus, Tiến sĩ, một nhà lý thuyết trò chơi hành vi và một triết gia tại LMU Munich và là tác giả đầu tiên của nghiên cứu. “Chúng tôi đã lập mô hình các kiểu gặp gỡ xã hội khác nhau và tìm ra một mô hình nhất quán. Mọi người mong đợi các tác nhân nhân tạo cũng hợp tác như đồng loại. Tuy nhiên, họ đã không đáp lại lòng nhân từ nhiều như vậy và khai thác AI nhiều hơn con người ”.

Với quan điểm từ lý thuyết trò chơi, khoa học nhận thức và triết học, các nhà nghiên cứu nhận thấy rằng 'khai thác thuật toán' là một hiện tượng mạnh mẽ. Họ đã sao chép những phát hiện của mình qua chín thí nghiệm với gần 2,000 người tham gia. Mỗi thử nghiệm kiểm tra các loại tương tác xã hội khác nhau và cho phép con người quyết định nên thỏa hiệp và hợp tác hay hành động ích kỷ. Kỳ vọng của những người chơi khác cũng đã được đo lường. Trong một trò chơi nổi tiếng, Tình huống khó xử của người tù, mọi người phải tin tưởng rằng các nhân vật khác sẽ không làm họ thất vọng. Họ chấp nhận rủi ro với con người cũng như AI, nhưng lại phản bội lòng tin của AI thường xuyên hơn để kiếm được nhiều tiền hơn.

“Sự hợp tác được duy trì bởi sự đánh cược lẫn nhau: Tôi tin rằng bạn sẽ tốt với tôi, và bạn tin tưởng tôi sẽ tốt với bạn. Lo lắng lớn nhất trong lĩnh vực của chúng tôi là mọi người sẽ không tin tưởng vào máy móc. Nhưng chúng tôi cho thấy rằng họ làm được! ” Tiến sĩ Bahador Bahrami, một nhà khoa học thần kinh xã hội tại LMU, và là một trong những nhà nghiên cứu cấp cao trong nghiên cứu ghi nhận. “Mặc dù vậy, họ vẫn ổn khi để máy hoạt động, và đó là một sự khác biệt lớn. Mọi người thậm chí không báo cáo nhiều tội lỗi khi họ làm vậy, ”ông nói thêm.

AI thành kiến ​​và phi đạo đức đã xuất hiện nhiều tiêu đề — từ thất bại trong kỳ thi năm 2020 ở Vương quốc Anh cho đến các hệ thống tư pháp — nhưng nghiên cứu mới này đưa ra một cảnh báo mới. Ngành công nghiệp và các nhà lập pháp cố gắng đảm bảo rằng trí tuệ nhân tạo là nhân từ. Nhưng lòng nhân từ có thể phản tác dụng. Nếu mọi người nghĩ rằng AI được lập trình để nhân từ đối với họ, họ sẽ ít bị cám dỗ hơn để hợp tác. Một số vụ tai nạn liên quan đến xe ô tô tự lái có thể đã cho thấy những ví dụ thực tế: người lái xe nhận ra một chiếc xe tự lái trên đường và mong nó nhường đường. Trong khi đó, phương tiện tự lái mong đợi sự thỏa hiệp thông thường giữa các tài xế sẽ được duy trì ”.

Khai thác thuật toán có những hậu quả sâu hơn nữa. “Nếu con người miễn cưỡng để một chiếc xe tự lái lịch sự tham gia từ một bên đường, thì xe tự lái có nên bớt lịch sự hơn và hung hãn hơn để có ích không?

AI nhân từ và đáng tin cậy là một từ thông dụng mà mọi người đều hào hứng. Nhưng sửa chữa AI không phải là toàn bộ câu chuyện. Nếu chúng ta nhận ra rằng con robot trước mặt chúng ta sẽ hợp tác bất kể điều gì, chúng ta sẽ sử dụng nó vì lợi ích ích kỷ của mình.

Thỏa hiệp là dầu làm cho xã hội hoạt động. Đối với mỗi chúng ta, đó chỉ giống như một hành động tư lợi nhỏ. Đối với toàn xã hội, nó có thể gây ra những hậu quả lớn hơn nhiều. Nếu không ai cho phép tự trị ô tô tham gia giao thông sẽ tự tạo ra ùn tắc giao thông bên hông, không giúp phương tiện đi lại dễ dàng hơn.