בני אדם מוכנים לנצל את AI המיטיב

עדכון: 8 ביוני 2021
בני אדם מוכנים לנצל את AI המיטיב

בני אדם מצפים כי AI הוא מיטיב ואמין. מחקר חדש מגלה כי במקביל בני אדם אינם מוכנים לשתף פעולה ולהתפשר עם מכונות. הם אפילו מנצלים אותם.

דמיין את עצמך נוהג בכביש צר בעתיד הקרוב כשלפתע מכונית אחרת מגיחה מכיוון קדימה. זו מכונית בנהיגה עצמית ללא נוסעים בפנים. האם תדחוף קדימה ותטען את זכותך, או שתפנה מקום לתת לה לעבור? נכון לעכשיו, רובנו מתנהגים בחביבות במצבים כאלה הקשורים לבני אדם אחרים. האם נגלה את אותה חסד כלפי כלי רכב אוטונומיים?

בעזרת שיטות מתורת המשחקים ההתנהגותיים, צוות בינלאומי של חוקרים ב- LMU מינכן ואוניברסיטת לונדון ערכו מחקרים מקוונים רחבים כדי לראות אם אנשים יתנהגו בשיתוף פעולה עם מערכות בינה מלאכותית (AI) כפי שהם נוהגים עם בני אדם אחרים.

שיתוף פעולה מקיים חברה ביחד. לעתים קרובות זה מחייב אותנו להתפשר עם אחרים ולקבל את הסיכון שהם יאכזבו אותנו. תנועה היא דוגמה טובה. אנחנו מאבדים קצת זמן כשאנחנו נותנים לאנשים אחרים לעבור לפנינו ונזעמים כשאחרים לא מצליחים להשיב לנו את החסד. האם נעשה את אותו הדבר עם מכונות?

לאנשים יש אותה מידה של אמון כלפי AI כמו אנושיים: רובם מצפים לפגוש מישהו שמוכן לשתף פעולה. ההבדל מגיע לאחר מכן. אנשים מוכנים הרבה פחות להשיב עם AI, ובמקום זאת, לנצל את מיטיבם לטובתם. אם נחזור לדוגמא התעבורתית, נהג אנושי יפנה את מקומו לאדם אחר אך לא למכונית שנוהגת בעצמה. המחקר מזהה את חוסר הרצון הזה להתפשר עם מכונות כאתגר חדש לעתיד האינטראקציות בין אדם לבינה.

"אנחנו מכניסים אנשים לנעליו של מישהו שמתקשר עם גורם מלאכותי בפעם הראשונה, מכיוון שזה יכול לקרות בדרכים", מסביר יורגיס קרפוס, דוקטורט, תיאורטיקן משחק התנהגותי ופילוסוף ב- LMU מינכן והסופר הראשון של המחקר. "דגמנו סוגים שונים של מפגשים חברתיים ומצאנו דפוס עקבי. אנשים ציפו שסוכנים מלאכותיים יהיו שיתופיים כמו בני אדם אחרים. עם זאת, הם לא השיבו את מיטב ליבם וניצלו את ה- AI יותר מאשר בני האדם. "

עם נקודות מבט מתורת המשחקים, המדע הקוגניטיבי והפילוסופיה, החוקרים גילו ש"ניצול אלגוריתמים "הוא תופעה חזקה. הם שכפלו את ממצאיהם על פני תשעה ניסויים עם כמעט 2,000 משתתפים אנושיים. כל ניסוי בוחן סוגים שונים של אינטראקציות חברתיות ומאפשר לאדם להחליט אם להתפשר ולשתף פעולה או לפעול באנוכיות. הציפיות של השחקנים האחרים נמדדו גם כן. במשחק ידוע, דילמת האסיר, אנשים חייבים לסמוך על כך שהדמויות האחרות לא יאכזבו אותם. הם אימצו את הסיכון בקרב בני אדם ובינה מלאכותית כאחד, אך הסגירו את אמונם של ה- AI בתדירות גבוהה יותר, כדי להרוויח יותר כסף.

"שיתוף הפעולה מתקיים על ידי הימור הדדי: אני סומך על שתהיה חביב אלי, ואתה סומך על שאהיה חביב כלפיך. הדאגה הגדולה ביותר בתחום שלנו היא שאנשים לא יסמכו על מכונות. אבל אנחנו מראים שהם כן! " מציין ד"ר בהאדור בהרמי, מדעי המוח החברתיים ב- LMU, ואחד החוקרים הבכירים במחקר. "הם בסדר עם לאכזב את המכונה, לעומת זאת, וזה הבדל גדול. אנשים אפילו לא מדווחים על אשמה רבה כאשר הם עושים זאת, "הוא מוסיף.

AI מוטה ולא מוסרי עלה לכותרות רבות - החל מפיאסקו בחינות 2020 בבריטניה וכלה במערכות משפט - אך מחקר חדש זה מעלה אזהרה חדשה. התעשייה והמחוקקים שואפים להבטיח שהבינה המלאכותית תהיה מיטיבה. אך מיטיב לב עשוי להכות מחדש. אם אנשים חושבים ש- AI מתוכנת להיות מיטיב כלפיהם, הם פחות יתפתו לשתף פעולה. חלק מהתאונות עם מכוניות בנהיגה עצמית עשויות כבר להראות דוגמאות אמיתיות: נהגים מזהים רכב אוטונומי על הכביש ומצפים שהוא יפנה. הרכב הנהיגה העצמית בינתיים מצפה לפשרות רגילות בין נהגים להחזיק ”.

לניצול האלגוריתמים השלכות נוספות בהמשך הדרך. "אם בני אדם אינם ששים לתת למכונית מנומסת בנהיגה עצמית להצטרף מכביש צדדי, האם המכונית הנוהגת בעצמה צריכה להיות פחות מנומסת ותוקפנית יותר כדי להיות שימושית?

AI מיטיב ואמין הוא מילת מפתח שכולם מתרגשים ממנה. אך תיקון ה- AI אינו כל הסיפור. אם נבין שהרובוט שלפנינו ישתף פעולה ולא משנה מה, נשתמש בו לצורך האינטרס האנוכי שלנו.

פשרות הן השמן שגורם לחברה לעבוד. עבור כל אחד מאיתנו זה נראה רק כמו מעשה קטן של אינטרס עצמי. עבור החברה כולה, זה יכול להיות השלכות הרבה יותר גדולות. אם אף אחד לא נותן אוטונומי מכוניות מצטרפות לתנועה, הן ייצרו פקקים משלהן בצד ולא יקלו על התחבורה.