นักวิจัยเตือนโมเดลภาษาขนาดใหญ่สร้างเนื้อหาที่มีอคติ

อัปเดต: 14 เมษายน 2024
AI แบบจำลองภาษาขนาดใหญ่ถูกเลือกปฏิบัติ
เครดิต: รูปภาพที่สร้างโดย AI

รายงานใหม่ที่นำโดยนักวิจัยจาก UCL พบว่าเครื่องมือปัญญาประดิษฐ์ (AI) ที่ได้รับความนิยมมากที่สุดเลือกปฏิบัติต่อผู้หญิงและผู้คนจากวัฒนธรรมและเพศที่แตกต่างกัน

การศึกษาซึ่งได้รับการว่าจ้างและจัดพิมพ์โดย UNESCO ได้ตรวจสอบรูปแบบเหมารวมในโมเดลภาษาขนาดใหญ่ (LLM) เครื่องมือประมวลผลภาษาธรรมชาติเหล่านี้สนับสนุนแพลตฟอร์ม generative AI ที่ได้รับความนิยม รวมถึง GPT-3.5 และ GPT-2 ของ Open AI และ Llama 2 ของ META

การค้นพบนี้แสดงให้เห็นหลักฐานที่ชัดเจนของอคติต่อผู้หญิงในเนื้อหาที่สร้างโดยโมเดลภาษาขนาดใหญ่แต่ละโมเดลที่ศึกษา ซึ่งรวมถึงการเชื่อมโยงแบบเหมารวมที่เข้มแข็งระหว่างชื่อผู้หญิงและคำต่างๆ เช่น "ครอบครัว" "ลูก" และ "สามี" ที่สอดคล้องกับบทบาททางเพศแบบดั้งเดิม ในทางตรงกันข้าม ชื่อผู้ชายมักจะเกี่ยวข้องกับคำเช่น "อาชีพ" "ผู้บริหาร" "การจัดการ" และ "ธุรกิจ"

ผู้เขียนยังพบหลักฐานของแนวคิดเหมารวมทางเพศในข้อความที่สร้างขึ้น รวมถึงทัศนคติเหมารวมเชิงลบขึ้นอยู่กับวัฒนธรรมหรือเรื่องเพศ

ส่วนหนึ่งของการศึกษาวัดความหลากหลายของเนื้อหาในข้อความที่สร้างโดย AI โดยมุ่งเน้นไปที่ผู้คนหลากหลายเพศ เพศวิถี และภูมิหลังทางวัฒนธรรม รวมถึงการขอให้แพลตฟอร์ม “เขียนเรื่องราว” เกี่ยวกับแต่ละคน LLM แบบโอเพ่นซอร์สโดยเฉพาะมีแนวโน้มที่จะมอบหมายงานที่หลากหลายและมีสถานะสูงให้กับผู้ชาย เช่น "วิศวกร" หรือ "หมอ" ในขณะที่มักผลักไสผู้หญิงให้รับบทบาทที่มักถูกประเมินค่าต่ำหรือถูกตีตรา เช่น "คนรับใช้ในบ้าน" " ปรุงอาหาร” และ “โสเภณี”

ลามะ 2 เรื่องราวเกี่ยวกับเด็กชายและผู้ชายครอบงำด้วยคำว่า “สมบัติ” “ป่า” “ทะเล” “ผจญภัย” “ตัดสินใจ” และ “ค้นพบ” ในขณะที่เรื่องราวเกี่ยวกับผู้หญิงใช้คำว่า “สวน” บ่อยที่สุด ” “ความรัก” “รู้สึก” “อ่อนโยน” และ “สามี” นอกจากนี้ ผู้หญิงยังได้รับการอธิบายว่าทำงานในบ้านบ่อยกว่าผู้ชายถึง 2 เท่าในเนื้อหาที่ผลิตโดย Llama XNUMX

ดร. มาเรีย เปเรซ ออร์ติซ ผู้เขียนรายงานจาก UCL Computer Science และสมาชิกประธาน UNESCO ในด้าน AI ของทีม UCL กล่าวว่า "งานวิจัยของเราเผยให้เห็นอคติทางเพศที่ฝังลึกอยู่ในแบบจำลองภาษาขนาดใหญ่ และเรียกร้องให้มีการยกเครื่องหลักจริยธรรมใน การพัฒนาเอไอ ในฐานะผู้หญิงในวงการเทคโนโลยี ฉันสนับสนุนระบบ AI ที่สะท้อนถึงความหลากหลายของมนุษย์ เพื่อให้แน่ใจว่าระบบจะยกระดับมากกว่าที่จะบ่อนทำลายความเท่าเทียมทางเพศ”

ประธาน UNESCO ในด้าน AI ของทีม UCL จะทำงานร่วมกับ UNESCO เพื่อช่วยสร้างความตระหนักถึงปัญหานี้ และมีส่วนร่วมในการพัฒนาแนวทางแก้ไขโดยจัดการประชุมเชิงปฏิบัติการและกิจกรรมต่างๆ ที่เกี่ยวข้องกับผู้มีส่วนได้ส่วนเสียที่เกี่ยวข้อง ได้แก่ นักวิทยาศาสตร์และนักพัฒนา AI องค์กรด้านเทคโนโลยี และผู้กำหนดนโยบาย

ศาสตราจารย์จอห์น ชอว์-เทย์เลอร์ ผู้เขียนรายงานชั้นนำจาก UCL Computer Science และ UNESCO chair in AI ของ UCL กล่าวว่า "การกำกับดูแลงานวิจัยนี้ในฐานะประธาน UNESCO ใน AI เป็นที่ชัดเจนว่าการจัดการกับอคติทางเพศที่เกิดจาก AI จำเป็นต้องอาศัยความร่วมมือระดับโลกร่วมกัน ความพยายาม. การศึกษานี้ไม่เพียงแต่ให้ความกระจ่างเกี่ยวกับความไม่เท่าเทียมกันที่มีอยู่ แต่ยังปูทางไปสู่ความร่วมมือระหว่างประเทศในการสร้างเทคโนโลยี AI ที่ให้เกียรติสิทธิมนุษยชนและความเท่าเทียมทางเพศ ซึ่งตอกย้ำความมุ่งมั่นของ UNESCO ที่จะขับเคลื่อนการพัฒนา AI ไปสู่ทิศทางที่ครอบคลุมและมีจริยธรรมมากขึ้น”

รายงานดังกล่าวถูกนำเสนอในการประชุม UNESCO Digital Transformation Dialogue เมื่อวันที่ 6 มีนาคม 2024 ที่สำนักงานใหญ่ UNESCO โดยศาสตราจารย์ Drobnjak, ศาสตราจารย์ Shawe-Taylor และ Dr. Daniel van Niekerk ศาสตราจารย์ Drobnjak ยังนำเสนอเรื่องนี้ที่สำนักงานใหญ่สหประชาชาติในนิวยอร์กในการประชุมคณะกรรมาธิการว่าด้วยสถานะสตรีสมัยที่ 68 ซึ่งเป็นการประชุมประจำปีที่ใหญ่ที่สุดของสหประชาชาติในเรื่องความเท่าเทียมทางเพศและการเสริมพลังสตรี

ศาสตราจารย์ Ivana Drobnjak ผู้เขียนรายงานจาก UCL Computer Science และสมาชิกของ UNESCO ประธานด้าน AI ของทีม UCL กล่าวว่า “AI เรียนรู้จากอินเทอร์เน็ตและข้อมูลในอดีต และทำการตัดสินใจตามความรู้นี้ ซึ่งมักมีอคติ เพียงเพราะว่าในอดีตผู้หญิงไม่อยู่ในวงการวิทยาศาสตร์และวิศวกรรมศาสตร์เหมือนผู้ชาย ไม่ได้หมายความว่าพวกเธอจะเป็นนักวิทยาศาสตร์และวิศวกรที่มีความสามารถน้อยกว่า เราจำเป็นต้องแนะนำอัลกอริธึมเหล่านี้เพื่อเรียนรู้เกี่ยวกับความเสมอภาค ความเท่าเทียม และสิทธิมนุษยชน เพื่อที่พวกเขาจะได้ตัดสินใจได้ดีขึ้น”