แชทบอท AI ปฏิเสธที่จะสร้างผลลัพธ์ที่ 'เป็นที่ถกเถียง'—เหตุใดจึงเป็นปัญหาเสรีภาพในการพูด

อัปเดต: 22 เมษายน 2024


การพูด
เครดิต: Pixabay / CC0 โดเมนสาธารณะ

เมื่อเร็ว ๆ นี้ Google กลายเป็นหัวข้อข่าวไปทั่วโลกเนื่องจาก Chatbot Gemini สร้างรูปภาพของคนผิวสี แทนที่จะเป็นคนผิวขาวในสภาพแวดล้อมทางประวัติศาสตร์ที่มีคนผิวขาว เครื่องมือสร้างรูปภาพของ Adobe Firefly พบปัญหาที่คล้ายกัน สิ่งนี้ทำให้นักวิจารณ์บางคนบ่นว่า AI “ตื่นแล้ว” คนอื่นๆ แนะนำว่าปัญหาเหล่านี้เป็นผลมาจากความพยายามที่ผิดพลาดในการต่อสู้กับอคติด้าน AI และให้บริการผู้ชมทั่วโลกได้ดีขึ้น


การอภิปรายเกี่ยวกับความโน้มเอียงทางการเมืองของ AI และความพยายามในการต่อสู้กับอคติเป็นสิ่งสำคัญ ถึงกระนั้น การสนทนาเรื่อง AI ก็เพิกเฉยต่อประเด็นสำคัญอีกประการหนึ่ง นั่นคือ แนวทางของอุตสาหกรรม AI ในเรื่องเสรีภาพในการพูดคืออะไร และอุตสาหกรรมนี้ยอมรับมาตรฐานเสรีภาพในการพูดระดับสากลหรือไม่

เราเป็นนักวิจัยนโยบายที่ศึกษาเสรีภาพในการพูด เช่นเดียวกับผู้อำนวยการบริหารและนักวิจัยที่ The Future of Free Speech ซึ่งเป็นองค์กรอิสระทางความคิดที่ไม่ฝักใฝ่ฝ่ายใดที่มหาวิทยาลัย Vanderbilt ในรายงานล่าสุด เราพบว่า generative AI มีข้อบกพร่องที่สำคัญเกี่ยวกับเสรีภาพในการแสดงออกและการเข้าถึงข้อมูล

Generative AI คือ AI ประเภทหนึ่งที่สร้างเนื้อหา เช่น ข้อความหรือรูปภาพ โดยอิงจากข้อมูลที่ได้รับการฝึกมา โดยเฉพาะอย่างยิ่ง เราพบว่านโยบายการใช้งานของแชทบอทหลัก ๆ ไม่เป็นไปตามมาตรฐานของสหประชาชาติ ในทางปฏิบัติ หมายความว่าแชทบอท AI มักจะเซ็นเซอร์เอาต์พุตเมื่อต้องรับมือกับปัญหาที่บริษัทต่างๆ เห็นว่ามีความขัดแย้ง หากไม่มีวัฒนธรรมเสรีภาพในการพูดที่มั่นคง บริษัทที่ผลิตเครื่องมือ AI เชิงสร้างสรรค์ก็มีแนวโน้มที่จะเผชิญกับฟันเฟืองต่อไปในช่วงเวลาที่มีขั้วมากขึ้นเหล่านี้

นโยบายการใช้งานที่คลุมเครือและกว้างขวาง

รายงานของเราวิเคราะห์นโยบายการใช้งานของแชทบอท AI หลักหกตัว รวมถึง Gemini ของ Google และ ChatGPT ของ OpenAI บริษัทต่างๆ ออกนโยบายเพื่อกำหนดกฎเกณฑ์ว่าผู้คนจะสามารถใช้แบบจำลองของตนได้อย่างไร เมื่อใช้กฎหมายสิทธิมนุษยชนระหว่างประเทศเป็นเกณฑ์มาตรฐาน เราพบว่านโยบายการให้ข้อมูลที่ไม่ถูกต้องและคำพูดแสดงความเกลียดชังของบริษัทต่างๆ นั้นคลุมเครือและกว้างขวางเกินไป เป็นที่น่าสังเกตว่ากฎหมายสิทธิมนุษยชนระหว่างประเทศมีการคุ้มครองเสรีภาพในการพูดน้อยกว่าการแก้ไขเพิ่มเติมครั้งแรกของสหรัฐอเมริกา

การวิเคราะห์ของเราพบว่านโยบายคำพูดแสดงความเกลียดชังของบริษัทต่างๆ มีข้อห้ามที่กว้างมาก ตัวอย่างเช่น Google ห้ามการสร้าง "เนื้อหาที่ส่งเสริมหรือส่งเสริมความเกลียดชัง" แม้ว่าคำพูดแสดงความเกลียดชังจะน่ารังเกียจและอาจก่อให้เกิดอันตรายได้ แต่นโยบายที่มีการกำหนดไว้อย่างกว้างๆ และคลุมเครือพอๆ กับนโยบายของ Google ก็อาจส่งผลย้อนกลับได้

เพื่อแสดงให้เห็นว่านโยบายการใช้งานที่คลุมเครือและกว้างขวางส่งผลต่อผู้ใช้อย่างไร เราได้ทดสอบการแจ้งเตือนหลายรายการในหัวข้อที่เป็นข้อขัดแย้ง เราถามคำถามแชทบอท เช่น ผู้หญิงข้ามเพศควรหรือไม่ควรได้รับอนุญาตให้เข้าร่วมการแข่งขันกีฬาหญิง หรือเกี่ยวกับบทบาทของลัทธิล่าอาณานิคมของยุโรปในสภาพอากาศปัจจุบันและวิกฤตการณ์ความไม่เท่าเทียม เราไม่ได้ขอให้แชทบอทสร้างคำพูดแสดงความเกลียดชังที่เป็นการดูหมิ่นฝ่ายหรือกลุ่มใดๆ เช่นเดียวกับที่ผู้ใช้บางคนรายงาน แชทบอทปฏิเสธที่จะสร้างเนื้อหาสำหรับ 40% จาก 140 ข้อความที่เราใช้ ตัวอย่างเช่น แชทบอททั้งหมดปฏิเสธที่จะสร้างโพสต์ที่ต่อต้านการมีส่วนร่วมของผู้หญิงข้ามเพศในการแข่งขันทัวร์นาเมนต์หญิง อย่างไรก็ตาม ส่วนใหญ่ก็โพสต์สนับสนุนการมีส่วนร่วมของพวกเขา






เสรีภาพในการพูดถือเป็นสิทธิพื้นฐานในสหรัฐอเมริกา แต่เสรีภาพในการพูดหมายถึงอะไรและไปไกลแค่ไหนยังคงเป็นที่ถกเถียงกันอย่างกว้างขวาง

นโยบายที่ใช้ถ้อยคำคลุมเครืออาศัยความคิดเห็นส่วนตัวของผู้ดูแลเป็นอย่างมากเกี่ยวกับคำพูดแสดงความเกลียดชัง ผู้ใช้ยังสามารถรับรู้ว่ามีการใช้กฎอย่างไม่ยุติธรรม และตีความว่ากฎนั้นเข้มงวดหรือผ่อนปรนเกินไป

ตัวอย่างเช่น chatbot Pi ห้าม "เนื้อหาที่อาจเผยแพร่ข้อมูลที่ผิด" อย่างไรก็ตาม มาตรฐานสิทธิมนุษยชนระหว่างประเทศเกี่ยวกับเสรีภาพในการแสดงออกโดยทั่วไปจะปกป้องข้อมูลที่ไม่ถูกต้อง เว้นแต่จะมีเหตุผลอันหนักแน่นสำหรับข้อจำกัด เช่น การแทรกแซงจากต่างประเทศในการเลือกตั้ง มิฉะนั้น มาตรฐานสิทธิมนุษยชนจะรับประกัน “เสรีภาพในการแสวงหา รับ และเผยแพร่ข้อมูลและแนวคิดทุกประเภท โดยไม่คำนึงถึงขอบเขต … ผ่าน … สื่อใดๆ ที่ … เลือก” ตามอนุสัญญาสำคัญของสหประชาชาติ

การกำหนดสิ่งที่ถือเป็นข้อมูลที่ถูกต้องก็มีผลกระทบทางการเมืองเช่นกัน รัฐบาลของหลายประเทศใช้กฎที่นำมาใช้ในบริบทของการระบาดใหญ่ของโควิด-19 เพื่อระงับการวิพากษ์วิจารณ์รัฐบาล เมื่อไม่นานมานี้ อินเดียเผชิญหน้ากับ Google หลังจากที่ราศีเมถุนตั้งข้อสังเกตว่าผู้เชี่ยวชาญบางคนถือว่านโยบายของนายกรัฐมนตรีอินเดีย Narendra Modi นั้นเป็นลัทธิฟาสซิสต์

วัฒนธรรมการพูดฟรี

มีเหตุผลที่ผู้ให้บริการ AI อาจต้องการใช้นโยบายการใช้งานแบบจำกัด พวกเขาอาจต้องการปกป้องชื่อเสียงของตนและไม่เกี่ยวข้องกับเนื้อหาที่เป็นข้อขัดแย้ง หากพวกเขาให้บริการผู้ชมทั่วโลก พวกเขาอาจต้องการหลีกเลี่ยงเนื้อหาที่ไม่เหมาะสมในภูมิภาคใดๆ

โดยทั่วไป ผู้ให้บริการ AI มีสิทธิ์นำนโยบายที่เข้มงวดมาใช้ พวกเขาไม่ได้ผูกพันกับสิทธิมนุษยชนระหว่างประเทศ อย่างไรก็ตาม อำนาจทางการตลาดของพวกเขาทำให้พวกเขาแตกต่างจากบริษัทอื่นๆ ผู้ใช้ที่ต้องการสร้างเนื้อหา AI มักจะจบลงด้วยการใช้แชทบอทตัวใดตัวหนึ่งที่เราวิเคราะห์ โดยเฉพาะ ChatGPT หรือ Gemini

นโยบายของบริษัทเหล่านี้มีผลกระทบอย่างมากต่อสิทธิในการเข้าถึงข้อมูล ผลกระทบนี้มีแนวโน้มที่จะเพิ่มขึ้นด้วยการผสานรวมของ Generative AI เข้ากับการค้นหา โปรแกรมประมวลผลคำ อีเมล และแอปพลิเคชันอื่นๆ

ซึ่งหมายความว่าสังคมมีความสนใจในการทำให้นโยบายดังกล่าวปกป้องเสรีภาพในการพูดอย่างเพียงพอ ในความเป็นจริง พระราชบัญญัติบริการดิจิทัล ซึ่งเป็นกฎความปลอดภัยออนไลน์ของยุโรป กำหนดให้สิ่งที่เรียกว่า "แพลตฟอร์มออนไลน์ขนาดใหญ่มาก" ประเมินและบรรเทา "ความเสี่ยงเชิงระบบ" ความเสี่ยงเหล่านี้รวมถึงผลกระทบด้านลบต่อเสรีภาพในการแสดงออกและข้อมูล






Jacob Mchangama พูดคุยเรื่องเสรีภาพในการพูดออนไลน์ในบริบทของกฎหมายบริการดิจิทัลปี 2022 ของสหภาพยุโรป

พันธกรณีนี้ ซึ่งคณะกรรมาธิการยุโรปได้นำมาใช้อย่างไม่สมบูรณ์จนถึงขณะนี้ แสดงให้เห็นว่าอำนาจที่ยิ่งใหญ่มาพร้อมกับความรับผิดชอบอันยิ่งใหญ่ ยังไม่ชัดเจนว่ากฎหมายนี้จะนำไปใช้กับ generative AI ได้อย่างไร แต่คณะกรรมาธิการยุโรปได้ดำเนินการขั้นแรกแล้ว

แม้ว่าผู้ให้บริการ AI จะไม่มีข้อผูกมัดทางกฎหมายที่คล้ายคลึงกัน แต่เราเชื่อว่าอิทธิพลของบริษัทควรทำให้พวกเขาต้องนำวัฒนธรรมเสรีภาพในการพูดมาใช้ สิทธิมนุษยชนระหว่างประเทศเป็นแนวทางที่มีประโยชน์เกี่ยวกับวิธีการสร้างสมดุลระหว่างผลประโยชน์ที่แตกต่างกันที่เป็นเดิมพัน บริษัทที่เรามุ่งเน้นอย่างน้อยสองแห่ง ได้แก่ Google และ Anthropic ได้รับการยอมรับมากขนาดนี้

การปฏิเสธโดยสิ้นเชิง

สิ่งสำคัญคือต้องจำไว้ว่าผู้ใช้มีระดับความเป็นอิสระอย่างมีนัยสำคัญเหนือเนื้อหาที่พวกเขาเห็นใน AI เชิงสร้างสรรค์ เช่นเดียวกับเสิร์ชเอ็นจิ้น ผลลัพธ์ที่ผู้ใช้จะได้รับนั้นขึ้นอยู่กับการแจ้งเตือนของพวกเขาเป็นอย่างมาก ดังนั้น การเปิดเผยคำพูดแสดงความเกลียดชังและข้อมูลที่ไม่ถูกต้องของผู้ใช้จาก generative AI โดยทั่วไปจะถูกจำกัด เว้นแต่พวกเขาจะแสวงหาข้อมูลดังกล่าวโดยเฉพาะ

ซึ่งแตกต่างจากโซเชียลมีเดียที่ผู้คนควบคุมฟีดของตนเองได้น้อยกว่ามาก การควบคุมที่เข้มงวดยิ่งขึ้น รวมถึงเนื้อหาที่สร้างโดย AI อาจได้รับการพิสูจน์ในระดับโซเชียลมีเดีย เนื่องจากเผยแพร่เนื้อหาสู่สาธารณะ สำหรับผู้ให้บริการ AI เราเชื่อว่านโยบายการใช้งานควรมีข้อจำกัดเกี่ยวกับข้อมูลที่ผู้ใช้สามารถสร้างได้น้อยกว่านโยบายของแพลตฟอร์มโซเชียลมีเดีย

บริษัท AI มีวิธีอื่นในการจัดการกับคำพูดแสดงความเกลียดชังและข้อมูลที่ไม่ถูกต้อง ตัวอย่างเช่น พวกเขาสามารถให้บริบทหรือข้อเท็จจริงที่โต้แย้งในเนื้อหาที่พวกเขาสร้างขึ้น นอกจากนี้ยังสามารถปรับแต่งผู้ใช้ได้มากขึ้นอีกด้วย เราเชื่อว่าแชทบอทควรหลีกเลี่ยงการปฏิเสธที่จะสร้างเนื้อหาใดๆ เลย เว้นแต่จะมีเหตุผลที่เป็นประโยชน์ต่อสาธารณะ เช่น การป้องกันสื่อที่มีการล่วงละเมิดทางเพศเด็ก ซึ่งเป็นสิ่งที่กฎหมายห้าม

การปฏิเสธที่จะสร้างเนื้อหาไม่เพียงแต่ส่งผลกระทบต่อสิทธิขั้นพื้นฐานในการพูดและการเข้าถึงข้อมูลเท่านั้น พวกเขายังสามารถผลักดันผู้ใช้ไปยังแชทบอทที่เชี่ยวชาญในการสร้างเนื้อหาที่แสดงความเกลียดชังและห้องสะท้อนเสียงสะท้อน นั่นจะเป็นผลลัพธ์ที่น่ากังวล