ترفض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي إنتاج مخرجات "مثيرة للجدل" - فلماذا تعتبر هذه مشكلة تتعلق بحرية التعبير

التحديث: 22 أبريل 2024


خطاب
الائتمان: Pixabay / CC0 المجال العام

تصدرت Google مؤخرًا عناوين الأخبار على مستوى العالم لأن برنامج الدردشة الآلي Gemini الخاص بها قام بإنشاء صور لأشخاص ملونين بدلاً من الأشخاص البيض في الإعدادات التاريخية التي تضم الأشخاص البيض. شهدت أداة إنشاء الصور في Adobe Firefly مشكلات مماثلة. وقد دفع هذا بعض المعلقين إلى الشكوى من أن الذكاء الاصطناعي قد "استيقظ". واقترح آخرون أن هذه المشكلات نتجت عن جهود خاطئة لمحاربة تحيز الذكاء الاصطناعي وتقديم خدمة أفضل للجمهور العالمي.


تعتبر المناقشات حول الميول السياسية لمنظمة العفو الدولية والجهود المبذولة لمكافحة التحيز مهمة. ومع ذلك، فإن الحديث حول الذكاء الاصطناعي يتجاهل قضية حاسمة أخرى: ما هو النهج الذي تتبعه صناعة الذكاء الاصطناعي في التعامل مع حرية التعبير، وهل تتبنى المعايير الدولية لحرية التعبير؟

نحن باحثون في مجال السياسات وندرس حرية التعبير، وكذلك مدير تنفيذي وزميل باحث في مستقبل حرية التعبير، وهو مركز أبحاث مستقل وغير حزبي مقره في جامعة فاندربيلت. في تقرير حديث، وجدنا أن الذكاء الاصطناعي التوليدي يعاني من عيوب مهمة فيما يتعلق بحرية التعبير والوصول إلى المعلومات.

الذكاء الاصطناعي التوليدي هو أحد أنواع الذكاء الاصطناعي الذي ينشئ محتوى، مثل النصوص أو الصور، بناءً على البيانات التي تم تدريبه عليها. وعلى وجه الخصوص، وجدنا أن سياسات استخدام برامج الدردشة الكبرى لا تلبي معايير الأمم المتحدة. من الناحية العملية، هذا يعني أن روبوتات الدردشة المدعمة بالذكاء الاصطناعي غالبًا ما تفرض رقابة على المخرجات عند التعامل مع القضايا التي تعتبرها الشركات مثيرة للجدل. وبدون ثقافة راسخة لحرية التعبير، من المرجح أن تستمر الشركات المنتجة لأدوات الذكاء الاصطناعي التوليدية في مواجهة ردود فعل عنيفة في هذه الأوقات التي تشهد استقطابا متزايدا.

سياسات استخدام غامضة وواسعة النطاق

قام تقريرنا بتحليل سياسات الاستخدام لستة روبوتات دردشة رئيسية تعمل بالذكاء الاصطناعي، بما في ذلك Gemini من Google وChatGPT من OpenAI. تصدر الشركات سياسات لتحديد القواعد المتعلقة بكيفية استخدام الأشخاص لنماذجهم. ومع استخدام القانون الدولي لحقوق الإنسان كمعيار مرجعي، وجدنا أن سياسات المعلومات المضللة وخطاب الكراهية التي تنتهجها الشركات غامضة وواسعة للغاية. ومن الجدير بالذكر أن القانون الدولي لحقوق الإنسان أقل حماية لحرية التعبير من التعديل الأول للولايات المتحدة.

وجد تحليلنا أن سياسات خطاب الكراهية التي تتبعها الشركات تحتوي على محظورات واسعة النطاق للغاية. على سبيل المثال، تحظر جوجل إنشاء "المحتوى الذي يروج أو يشجع على الكراهية". على الرغم من أن خطاب الكراهية أمر مقيت ويمكن أن يسبب الضرر، إلا أن السياسات التي يتم تعريفها على نطاق واسع وغامض مثل سياسات جوجل يمكن أن تأتي بنتائج عكسية.

لإظهار مدى تأثير سياسات الاستخدام الغامضة والواسعة على المستخدمين، قمنا باختبار مجموعة من المطالبات حول مواضيع مثيرة للجدل. لقد طرحنا على روبوتات الدردشة أسئلة مثل ما إذا كان ينبغي أو لا ينبغي السماح للنساء المتحولات جنسياً بالمشاركة في البطولات الرياضية النسائية أو حول دور الاستعمار الأوروبي في المناخ الحالي وأزمات عدم المساواة. لم نطلب من روبوتات الدردشة إنتاج خطاب كراهية يشوه سمعة أي جانب أو مجموعة. وعلى غرار ما أبلغ عنه بعض المستخدمين، رفضت برامج الدردشة الآلية إنشاء محتوى لـ 40% من المطالبات الـ 140 التي استخدمناها. على سبيل المثال، رفضت جميع مواقع الدردشة إنشاء منشورات تعارض مشاركة النساء المتحولات جنسيًا في البطولات النسائية. ومع ذلك، فإن معظمهم قاموا بإنتاج مشاركات تدعم مشاركتهم.






تعد حرية التعبير حقًا أساسيًا في الولايات المتحدة، لكن ما يعنيه هذا الحق وإلى أي مدى سيصل إليه لا يزال محل نقاش واسع النطاق.

تعتمد السياسات المصاغة بشكل غامض بشكل كبير على الآراء الشخصية للمشرفين حول ماهية خطاب الكراهية. يمكن للمستخدمين أيضًا أن يدركوا أن القواعد يتم تطبيقها بشكل غير عادل ويفسرونها على أنها صارمة للغاية أو متساهلة للغاية.

على سبيل المثال، يحظر برنامج chatbot Pi "المحتوى الذي قد ينشر معلومات مضللة". ومع ذلك، فإن المعايير الدولية لحقوق الإنسان المتعلقة بحرية التعبير تحمي عمومًا المعلومات الخاطئة ما لم يكن هناك مبرر قوي لفرض قيود، مثل التدخل الأجنبي في الانتخابات. وبخلاف ذلك، فإن معايير حقوق الإنسان تضمن "حرية التماس مختلف أنواع المعلومات والأفكار وتلقيها ونقلها إلى الآخرين، بغض النظر عن الحدود... من خلال أي... وسائل الإعلام التي يختارها"، وفقا لاتفاقية رئيسية للأمم المتحدة.

إن تحديد ما يشكل معلومات دقيقة له أيضًا آثار سياسية. استخدمت حكومات العديد من البلدان القواعد المعتمدة في سياق جائحة كوفيد-19 لقمع الانتقادات الموجهة إلى الحكومة. وفي الآونة الأخيرة، واجهت الهند شركة جوجل بعد أن أشار جيميني إلى أن بعض الخبراء يعتبرون سياسات رئيس الوزراء الهندي ناريندرا مودي فاشية.

ثقافة التعبير الحر

هناك أسباب قد تدفع مقدمي خدمات الذكاء الاصطناعي إلى تبني سياسات استخدام مقيدة. وقد يرغبون في حماية سمعتهم وعدم الارتباط بمحتوى مثير للجدل. إذا كانوا يخدمون جمهورًا عالميًا، فقد يرغبون في تجنب المحتوى المسيء في أي منطقة.

بشكل عام، يحق لمقدمي خدمات الذكاء الاصطناعي اعتماد سياسات مقيدة. وهم غير ملزمين بحقوق الإنسان الدولية. ومع ذلك، فإن قوتها السوقية تجعلها مختلفة عن الشركات الأخرى. من المرجح أن ينتهي الأمر بالمستخدمين الذين يرغبون في إنشاء محتوى الذكاء الاصطناعي إلى استخدام أحد برامج الدردشة الآلية التي قمنا بتحليلها، وخاصة ChatGPT أو Gemini.

إن سياسات هذه الشركات لها تأثير كبير على الحق في الوصول إلى المعلومات. ومن المرجح أن يزداد هذا التأثير مع دمج الذكاء الاصطناعي التوليدي في البحث ومعالجات النصوص والبريد الإلكتروني والتطبيقات الأخرى.

وهذا يعني أن المجتمع لديه مصلحة في ضمان أن هذه السياسات تحمي حرية التعبير بشكل مناسب. في الواقع، يتطلب قانون الخدمات الرقمية، وهو كتاب قواعد السلامة على الإنترنت في أوروبا، أن تقوم ما يسمى "المنصات الكبيرة للغاية على الإنترنت" بتقييم وتخفيف "المخاطر النظامية". وتشمل هذه المخاطر آثاراً سلبية على حرية التعبير والمعلومات.






يناقش جاكوب ماتشانغاما حرية التعبير عبر الإنترنت في سياق قانون الخدمات الرقمية لعام 2022 للاتحاد الأوروبي.

ويوضح هذا الالتزام، الذي لم تطبقه المفوضية الأوروبية بشكل كامل حتى الآن، أن القوة العظمى تأتي مع مسؤولية عظيمة. ومن غير الواضح كيف سيتم تطبيق هذا القانون على الذكاء الاصطناعي التوليدي، لكن المفوضية الأوروبية اتخذت بالفعل إجراءاتها الأولى.

وحتى عندما لا ينطبق التزام قانوني مماثل على مقدمي خدمات الذكاء الاصطناعي، فإننا نعتقد أن تأثير الشركات يجب أن يلزمهم بتبني ثقافة حرية التعبير. إن حقوق الإنسان الدولية تشكل نجمة إرشادية مفيدة حول كيفية الموازنة المسؤولة بين المصالح المختلفة المعرضة للخطر. وقد أدركت اثنتين على الأقل من الشركات التي ركزنا عليها - Google وAnthropic - هذا الأمر.

الرفض الصريح

من المهم أيضًا أن تتذكر أن المستخدمين يتمتعون بدرجة كبيرة من الاستقلالية فيما يتعلق بالمحتوى الذي يرونه في الذكاء الاصطناعي التوليدي. مثل محركات البحث، تعتمد النتائج التي يتلقاها المستخدمون بشكل كبير على مطالباتهم. ولذلك، فإن تعرض المستخدمين لخطاب الكراهية والمعلومات المضللة من الذكاء الاصطناعي التوليدي سيكون عادةً محدودًا ما لم يسعوا إلى ذلك على وجه التحديد.

وهذا على عكس وسائل التواصل الاجتماعي، حيث يكون للأشخاص سيطرة أقل بكثير على خلاصاتهم الخاصة. قد يكون هناك ما يبرر فرض ضوابط أكثر صرامة، بما في ذلك على المحتوى الناتج عن الذكاء الاصطناعي، على مستوى وسائل التواصل الاجتماعي لأنها توزع المحتوى علنًا. بالنسبة لمقدمي خدمات الذكاء الاصطناعي، نعتقد أن سياسات الاستخدام يجب أن تكون أقل تقييدًا فيما يتعلق بالمعلومات التي يمكن للمستخدمين توليدها مقارنة بتلك الخاصة بمنصات الوسائط الاجتماعية.

لدى شركات الذكاء الاصطناعي طرق أخرى لمعالجة خطاب الكراهية والمعلومات المضللة. على سبيل المثال، يمكنهم توفير سياق أو حقائق تعويضية في المحتوى الذي يقومون بإنشائه. يمكنهم أيضًا السماح بتخصيص أكبر للمستخدم. نحن نؤمن بأن برامج الدردشة الآلية يجب أن تتجنب مجرد رفض إنشاء أي محتوى تمامًا. وهذا ما لم تكن هناك أسباب قوية تتعلق بالمصلحة العامة، مثل منع مواد الاعتداء الجنسي على الأطفال، وهو أمر تحظره القوانين.

إن رفض إنشاء محتوى لا يؤثر فقط على الحقوق الأساسية لحرية التعبير والوصول إلى المعلومات. يمكنهم أيضًا دفع المستخدمين نحو روبوتات الدردشة المتخصصة في إنشاء محتوى يحض على الكراهية وغرف الصدى. ومن شأن ذلك أن يكون نتيجة مثيرة للقلق.