أسئلة وأجوبة من الداخل: يتحدث المدير التنفيذي للثقة والسلامة عن الذكاء الاصطناعي والإشراف على المحتوى

التحديث: 24 أبريل 2024
أسئلة وأجوبة من الداخل: يتحدث المدير التنفيذي للثقة والسلامة عن الذكاء الاصطناعي والإشراف على المحتوى
الائتمان: AP التوضيح / جيني سون

كانت Alex Popken مديرة تنفيذية للثقة والسلامة منذ فترة طويلة في تويتر مع التركيز على الإشراف على المحتوى قبل مغادرتها في عام 2023. وكانت أول موظفة هناك مخصصة للإشراف على أعمال الإعلانات على تويتر عندما بدأت في عام 2013.

وهي الآن نائبة رئيس الثقة والسلامة في WebPurify، وهي شركة تقدم خدمة الإشراف على المحتوى وتعمل مع الشركات للمساعدة في ضمان أن المحتوى الذي ينشره الأشخاص على مواقعهم يتبع القواعد.

منصات وسائل التواصل الاجتماعي ليست الوحيدة التي تحتاج إلى الشرطة. تحتاج أي شركة تتعامل مع المستهلك - بدءًا من تجار التجزئة إلى تطبيقات المواعدة إلى المواقع الإخبارية - إلى شخص ما للتخلص من المحتوى غير المرغوب فيه، سواء كان ذلك خطابًا يحض على الكراهية أو مضايقة أو أي شيء غير قانوني. تستخدم الشركات الذكاء الاصطناعي بشكل متزايد في جهودها، لكن بوبكين يشير إلى أن البشر يظلون أساسيين في هذه العملية.

تحدث بوبكين مؤخرًا مع وكالة أسوشيتد برس. تم تعديل المحادثة من أجل الوضوح والطول.

سؤال: كيف رأيت تغيرًا في الإشراف على المحتوى خلال العقد الذي قضيته في تويتر؟

الإجابة: عندما انضممت إلى تويتر، كان الإشراف على المحتوى في مراحله الأولى. أعتقد أن الثقة والأمان كانا هذا المفهوم الذي بدأ الناس للتو في فهمه والتعامل معه. تصاعدت الحاجة إلى الإشراف على المحتوى، حيث رأينا، كما رأينا في المنصات، أن هذه الأمور يتم استخدامها كسلاح بطرق جديدة. يمكنني أن أتذكر بعض المعالم الرئيسية خلال فترة عملي في تويتر. على سبيل المثال، التدخل الروسي في الانتخابات الرئاسية الأمريكية عام 2016، حيث أدركنا للمرة الأولى، وبطريقة ذات معنى، أنه من دون الاعتدال في المحتوى، يمكن أن يكون لدينا جهات فاعلة سيئة تعمل على تقويض الديمقراطية. أصبحت ضرورة الاستثمار في هذا المجال أكثر أهمية من أي وقت مضى.

س: تعتمد الكثير من الشركات، وشركات التواصل الاجتماعي الكبرى، على الذكاء الاصطناعي للإشراف على المحتوى. هل تعتقد أن الذكاء الاصطناعي موجود في مكان يمكن الاعتماد عليه؟

ج: إن الإشراف الفعال على المحتوى هو مزيج من البشر والآلات. الذكاء الاصطناعي، الذي تم استخدامه باعتدال لسنوات، يحل المشكلة على نطاق واسع. وبالتالي، لديك نماذج للتعلم الآلي تم تدريبها على سياسات مختلفة ويمكنها اكتشاف المحتوى. لكن في النهاية، لنفترض أن لديك نموذجًا للتعلم الآلي يكتشف كلمة "نازي". هناك الكثير من المنشورات التي قد تنتقد النازيين أو تقدم مواد تعليمية حول النازيين مقابل التفوق الأبيض. ولذلك لا يمكن حلها من أجل الفروق الدقيقة والسياق. وهذا هو المكان الذي تأتي فيه الطبقة البشرية.

أعتقد أننا بدأنا نرى تطورات مهمة حقًا ستجعل مهمة الإنسان أسهل. وأعتقد أن الذكاء الاصطناعي التوليدي هو مثال رائع على ذلك، على عكس التقليدي. نماذج الذكاء الاصطناعي، يمكنها فهم السياق والفروق الدقيقة أكثر بكثير من سابقتها. ولكن حتى مع ذلك، لدينا حالات استخدام جديدة تمامًا للمشرفين البشريين لدينا الآن حول التحكم في مخرجات الذكاء الاصطناعي التوليدية. ولذا فإن الحاجة إلى الاعتدال الإنساني ستبقى في المستقبل المنظور، في رأيي.

س: هل يمكنك التحدث قليلاً عن شركات التواصل الاجتماعي التي تعمل معها ونوع الإشراف على المحتوى الذي تستخدمه؟

ج: أعني، كل شيء بدءًا من تخصيص منتجات البيع بالتجزئة، كما تعلمون، تخيل أنك تسمح للأشخاص بتخصيص القمصان، أليس كذلك؟ من الواضح أنك تريد تجنب حالات الاستخدام التي يسيء فيها الأشخاص استخدام ذلك ويضعون أشياء ضارة وبغيضة على القميص.

حقًا، أي شيء يحتوي على محتوى من إنشاء المستخدم، وصولاً إلى المواعدة عبر الإنترنت - هناك، أنت تبحث عن أشياء مثل صيد القطط والاحتيال والتأكد من أن الأشخاص هم كما يقولون ومنع الأشخاص من تحميل صور غير لائقة على سبيل المثال. إنها تمتد إلى صناعات متعددة.

سؤال: ماذا عن القضايا التي تتولى إدارتها، هل يتغير ذلك؟

ج: إن الإشراف على المحتوى هو مشهد دائم التطور. ويتأثر بما يحدث في العالم. إنها تتأثر بالتقنيات الجديدة والمتطورة. إنه يتأثر بالجهات الفاعلة السيئة التي ستحاول الوصول إلى هذه المنصات بطرق جديدة ومبتكرة. ولذلك، باعتبارك فريقًا للإشراف على المحتوى، فإنك تحاول البقاء متقدمًا بخطوة وتوقع المخاطر الجديدة.

أعتقد أن هناك القليل من التفكير الكارثي في ​​هذا الدور حيث تفكر في أسوأ السيناريوهات التي يمكن أن تحدث هنا. وبالتأكيد أنها تتطور. أعتقد أن المعلومات الخاطئة هي مثال رائع حيث يوجد العديد من جوانب المعلومات الخاطئة ومن الصعب التخفيف منها. إنه مثل غليان المحيط. أعني أنه لا يمكنك التحقق من صحة كل شيء يقوله شخص ما، أليس كذلك؟ ولذلك تحتاج المنصات عادة إلى التركيز على المعلومات الخاطئة حتى لا تسبب أكبر قدر من الضرر في العالم الحقيقي. وهذا أيضًا يتطور دائمًا.

س: فيما يتعلق بالذكاء الاصطناعي التوليدي، هناك من يفكر في يوم القيامة بأنه سيدمر الإنترنت، وأنه سيكون مجرد أشياء مزيفة للذكاء الاصطناعي. هل تشعر أن ذلك قد يحدث؟

ج: لدي مخاوف بشأن المعلومات الخاطئة التي ينتجها الذكاء الاصطناعي، خاصة خلال موسم الانتخابات المهم للغاية على مستوى العالم. كما تعلمون، نحن نشهد المزيد من التزييف العميق والوسائط الاصطناعية الضارة والمتلاعب بها عبر الإنترنت، وهو أمر مثير للقلق لأنني أعتقد أن الشخص العادي ربما يواجه أوقاتًا عصيبة. تمييز دقيق مقابل لا.

أعتقد أنه على المدى المتوسط ​​إلى الطويل، إذا كان من الممكن تنظيمي بشكل صحيح وإذا كانت هناك حواجز حماية مناسبة حوله، أعتقد أيضًا أنه يمكن أن يخلق فرصة لممارسي الثقة والسلامة لدينا. أفعل. تخيل عالمًا يكون فيه الذكاء الاصطناعي أداة مهمة في حزام أدوات الإشراف على المحتوى، لأشياء مثل الاستخبارات المتعلقة بالتهديدات. كما تعلمون، أعتقد أنها ستكون أداة مفيدة للغاية، ولكن سيتم أيضًا إساءة استخدامها. ونحن نرى ذلك بالفعل.