שאלות ותשובות פנימיות: מנהלי אמון ובטיחות מדברים על בינה מלאכותית וניהול תוכן

עדכון: 24 באפריל, 2024
שאלות ותשובות פנימיות: מנהלי אמון ובטיחות מדברים על בינה מלאכותית וניהול תוכן
קרדיט: AP Illustration/Jenni Sohn

אלכס פופקן הייתה מנהלת אמון ובטיחות ותיקה בטוויטר שהתמקדה בניהול תוכן לפני שעזבה ב-2023. היא הייתה העובדת הראשונה שם שהוקדשה להנחיית עסקי הפרסום של טוויטר כשהיא התחילה ב-2013.

כעת, היא סגנית נשיא לאמון ובטיחות ב-WebPurify, ספקית שירותי ניהול תוכן שעובדת עם עסקים כדי להבטיח שהתוכן שאנשים מפרסמים באתרים שלהם עוקב אחר הכללים.

פלטפורמות המדיה החברתית אינן היחידות שצריכות שיטור. כל חברה הפונה לצרכן - מקמעונאים ועד אפליקציות היכרויות לאתרי חדשות - זקוקה למישהו שיסלק תוכן לא רצוי, בין אם זה דברי שטנה, הטרדה או כל דבר לא חוקי. חברות משתמשות יותר ויותר בבינה מלאכותית במאמציהן, אבל פופקן מציינת שבני אדם נשארים חיוניים לתהליך.

פופקן שוחח לאחרונה עם סוכנות הידיעות AP. השיחה נערכה לצורך הבהירות והאורך.

שאלה: איך ראית את שינוי ניהול התוכן באותו עשור שהיית בטוויטר?

תשובה: כשהצטרפתי לטוויטר, ניהול התוכן היה בשלבי תחילתו. אני חושב שאפילו אמון ובטיחות היו המושג הזה שאנשים רק התחילו להבין ולהתמודד איתו. הצורך במתן תוכן החריף ככל שאנו, כאשר פלטפורמות ראינו אותם מופעלים בדרכים חדשות. אני יכול להיזכר בכמה אבני דרך מרכזיות בכהונתי בטוויטר. לדוגמה, ההתערבות הרוסית בבחירות לנשיאות ארה"ב ב-2016, שבהן הבנו לראשונה, הבנו בצורה משמעותית, שללא מתינות תוכן יכולים להיות לנו שחקנים רעים שיערערו את הדמוקרטיה. ההכרח בהשקעה בתחום זה הפך חשוב יותר ויותר.

ש: הרבה חברות, חברות המדיה החברתיות הגדולות יותר נשענות על AI למתן תוכן. האם אתה חושב שה-AI נמצא עדיין במקום שבו אפשר לסמוך עליו?

ת: ניהול תוכן יעיל הוא שילוב של בני אדם ומכונות. AI, שנמצא בשימוש מתון במשך שנים, פותר קנה מידה. וכך יש לך מודלים של למידת מכונה שהוכשרו על מדיניות שונה ויכולים לזהות תוכן. אבל בסופו של דבר, נניח שיש לך מודל למידת מכונה שמזהה את המילה 'נאצי'. יש הרבה פוסטים שאולי מותחים ביקורת על נאצים או מספקים חומר חינוכי על נאצים לעומת עליונות לבנה. ולכן זה לא יכול לפתור ניואנסים והקשר. וכאן באמת נכנסת שכבה אנושית.

אני כן חושב שאנחנו מתחילים לראות התקדמות חשובה באמת שהולכת להקל על עבודתו של אדם. ואני חושב שבינה מלאכותית גנרטיבית היא דוגמה מצוינת לכך, שם, בניגוד למסורתי. מודלים של AI, הוא יכול להבין הקשר וניואנסים הרבה יותר מקודמו. אבל אפילו עדיין, יש לנו מקרי שימוש חדשים לגמרי עבור המנחים האנושיים שלנו עכשיו סביב מתן יציאות בינה מלאכותית. ולכן הצורך במתינות אנושית יישאר לעתיד הנראה לעין, לדעתי.

ש: האם אתה יכול לדבר קצת על חברות המדיה הלא חברתיות שאתה עובד איתן ואיזה סוג של ניהול תוכן הן משתמשות?

ת: אני מתכוון, הכל כמו התאמה אישית של מוצרים קמעונאיים, אתה יודע, תאר לעצמך שאתה מאפשר לאנשים להתאים אישית חולצות, נכון? ברור שאתה רוצה להימנע ממקרי שימוש שבהם אנשים מנצלים את זה לרעה ושמים דברים מזיקים ומעוררי שנאה על החולצה.

באמת, כל דבר שיש בו תוכן שנוצר על ידי משתמשים, עד כדי היכרויות מקוונות - שם, אתה מחפש דברים כמו קטפיש והונאות ומבטיח שאנשים יהיו מי שהם אומרים שהם ומונעים מאנשים להעלות תמונות לא מתאימות למשל. זה אכן משתרע על מספר תעשיות.

ש: מה לגבי הנושאים שאתה מנחה, האם זה משתנה?

ת: ניהול תוכן הוא נוף שמתפתח ללא הרף. וזה מושפע ממה שקורה בעולם. זה מושפע מטכנולוגיות חדשות ומתפתחות. זה מושפע משחקנים גרועים שינסו לעלות על הפלטפורמות הללו בדרכים חדשות וחדשניות. וכך כצוות ניהול תוכן, אתה מנסה להישאר צעד אחד קדימה ולצפות סיכונים חדשים.

אני חושב שיש קצת חשיבה קטסטרופלית בתפקיד הזה שבו אתה חושב על כאילו, מהם התרחישים הגרועים ביותר שיכולים לקרות כאן. ובוודאי שהם מתפתחים. אני חושב שמידע שגוי הוא דוגמה מצוינת שבה יש כל כך הרבה היבטים למידע שגוי וזה דבר כל כך קשה למתן. זה כמו להרתיח את האוקיינוס. כלומר, אתה לא יכול לבדוק כל דבר שמישהו אומר, נכון? ולכן בדרך כלל פלטפורמות צריכות להתמקד במידע מוטעה כדי לא לגרום לנזק האמיתי ביותר בעולם. וזה גם תמיד מתפתח.

ש: במונחים של AI גנרטיבי, יש מחשבה של יום הדין שזה יהרוס את האינטרנט, שזה פשוט יהיה, אתה יודע, חומר בינה מלאכותית מזויפת. אתה מרגיש שאולי זה קורה?

ת: יש לי חששות לגבי מידע מוטעה שנוצר על ידי בינה מלאכותית, במיוחד במהלך עונת בחירות חשובה ביותר ברחבי העולם. אתה יודע, אנו רואים באופן פעיל יותר זיופים עמוקים ומדיה סינתטית ומנופלת מזיקה באינטרנט, וזה מדאיג כי אני חושב שלאדם הממוצע כנראה קשה. מבחין מדויק לעומת לא.

אני חושב לטווח בינוני עד ארוך, אם אפשר להסדיר אותי כראוי ואם יהיו מסביבו מעקות בטיחות מתאימים, אני גם חושב שזה יכול ליצור הזדמנות לעוסקים באמון ובבטיחות שלנו. עידו. תארו לעצמכם עולם שבו AI הוא כלי חשוב בחגורת הכלים של מתן תוכן, לדברים כמו מודיעין איומים. אתה יודע, אני חושב שזה הולך להיות כלי מאוד מועיל, אבל גם יעשה בו שימוש לרעה. ואנחנו כבר רואים את זה.