내부자 Q&A: 신뢰 및 안전 임원이 AI 및 콘텐츠 조정에 관해 이야기합니다.

업데이트: 24년 2024월 XNUMX일
내부자 Q&A: 신뢰 및 안전 임원이 AI 및 콘텐츠 조정에 관해 이야기합니다.
출처: AP 일러스트레이션/Jenni Sohn

Alex Popken은 2023년에 떠나기 전까지 콘텐츠 조정에 중점을 두고 Twitter에서 오랫동안 신뢰 및 안전 임원으로 일했습니다. 그녀는 2013년에 입사했을 때 Twitter의 광고 사업 조정을 전담한 최초의 직원이었습니다.

이제 그녀는 기업과 협력하여 사람들이 사이트에 게시하는 콘텐츠가 규칙을 따르도록 돕는 콘텐츠 조정 서비스 제공업체인 WebPurify의 신뢰 및 안전 담당 부사장입니다.

소셜 미디어 플랫폼만이 치안이 필요한 유일한 플랫폼은 아닙니다. 소매업체부터 데이트 앱, 뉴스 사이트에 이르기까지 소비자를 상대하는 모든 기업에는 증오심 표현, 괴롭힘 또는 불법적인 콘텐츠 등 원치 않는 콘텐츠를 제거해 줄 사람이 필요합니다. 기업에서는 점점 더 인공 지능을 활용하고 있지만 Popken은 인간이 여전히 프로세스에 필수적이라고 지적합니다.

Popken은 최근 Associated Press와 인터뷰했습니다. 대화는 명확성과 길이를 위해 편집되었습니다.

질문: 당신이 트위터에 있던 10년 동안 콘텐츠 조정의 변화를 어떻게 보셨나요?

답변: 제가 트위터에 합류했을 당시 콘텐츠 조정은 초기 단계에 있었습니다. 신뢰와 안전조차도 사람들이 이제 막 이해하고 고민하기 시작한 개념이라고 생각합니다. 플랫폼이 새로운 방식으로 무기화됨에 따라 콘텐츠 조정에 대한 필요성이 더욱 커졌습니다. 나는 트위터 재직 중 몇 가지 주요 이정표를 기억할 수 있습니다. 예를 들어, 우리가 처음으로 깨달은 2016년 미국 대통령 선거에 대한 러시아의 개입은 내용 조정 없이는 민주주의를 훼손하는 나쁜 행위자들이 있을 수 있다는 것을 의미 있는 방식으로 깨달았습니다. 이 분야에 대한 투자의 필요성이 더욱 중요해졌습니다.

Q: 많은 기업과 대규모 소셜 미디어 기업이 콘텐츠 조정을 위해 AI에 의존하고 있습니다. AI가 아직 의존할 수 있는 단계에 있다고 생각하시나요?

A: 효과적인 콘텐츠 조정은 인간과 기계의 조합입니다. 수년간 적당히 사용해 온 AI가 규모를 해결합니다. 따라서 다양한 정책에 대해 훈련되고 콘텐츠를 감지할 수 있는 기계 학습 모델이 있습니다. 하지만 궁극적으로 'Nazi'라는 단어를 감지하는 기계 학습 모델이 있다고 가정해 보겠습니다. 나치를 비판하거나 나치와 백인 우월주의에 대한 교육 자료를 제공하는 게시물이 많이 있습니다. 따라서 뉘앙스와 맥락을 해결할 수 없습니다. 그리고 그것이 실제로 인간 계층이 들어오는 곳입니다.

저는 인간의 일을 더 쉽게 만들어 줄 정말 중요한 발전이 보이기 시작했다고 생각합니다. 그리고 저는 생성적 AI가 전통적인 AI와는 다른 좋은 예라고 생각합니다. AI 모델은 이전 모델보다 상황과 뉘앙스를 훨씬 더 잘 이해할 수 있습니다. 그러나 그럼에도 불구하고 우리는 이제 생성 AI 출력 조정과 관련하여 인간 조정자를 위한 완전히 새로운 사용 사례를 보유하고 있습니다. 따라서 내 생각에는 인간 절제의 필요성은 가까운 미래에도 계속 유지될 것입니다.

Q: 함께 일하는 비소셜 미디어 회사와 그들이 사용하는 콘텐츠 조정 방법에 대해 조금 이야기해 주실 수 있나요?

A: 내 말은, 소매 제품 맞춤 제작과 같은 모든 것에서 사람들이 티셔츠를 맞춤 제작할 수 있도록 허용한다고 상상해 보세요. 그렇죠? 당연히 사람들이 이를 남용하고 티셔츠에 해롭고 혐오스러운 내용을 넣는 사용 사례를 피하고 싶을 것입니다.

실제로 온라인 데이트에 이르기까지 사용자 생성 콘텐츠가 있는 모든 것에는 메기, 사기 등을 찾고 있으며, 사람들이 자신의 신분을 밝히고 있는지 확인하고 사람들이 부적절한 사진을 업로드하는 것을 방지하고 있습니다. 여러 산업 분야에 걸쳐 있습니다.

Q: 귀하가 조정하고 있는 문제는 어떻게 됩니까? 변경 사항이 있습니까?

A: 콘텐츠 조정은 끊임없이 진화하는 환경입니다. 그리고 그것은 세상에서 일어나는 일들에 영향을 받습니다. 이는 새롭고 발전하는 기술의 영향을 받습니다. 새롭고 혁신적인 방식으로 이러한 플랫폼에 접근하려는 악의적인 행위자의 영향을 받습니다. 따라서 콘텐츠 조정 팀으로서 귀하는 한 발 앞서 나가고 새로운 위험을 예상하려고 노력하고 있습니다.

이 역할에는 여기서 일어날 수 있는 최악의 시나리오가 무엇인지에 대해 생각하는 약간의 재앙적인 생각이 있다고 생각합니다. 그리고 확실히 그들은 진화합니다. 저는 잘못된 정보가 너무 많은 측면을 갖고 있어 조정하기가 매우 어렵다는 점에서 잘못된 정보가 좋은 예라고 생각합니다. 바다를 끓이는 것과 같습니다. 내 말은, 누군가가 말하는 모든 것을 사실로 확인할 수는 없다는 거죠, 그렇죠? 따라서 일반적으로 플랫폼은 실제 세계에 가장 큰 해를 끼치지 않도록 잘못된 정보에 초점을 맞춰야 합니다. 그리고 그것은 또한 항상 진화하고 있습니다.

Q: 생성 AI에 관해서는 그것이 인터넷을 망칠 것이라고 생각하는 최후의 날이 있습니다. 그것은 단지 가짜 AI일 뿐일 것입니다. 그런 일이 일어날 것 같은 느낌이 드나요?

답변: 저는 특히 전 세계적으로 매우 중요한 선거 시즌 동안 AI가 생성한 잘못된 정보에 대해 우려하고 있습니다. 아시다시피, 우리는 온라인에서 더 많은 딥페이크와 유해한 합성 및 조작된 미디어를 적극적으로 목격하고 있습니다. 이는 보통 사람이 아마도 어려움을 겪고 있다고 생각하기 때문에 우려되는 일입니다. 정확한지 아닌지를 분별합니다.

중장기적으로는 적절하게 규제할 수 있고 주변에 적절한 가드레일이 있다면 신뢰와 안전 실무자에게도 기회가 될 수 있다고 생각합니다. 그래요. 위협 인텔리전스와 같은 콘텐츠 조정 도구에서 AI가 중요한 도구인 세상을 상상해 보세요. 아시다시피, 저는 이것이 매우 유용한 도구가 될 것이라고 생각하지만, 또한 오용될 수도 있습니다. 그리고 우리는 이미 그것을 보고 있습니다.