Hỏi đáp nội bộ: Người điều hành sự tin cậy và an toàn nói về AI và kiểm duyệt nội dung

Cập nhật: ngày 24 tháng 2024 năm XNUMX
Hỏi đáp nội bộ: Người điều hành sự tin cậy và an toàn nói về AI và kiểm duyệt nội dung
Tín dụng: Minh họa AP / Jenni Sohn

Alex Popken là giám đốc điều hành an toàn và tin cậy lâu năm tại Twitter, tập trung vào kiểm duyệt nội dung trước khi rời đi vào năm 2023. Cô là nhân viên đầu tiên ở đó chuyên kiểm duyệt hoạt động kinh doanh quảng cáo của Twitter khi cô bắt đầu vào năm 2013.

Hiện cô là phó chủ tịch phụ trách tin cậy và an toàn tại WebPurify, một nhà cung cấp dịch vụ kiểm duyệt nội dung làm việc với các doanh nghiệp để giúp đảm bảo nội dung mọi người đăng lên trang web của họ tuân thủ các quy tắc.

Các nền tảng truyền thông xã hội không phải là những nền tảng duy nhất cần kiểm soát. Bất kỳ công ty nào hướng tới người tiêu dùng—từ các nhà bán lẻ, ứng dụng hẹn hò cho đến các trang tin tức—đều cần ai đó loại bỏ nội dung không mong muốn, cho dù đó là lời nói căm thù, hành vi quấy rối hay bất kỳ điều gì bất hợp pháp. Các công ty đang ngày càng sử dụng trí tuệ nhân tạo trong nỗ lực của mình, nhưng Popken lưu ý rằng con người vẫn rất cần thiết cho quá trình này.

Popken đã nói chuyện gần đây với Associated Press. Cuộc trò chuyện đã được chỉnh sửa để rõ ràng và dài hơn.

CÂU HỎI: Bạn thấy sự thay đổi về kiểm duyệt nội dung như thế nào trong thập kỷ bạn làm việc tại Twitter?

TRẢ LỜI: Khi tôi tham gia Twitter, việc kiểm duyệt nội dung đang ở giai đoạn sơ khai. Tôi nghĩ ngay cả niềm tin và sự an toàn cũng là khái niệm mà mọi người mới bắt đầu hiểu và vật lộn với nó. Nhu cầu kiểm duyệt nội dung ngày càng tăng khi các nền tảng nhận thấy chúng được trang bị vũ khí theo những cách mới. Tôi có thể nhớ lại một số cột mốc quan trọng trong nhiệm kỳ của mình tại Twitter. Ví dụ: sự can thiệp của Nga vào cuộc bầu cử tổng thống Hoa Kỳ năm 2016, nơi chúng tôi lần đầu tiên nhận ra, nhận ra một cách có ý nghĩa rằng nếu không kiểm duyệt nội dung, chúng ta có thể có những tác nhân xấu phá hoại nền dân chủ. Sự cần thiết phải đầu tư vào lĩnh vực này ngày càng trở nên quan trọng.

Hỏi: Rất nhiều công ty, các công ty truyền thông xã hội lớn hơn đang dựa vào AI để kiểm duyệt nội dung. Bạn có nghĩ rằng AI đang ở vị trí có thể dựa vào nó không?

Đáp: Kiểm duyệt nội dung hiệu quả là sự kết hợp giữa con người và máy móc. AI, đã được sử dụng ở mức độ vừa phải trong nhiều năm, có khả năng giải quyết vấn đề về quy mô. Và do đó, bạn có các mô hình máy học được đào tạo về các chính sách khác nhau và có thể phát hiện nội dung. Nhưng cuối cùng, giả sử bạn có một mô hình máy học đang phát hiện từ 'Nazi'. Có rất nhiều bài đăng có thể chỉ trích Đức Quốc xã hoặc cung cấp tài liệu giáo dục về Đức Quốc xã và chủ nghĩa da trắng thượng đẳng. Và vì vậy nó không thể giải quyết được sắc thái và bối cảnh. Và đó thực sự là nơi mà lớp con người xuất hiện.

Tôi thực sự nghĩ rằng chúng ta đang bắt đầu thấy những tiến bộ thực sự quan trọng sẽ giúp công việc của con người trở nên dễ dàng hơn. Và tôi nghĩ AI tổng quát là một ví dụ tuyệt vời về điều đó, không giống như truyền thống. Các mô hình AI, nó có thể hiểu bối cảnh và sắc thái nhiều hơn so với phiên bản tiền nhiệm. Tuy nhiên, hiện nay chúng ta vẫn có những trường hợp sử dụng hoàn toàn mới cho người điều hành con người xung quanh việc kiểm duyệt các đầu ra AI tổng hợp. Và vì vậy, theo tôi, nhu cầu điều độ của con người sẽ vẫn còn trong tương lai gần.

Hỏi: Bạn có thể nói một chút về các công ty truyền thông phi xã hội mà bạn hợp tác và loại kiểm duyệt nội dung mà họ sử dụng không?

A: Ý tôi là, mọi thứ từ tùy chỉnh sản phẩm bán lẻ, bạn biết đấy, hãy tưởng tượng rằng bạn đang cho phép mọi người tùy chỉnh áo phông, phải không? Rõ ràng, bạn muốn tránh những trường hợp sử dụng trong đó mọi người lạm dụng điều đó và bôi những thứ có hại, đáng ghét lên áo phông.

Thực sự, bất cứ thứ gì có nội dung do người dùng tạo, cho đến hẹn hò trực tuyến—ở đó, bạn đang tìm kiếm những thứ như lừa đảo và lừa đảo, đồng thời đảm bảo rằng mọi người đúng như những gì họ nói và chẳng hạn như ngăn mọi người tải lên những bức ảnh không phù hợp. Nó trải rộng trên nhiều ngành công nghiệp.

Hỏi: Còn vấn đề bạn đang kiểm duyệt thì sao, điều đó có thay đổi không?

Đáp: Kiểm duyệt nội dung là một lĩnh vực không ngừng phát triển. Và nó bị ảnh hưởng bởi những gì đang xảy ra trên thế giới. Nó bị ảnh hưởng bởi các công nghệ mới và đang phát triển. Nó bị ảnh hưởng bởi những kẻ xấu, những người sẽ cố gắng tiếp cận các nền tảng này theo những cách mới và sáng tạo. Và với tư cách là nhóm kiểm duyệt nội dung, bạn đang cố gắng đi trước một bước và lường trước những rủi ro mới.

Tôi nghĩ rằng có một chút suy nghĩ thảm khốc trong vai trò này khi bạn nghĩ về những tình huống xấu nhất có thể xảy ra ở đây. Và chắc chắn chúng sẽ phát triển. Tôi nghĩ thông tin sai lệch là một ví dụ điển hình trong đó thông tin sai lệch có rất nhiều khía cạnh và rất khó để kiểm duyệt. Nó giống như làm sôi cả đại dương. Ý tôi là, bạn không thể kiểm tra thực tế từng điều mà ai đó nói, phải không? Và vì vậy, các nền tảng thông thường cần tập trung vào thông tin sai lệch để không gây ra tác hại lớn nhất cho thế giới thực. Và điều đó cũng luôn phát triển.

Hỏi: Về mặt sáng tạo AI, có một số ngày tận thế nghĩ rằng nó sẽ hủy hoại Internet, rằng nó sẽ chỉ là những thứ AI giả mạo trên đó. Bạn có cảm thấy điều đó có thể xảy ra không?

Đáp: Tôi lo ngại về thông tin sai lệch do AI tạo ra, đặc biệt là trong mùa bầu cử cực kỳ quan trọng trên toàn cầu. Bạn biết đấy, chúng ta đang tích cực nhìn thấy nhiều nội dung giả mạo sâu cũng như các phương tiện truyền thông tổng hợp và bị thao túng có hại trên mạng, điều này đáng lo ngại vì tôi nghĩ một người bình thường có thể sẽ gặp khó khăn. phân biệt chính xác và không.

Tôi nghĩ trong trung và dài hạn, nếu tôi có thể được quản lý hợp lý và có các biện pháp bảo vệ thích hợp xung quanh nó, tôi cũng nghĩ rằng điều đó có thể tạo cơ hội cho những người thực hành sự tin cậy và an toàn của chúng tôi. Tôi làm. Hãy tưởng tượng một thế giới trong đó AI là một công cụ quan trọng trong chuỗi công cụ kiểm duyệt nội dung, dành cho những thứ như trí thông minh về mối đe dọa. Bạn biết đấy, tôi nghĩ rằng nó sẽ là một công cụ cực kỳ hữu ích, nhưng nó cũng sẽ bị lạm dụng. Và chúng ta đã thấy điều đó rồi.