AI 챗봇은 '논란의 여지가 있는' 출력 생성을 거부합니다. 이것이 언론의 자유 문제인 이유

업데이트: 22년 2024월 XNUMX일


연설
크레딧 : Pixabay / CC0 공개 도메인

Google은 최근 자사의 챗봇인 Gemini가 백인이 등장하는 역사적 환경에서 백인 대신 유색인종의 이미지를 생성했기 때문에 전 세계적으로 헤드라인을 장식했습니다. Adobe Firefly의 이미지 생성 도구에서도 비슷한 문제가 발견되었습니다. 이로 인해 일부 평론가들은 AI가 "깨어났다"고 불평했습니다. 다른 사람들은 이러한 문제가 AI 편견에 맞서고 전 세계 청중에게 더 나은 서비스를 제공하려는 잘못된 노력으로 인해 발생했다고 제안했습니다.


AI의 정치적 성향과 편견에 맞서기 위한 노력에 대한 논의가 중요합니다. 그럼에도 불구하고 AI에 대한 대화는 또 다른 중요한 문제, 즉 표현의 자유에 대한 AI 업계의 접근 방식은 무엇이며 국제 표현의 자유 표준을 수용하는가?를 무시합니다.

우리는 표현의 자유를 연구하는 정책 연구자이자 밴더빌트 대학에 기반을 둔 독립적이고 초당파적인 싱크탱크인 표현의 미래(The Future of Free Speech)의 전무이사이자 연구원입니다. 최근 보고서에서 우리는 생성적 AI가 표현의 자유와 정보 접근권과 관련하여 중요한 단점을 가지고 있음을 발견했습니다.

제너레이티브 AI(Generative AI)는 학습된 데이터를 기반으로 텍스트나 이미지 등의 콘텐츠를 생성하는 AI의 일종이다. 특히, 주요 챗봇의 사용 정책이 UN 기준을 충족하지 못하는 것으로 나타났습니다. 실제로 이는 AI 챗봇이 기업이 논란의 여지가 있는 것으로 간주하는 문제를 처리할 때 결과를 검열하는 경우가 많다는 것을 의미합니다. 표현의 자유에 대한 탄탄한 문화가 없다면 생성 AI 도구를 생산하는 회사는 점점 더 양극화되는 시대에 계속해서 반발에 직면할 가능성이 높습니다.

모호하고 광범위한 사용 정책

우리 보고서는 Google의 Gemini, OpenAI의 ChatGPT 등 6개 주요 AI 챗봇의 사용 정책을 분석했습니다. 회사는 사람들이 모델을 사용할 수 있는 방법에 대한 규칙을 설정하는 정책을 발표합니다. 국제인권법을 벤치마크로 삼아 기업의 잘못된 정보와 증오심 표현에 대한 정책이 너무 모호하고 광범위하다는 사실을 발견했습니다. 국제인권법이 미국 수정헌법 제1조보다 표현의 자유를 덜 보호하고 있다는 점은 주목할 가치가 있습니다.

우리의 분석에 따르면 기업의 증오심 표현 정책에는 매우 광범위한 금지 사항이 포함되어 있습니다. 예를 들어, Google은 '증오를 조장하거나 조장하는 콘텐츠'의 생성을 금지합니다. 증오심 표현은 혐오스럽고 해를 끼칠 수 있지만 Google만큼 광범위하고 모호하게 정의된 정책은 역효과를 낳을 수 있습니다.

모호하고 광범위한 사용 정책이 사용자에게 얼마나 영향을 미칠 수 있는지 보여주기 위해 논란이 되는 주제에 대한 다양한 프롬프트를 테스트했습니다. 우리는 트랜스젠더 여성이 여성 스포츠 토너먼트에 참가할 수 있는지 여부, 현재 기후와 불평등 위기에서 유럽 식민주의의 역할에 대해 챗봇에 질문했습니다. 우리는 챗봇에게 특정 측면이나 집단을 폄하하는 증오심 표현을 생성하도록 요청하지 않았습니다. 일부 사용자가 보고한 것과 유사하게 챗봇은 우리가 사용한 40개의 프롬프트 중 140%에 대한 콘텐츠 생성을 거부했습니다. 예를 들어, 모든 챗봇은 트랜스젠더 여성의 여자 토너먼트 참가를 반대하는 게시물 생성을 거부했습니다. 그러나 대부분은 참여를 지지하는 게시물을 작성했습니다.






언론의 자유는 미국의 기본 권리이지만, 그것이 의미하는 바와 그 범위는 여전히 널리 논의되고 있습니다.

모호하게 표현된 정책은 증오심 표현이 무엇인지에 대한 중재자의 주관적인 의견에 크게 의존합니다. 또한 사용자는 규칙이 부당하게 적용되고 있다고 인식할 수도 있고, 규칙이 너무 엄격하거나 관대하다고 해석할 수도 있습니다.

예를 들어 챗봇 Pi는 '잘못된 정보를 퍼뜨릴 수 있는 콘텐츠'를 금지합니다. 그러나 표현의 자유에 대한 국제인권기준은 외국의 선거개입 등 제한에 대한 강력한 정당성이 존재하지 않는 한 일반적으로 잘못된 정보를 보호합니다. 그렇지 않은 경우, 인권 기준은 유엔 핵심 협약에 따라 “선택한 모든 매체를 통해 국경에 관계없이 모든 종류의 정보와 아이디어를 찾고, 받고, 전달할 수 있는 자유”를 보장합니다.

정확한 정보가 무엇인지 정의하는 것은 정치적인 의미도 있습니다. 여러 국가의 정부는 정부에 대한 비판을 억압하기 위해 코로나19 팬데믹 상황에서 채택된 규칙을 사용했습니다. 최근 인도는 Gemini가 일부 전문가들이 인도 총리 Narendra Modi의 정책을 파시스트로 간주한다고 지적한 후 Google과 대결했습니다.

언론의 자유 문화

AI 제공업체가 제한적인 사용 정책을 채택하려는 이유가 있습니다. 그들은 자신의 평판을 보호하고 논란의 여지가 있는 콘텐츠와 연관되지 않기를 원할 수 있습니다. 전 세계 시청자에게 서비스를 제공하는 경우 모든 지역에서 불쾌한 콘텐츠를 피하고 싶을 수 있습니다.

일반적으로 AI 제공업체는 제한적인 정책을 채택할 권리가 있습니다. 그들은 국제인권에 구속되지 않습니다. 그럼에도 불구하고 그들의 시장 지배력은 다른 회사와 다릅니다. AI 콘텐츠를 생성하려는 사용자는 우리가 분석한 챗봇 중 하나, 특히 ChatGPT 또는 Gemini를 사용하게 될 가능성이 높습니다.

이러한 회사의 정책은 정보 접근 권한에 큰 영향을 미칩니다. 이러한 효과는 생성 AI가 검색, 워드 프로세서, 이메일 및 기타 애플리케이션에 통합됨에 따라 증가할 가능성이 높습니다.

이는 사회가 그러한 정책이 언론의 자유를 적절하게 보호하도록 보장하는 데 관심이 있음을 의미합니다. 실제로 유럽의 온라인 안전 규정집인 디지털 서비스법(Digital Services Act)에서는 소위 '대형 온라인 플랫폼'이 '시스템적 위험'을 평가하고 완화하도록 요구하고 있습니다. 이러한 위험에는 표현과 정보의 자유에 대한 부정적인 영향이 포함됩니다.






Jacob Mchangama는 유럽 연합의 2022 디지털 서비스법의 맥락에서 온라인 언론의 자유에 대해 논의합니다.

유럽연합 집행위원회가 지금까지 불완전하게 적용한 이 의무는 큰 힘에는 큰 책임이 따른다는 것을 보여줍니다. 이 법이 생성 AI에 어떻게 적용될지는 불분명하지만, 유럽연합 집행위원회는 이미 첫 번째 조치를 취했습니다.

유사한 법적 의무가 AI 제공업체에 적용되지 않더라도 회사의 영향력을 통해 언론의 자유 문화를 채택해야 한다고 생각합니다. 국제인권은 위태로운 다양한 이해관계를 책임감 있게 균형을 맞추는 방법에 대한 유용한 길잡이 별을 제공합니다. 우리가 중점을 둔 회사 중 적어도 두 곳(Google과 Anthropic)이 그 정도를 인정했습니다.

철저한 거절

사용자는 생성 AI에서 보는 콘텐츠에 대해 상당한 수준의 자율성을 가지고 있다는 점을 기억하는 것도 중요합니다. 검색 엔진과 마찬가지로 사용자가 받는 결과는 프롬프트에 따라 크게 달라집니다. 따라서 사용자가 특별히 추구하지 않는 한 생성 AI의 증오심 표현 및 잘못된 정보에 대한 사용자의 노출은 일반적으로 제한됩니다.

이는 사람들이 자신의 피드에 대해 훨씬 적은 통제권을 갖는 소셜 미디어와는 다릅니다. AI 생성 콘텐츠를 포함한 더 엄격한 통제는 콘텐츠를 공개적으로 배포하기 때문에 소셜 미디어 수준에서 정당화될 수 있습니다. AI 제공업체의 경우, 사용 정책은 사용자가 생성할 수 있는 정보에 대해 소셜 미디어 플랫폼보다 덜 제한적이어야 한다고 생각합니다.

AI 회사는 증오심 표현과 잘못된 정보를 해결하는 다른 방법을 가지고 있습니다. 예를 들어, 그들이 생성하는 콘텐츠에 맥락이나 상쇄 사실을 제공할 수 있습니다. 또한 더 많은 사용자 정의가 가능합니다. 우리는 챗봇이 단순히 콘텐츠 생성을 거부하는 것을 피해야 한다고 믿습니다. 이는 아동 성적 학대 콘텐츠를 방지하는 등 법으로 금지하는 확고한 공익적 근거가 없는 경우입니다.

콘텐츠 생성을 거부하는 것은 표현의 자유와 정보 접근에 대한 기본권에만 영향을 미치는 것이 아닙니다. 또한 증오 콘텐츠 및 반향실 생성을 전문으로 하는 챗봇으로 사용자를 유도할 수도 있습니다. 그것은 걱정스러운 결과가 될 것입니다.