Contents

거대 기술 기업을 위한 EU의 선거 보안 가이드라인 초안, 정치적 딥페이크 겨냥

Contents

/images/eus-draft-election-security-guidelines-for-tech-giants-take-aim-at-political-deepfakes.jpg

유럽 연합은 선거 보안 보호를 강화하기 위한 방안에 초점을 맞춘 공개 협의를 시작했으며, 특히 Facebook, Google, 틱톡, 트위터와 같은 유명 온라인 플랫폼을 대상으로 합니다. 이 포괄적인 접근 방식은 콘텐츠 조정을 위한 리소스 할당, 정치 광고를 둘러싼 투명성 강화, 미디어 리터러시 증진 등 기존의 우려 영역뿐만 아니라 첨단 인공지능 기술 및 딥페이크 조작으로 인한 새로운 위협에 대해서도 다루고 있습니다. 궁극적으로 이 가이드라인은 거대 기술 기업들이 각자의 플랫폼 내에서 발생할 수 있는 선거와 관련된 모든 잠재적 위험을 신중하게 고려하도록 촉구하며, 이는 강력한 인공지능 도구의 가용성 증가로 인해 더욱 악화될 수 있습니다.

유럽연합은 디지털 서비스법(DSA)으로 불리는 개정된 전자 상거래 규정의 적용 범위에 속하는 약 20개의 디지털 플랫폼과 검색 엔진 사업체를 대상으로 선거 보안 권고안을 발표했습니다.

매우 설득력 있고 설득력 있는 텍스트 콘텐츠, 시각적 미디어 또는 청각적 결과물을 생성하는 능력을 갖춘 대규모 언어 모델(LLM)과 같은 고급 인공 지능 시스템은 작년에 제너레이티브 AI가 널리 보급된 이후 큰 주목을 받고 있습니다. 이러한 추세로 인해 신생 기업과 기존 기술 기업이 만든 다양한 유형의 모델을 아우르는 새로운 제너레이티브 AI 애플리케이션이 쏟아져 나왔으며, 그중 일부는 광범위한 플랫폼과 서비스를 통해 매일 수많은 인터넷 사용자를 대상으로 서비스를 제공하고 있습니다.

유럽연합은 최근 발전하고 있는 인공 지능(AI) 기술에 대한 경고를 발표했습니다. 이 새로운 분야는 텍스트, 이미지, 동영상 등 다양한 형태의 미디어를 제작할 수 있는 AI의 개발을 가능하게 합니다. 이러한 혁신의 잠재적 이점은 매우 크지만, 선거 기간 중 사용과 관련된 특정 위험도 존재합니다. 특히, 제너레이티브 AI는 정치인과 관련된 허위, 기만적인 합성 콘텐츠, 사건의 왜곡된 묘사, 여론조사 결과, 맥락적 내러티브 또는 대체 현실의 생성 및 전파를 통해 유권자를 속이거나 선거 과정을 조작하는 등 사악한 목적으로 활용될 수 있습니다. 또한, 생성형 인공지능 시스템은 오류, 비논리적 또는 완전히 조작된 데이터를 생성하는 것으로 알려져 있습니다

유권자를 오도하는 데 반드시 엄청난 양의 계산 자원이나 고급 인공지능 시스템이 필요한 것은 아닙니다.일부 정치인들은 언어 사용만으로 ‘가짜 뉴스’를 만드는 기술을 연마해 왔습니다. 또한, 악의적인 행위자들은 동영상이나 다른 형태의 디지털 미디어를 교묘하게 조작하기 위해 항상 복잡한 생성 AI 기술에 의존하는 것은 아닙니다. 이러한 조작은 잠재적으로 기만적인 정치적 메시지를 생성할 수 있으며, 이러한 메시지는 소셜 미디어 플랫폼에서 쉽게 공유되고 논란이 되는 콘텐츠를 증폭시키도록 설계된 자동화된 계정과 쉽게 선동되는 인간 사용자에 의해 더욱 확산될 수 있습니다. 이러한 순환은 분열의 확산에 기여하고 조작된 내러티브와 관련된 숨겨진 의제를 영속화할 수 있습니다.

최근 메타의 감독 위원회가 조 바이든 전 미국 대통령이 등장하는 변조된 동영상을 처리한 이 거대 기술 기업에 대해 비판적인 평가를 내린 사례를 생각해 보세요. 이 위원회는 현재 규정에 따라 모더레이터가 유사한 콘텐츠를 인공 지능으로 제작했는지 아니면 수동으로 실행했는지에 따라 다르게 취급할 수 있으므로 모기업에 사기성 동영상에 관한 ‘일관성 없는’ 가이드라인을 수정할 것을 촉구했습니다.

실제로 선거의 공정성을 보장하기 위한 유럽연합의 접근 방식은 단순히 정치 광고 및 기타 형태의 허위 정보에서 인공지능이 생성한 위조 문제를 다루는 것 이상으로 확장된다는 점에서 주목할 만합니다.

온라인 플랫폼에서 유해한 콘텐츠의 제작과 유포에 대처하는 것이 중요하다는 점을 인정하면서도, GenAI는 이러한 플랫폼이 이러한 콘텐츠의 확산과 관련된 위험을 완화하기 위한 사전 조치를 취해야 할 필요성도 인식하고 있습니다.

모범 사례

유럽연합에서 검토 중인 가이드라인 제안에 따르면 규제 범위에 해당하는 플랫폼은 딥페이크 및 기타 형태의 미디어 조작을 포함하되 이에 국한되지 않는 AI 생성 미디어의 라벨링을 눈에 띄고 지속적으로 표시할 것을 제안하고 있습니다. 특히 실제 개인, 사물, 장소, 단체 또는 사건과 매우 유사하거나 실제 일어나지 않은 사건을 실제처럼 묘사하거나 오해의 소지가 있는 표현을 하는 모든 콘텐츠에 적용됩니다.

또한 플랫폼은 사용자가 쉽게 접근할 수 있는 AI 생성 콘텐츠 라벨링 도구를 제공할 것을 권장합니다.

제안된 가이드라인은 위험 감소 전략을 구현하기 위한 모범 사례는 최근 통과된 유럽연합의 AI 법과 이와 연관되어 있지만 구속력은 없는 AI 협약에서 도출될 수 있음을 나타냅니다. 특히, 제너레이티브 AI를 포함한 범용 인공지능 모델 제공업체에 대한 AI법의 규정과 ‘딥페이크’에 대한 라벨링 요건을 고려해야 합니다.또한, 생성형 AI 시스템 제공업체가 최첨단 기술을 활용하여 이러한 시스템에서 생성된 콘텐츠를 식별하도록 의무화하면 해당 플랫폼 사업자를 대신하여 이를 탐지할 수 있는 능력이 향상될 것입니다.

3월 7일까지 EU에서 공개 협의 중인 선거 보안 가이드라인 초안 에는 거대 기술 기업이 AI 생성 가짜의 생성 및 ‘대규모 유포 가능성’과 관련된 위험에 맞춰 “합리적이고 비례적이며 효과적인” 완화 조치를 마련하도록 하는 중요한 권고 사항이 포함되어 있습니다.

이 제안은 최종 사용자가 식별할 수 있는 방식으로 인공적으로 생성된 콘텐츠를 구별하기 위한 수단으로 메타데이터를 포함하는 디지털 워터마크를 사용할 것을 지지합니다. 또한 다른 형태의 합성 또는 조작된 멀티미디어 자산에도 유사한 처리를 적용할 것을 제안합니다.

특히 워터마킹 기술 활용의 중요성은 후보자, 선출직 공무원 또는 정치 단체 등 정치에 관여하는 개인과 관련된 모든 인공 지능 생성 콘텐츠에까지 확대됩니다. 또한 이 원칙은 비디오 녹화, 시각 이미지 및 사운드 녹음을 포함하여 생성형 인공지능 기술을 사용하여 조작된 멀티미디어 자료에도 적용됩니다.

제안된 가이드라인은 온라인 플랫폼에 워터마크 및 기타 “콘텐츠 출처 표시"를 식별할 수 있는 콘텐츠 중재 전략을 구현할 것을 권장합니다(초안 문서에 명시된 바와 같이). 또한 이러한 플랫폼이 생성형 AI 기술 개발자와 협력하고 이러한 마커를 정확하게 감지할 수 있는 최첨단 표준을 준수할 것을 권장합니다. 또한 이 제안은 이러한 도구의 기능과 호환성을 향상시키기 위한 새로운 기술 발전에 대한 지원을 옹호합니다.

콘텐츠 중재를 관리하고 온라인 서비스의 다양한 측면을 규제하는 디지털 서비스법(DSA)이 다음 달부터 광범위한 디지털 기업에 적용될 예정입니다. 하지만 이미 지난 8월 말부터 유럽 전역에서 월간 활성 사용자 수가 4,500만 명 이상인 대형 플랫폼 20여 곳에 이 법이 시행되고 있습니다. 현재까지 DSA가 파악한 초대형 온라인 플랫폼(VLOP)과 초대형 온라인 검색 엔진(VLOSE)은 페이스북, 인스타그램, 구글 검색, 틱톡, 유튜브 등 총 20개가 넘습니다.

대규모 온라인 플랫폼(VLOP)과 초대형 온라인 플랫폼(VLOSE)에는 표준 책임 외에도 추가적인 의무가 부과됩니다.이러한 의무는 민주적 절차와 같은 중요한 영역에서 플랫폼과 알고리즘의 운영으로 인해 발생하는 시스템적 위험을 해결해야 할 필요성에서 비롯됩니다. 예를 들어, 메타는 조만간 페이스북과 인스타그램의 정치적 기만 행위, 특히 일반 개인정보 보호 규정(GDPR)이 적용되는 유럽 연합에서 이에 대한 입장을 명확히 밝혀야 할 상황에 처할 수 있습니다. GDPR을 위반할 경우 전 세계 연간 매출의 최대 6%에 달하는 벌금이 부과될 수 있다는 점에 유의할 필요가 있습니다.

선거 기간 중 DSA 플랫폼에 대한 제안된 가이드라인은 제너레이티브 AI 활용에도 적용됩니다. 이러한 단체는 이 기술에서 파생된 모든 데이터가 관련 선거 기관의 권위 있는 선언과 같이 선거 과정과 관련된 신뢰할 수 있는 출처에 의해 뒷받침되도록 합리적인 조치를 취할 것을 권장합니다. 또한, 시스템에서 생성된 모든 인용 또는 참고 자료는 진실하고 원본 출처를 정확하게 나타내어 일반적으로 ‘환각’이라고 불리는 잘못된 정보나 오해의 소지가 있는 진술의 사례를 최소화할 것을 권장합니다.

범위 내 플랫폼은 GenAI가 생성한 콘텐츠의 잠재적인 불일치 또는 부정확성에 대해 사용자에게 알리고 검증을 위해 신뢰할 수 있는 정보 출처로 안내할 것을 권장합니다. 또한, 초안에 제시된 가이드라인에 따르면 기술 회사는 사용자 행동에 중대한 영향을 미칠 수 있는 오해의 소지가 있는 콘텐츠 생성에 선제적으로 대응하기 위해 ‘안전장치’라고 알려진 조치를 시행할 것을 권장합니다.

안전 기술 플랫폼이 구현해야 할 권장 안전 조치 중 하나는 잠재적인 보안 취약점을 사전에 적극적으로 찾아 조사하는 ‘레드팀’을 포함합니다. 이 권고사항은 “일반 대중에게 생성 AI 시스템을 제공하기 전에 내부 인력과 외부 컨설턴트를 모두 활용하여 선거 절차를 중심으로 레드팀 연습을 수행하고 기록하며, 예상치 못한 파급 효과를 보다 효과적으로 관리하기 위해 단계적 출시 전략을 구현하는 것을 고려해야 한다"고 명시하고 있습니다.

이러한 기술과 관련된 잠재적 위험을 완화하기 위해 디지털 안전청(DSA)의 권한에 속하는 생성 인공지능(GenAI) 배포자는 본 문구에 명시된 대로 선거 관련 정보와 관련하여 제공된 응답의 안전성 및 진실성과 관련된 영역에서 “관련 성과 지표"를 수립해야 하며, 또한 이러한 유전자 AI 시스템의 기능을 지속적으로 감독하고 필요할 때마다 시정 조치를 이행해야 합니다.

선거 과정에서 생성 AI 시스템의 잠재적 남용을 완화하기 위해 초안에서는 이러한 시스템에 안전 조치를 통합하여 불법, 기만 또는 허위 정보가 전파되는 것을 방지할 것을 제안하고 있습니다. 이러한 안전 조치의 예로는 선거 관련 활동에 적용되는 플랫폼의 서비스 약관 위반을 식별하고 차단하도록 설계된 신속한 분류기, 콘텐츠 중재자, 다양한 필터링 메커니즘 등이 있습니다.

인공지능이 생성한 콘텐츠의 경우, 가능한 경우 VLOP/VLOSE는 출력물 내에 입력 데이터로 사용된 특정 출처에 대한 참조를 포함시켜 사용자가 제공된 정보의 신뢰성을 평가하고 추가적인 맥락을 파악할 수 있도록 해야 하며, 이는 특히 선거와 같은 정치적 이벤트와 관련된 상황에서 합성 인공지능 답변과 함께 각주 같은 표시(You.com 등의 플랫폼에서 볼 수 있는)를 통합하려는 유럽연합의 성향에 부합하는 접근 방식인 것으로 보입니다.

외부 연구자 지원은 제안된 가이드라인의 중요한 측면으로, 디지털 서비스법 전체에 반영되어 디지털 마켓플레이스와 검색 엔진에 연구자들이 체계적 위험 조사를 위해 데이터에 쉽게 접근할 수 있도록 책임을 부과하고 있습니다. 이는 이러한 플랫폼에 대한 위원회의 규제 감독에서 주요 관심 분야 중 하나였습니다.

제안된 가이드라인은 인공지능으로 생성된 콘텐츠는 정치 선거와 관련된 잠재적 위험을 조사하고 이해하도록 설계된 전문 도구를 만드는 등 신중한 검토를 거칠 것을 권고합니다. 또한, 온라인 플랫폼 및 검색 엔진 제공업체가 초대형 온라인 플랫폼(VLOP) 및 초대형 온라인 검색 엔진(VLOSE) 제공업체에 관한 디지털 서비스법 제40조 12항에 명시된 의무에 따라 연구자들이 인공지능으로 제작된 자료를 쉽게 발견하고 꼼꼼하게 분석할 수 있는 전용 리소스를 구축할 것을 촉구합니다.

제안된 가이드라인은 광고에서 생성 인공지능의 활용을 다루며, 관련 위험을 완화하기 위한 플랫폼 조정을 옹호합니다. 여기에는 마케터가 홍보 자료 또는 스폰서 게시물 내에서 인공 지능을 사용하여 생성된 콘텐츠를 명확하게 식별할 수 있는 메커니즘을 통해 투명성을 촉진하는 동시에 광고 정책에서 이러한 표시 요건을 준수하도록 의무화하는 것이 포함될 수 있습니다.

선거 공정성과 관련하여 플랫폼 및 검색 엔진과 관련하여 유럽연합이 지지할 정확한 행동 방침은 아직 세부 지침에 명시되지 않았기 때문에 불확실성이 남아 있습니다. 그러나 초기 초안에 따르면 EU는 철저한 제안과 최적의 접근 방식을 제시하는 것을 목표로 하고 있습니다.

플랫폼은 제안된 지침을 무시할 수 있지만 법적 구속력이 있는 디지털 서비스법(DSA)을 준수해야 할 의무가 있으며, 이를 준수하지 않을 경우 SpaceX(엘론 머스크가 이끄는)와 같은 대체 옵션에 대한 조사가 강화될 수 있습니다. 또한 플랫폼은 가이드라인을 제정할 뿐만 아니라 DSA 프레임워크에 명시된 규정을 집행하는 유럽위원회 앞에서 자신의 방식을 설명할 준비가 되어 있어야 합니다.

EU 은 오늘 를 통해 선거 보안 가이드라인이 VLOP/VLOSE에 초점을 맞춘 35조(“위험 완화”) 조항에 따라 최초로 마련된 것으로, 플랫폼에 “민주적 선거 절차의 무결성을 위협할 수 있는 플랫폼의 시스템적 위험을 완화하기 위한 모범 사례 및 가능한 조치"를 제공하는 것이 목표라고 밝혔습니다.

5년마다 치러지며 6월 초에 예정된 새로운 유럽의회 선거는 정치권에서 중요한 논의 주제가 되고 있습니다. 가이드라인 초안에는 유럽의회 선거에 관한 구체적인 권고 사항도 포함되어 있으며, 민주주의 시스템의 힘을 시험하는 이 중요한 선거에 온라인 플랫폼이 적절히 대비하는 것이 중요하다는 점을 강조하고 있습니다. 이러한 최종 가이드라인은 여름이 시작되기 훨씬 전에 발표될 것으로 예상됩니다.

유럽연합의 내부 시장 담당 집행위원인 티에리 브르통은 발언에서 다음과 같이 언급했습니다:

디지털 서비스법의 제정으로 유럽은 민주주의 사회에 해로운 결과를 초래할 수 있는 온라인 플랫폼과 관련된 시스템적 위험을 완화하기 위한 법안을 마련한 최초의 대륙이라는 명성을 얻게 되었습니다.2024년은 다가오는 선거로 인해 매우 중요한 해이므로, 언론의 자유라는 기본권을 지키면서 플랫폼 의무를 준수하고 선거 과정의 조작 가능성을 방지하기 위해 DSA에 명시된 조항을 최대한 활용하는 것이 필수적입니다.