EU, 선거를 앞두고 GenAI 위험에 대한 주요 플랫폼에 대한 조사 강화
유럽위원회는 최근 구글, 메타, 마이크로소프트, 스냅, 틱톡, X에 생성 인공 지능 활용과 관련된 잠재적 위험 관리와 관련한 문의를 다수 발송했습니다.
디지털 상거래 및 온라인 규제 가이드라인을 포괄하는 입법 체계인 디지털 서비스법(DSA)의 적용 범위 내에서 Bing, Facebook, Google 검색, Instagram, Snapchat, TikTok, YouTube 및 “X"로 통칭되는 추가 불특정 플랫폼 등 다양한 유명 인터넷 기반 서비스에 대한 요청이 제기되고 있습니다. 이러한 기업들은 DSA 내에서 지정됨에 따라 초대형 온라인 플랫폼(VLOP)으로 분류되어 규정된 규정의 전체 범위를 준수할 뿐만 아니라 운영과 관련된 잠재적 시스템 위험을 평가하고 완화할 의무를 지게 됩니다.
목요일 보도 자료 에서 위원회는 AI 기술이 허위 정보를 생성하는 이른바 ‘환각’, 딥페이크의 바이러스 유포, 유권자를 오도할 수 있는 서비스의 자동 조작 등 서비스에서 생성 AI와 관련된 위험에 대한 각자의 완화 조치에 대한 자세한 정보를 제공할 것을 요청한다고 밝혔습니다.
유럽위원회는 정치 광고에서 생성 AI의 사용에 대한 데이터를 찾는 것 외에도 이 기술의 잠재적 영향의 다양한 측면과 관련된 정보 및 내부 문서에 대한 일련의 요청을 내놓았습니다. 이러한 분야에는 선거 과정에 대한 영향, 불법 자료의 배포, 기본 인권 보호, 젠더 기반 폭력 예방, 미성년자의 복지 보호, 심리적 복지 증진 등이 포함됩니다. 이러한 질의의 범위는 인공지능에 의해 생성된 콘텐츠의 생성 및 유통을 모두 포함합니다.
유럽연합(EU)은 기자들과의 인터뷰에서 연휴 기간 이후 일련의 종합적인 평가를 실시할 예정이라고 발표했습니다. 이러한 평가의 목적은 첨단 인공지능 기술과 관련된 잠재적 위협, 특히 6월 유럽의회 선거를 앞두고 정치적 동기를 가진 조작된 미디어 콘텐츠의 제작 및 유포와 관련된 위협에 대처하기 위한 다양한 디지털 플랫폼의 준비 상태를 측정하는 것입니다.
다가오는 선거를 맞아 유럽연합 집행위원회는 잠재적인 보안 위협이나 사고에 대비하기 위한 온라인 플랫폼의 노력에 대한 투명성 강화를 요구하고 있습니다. 유럽연합 집행위원회의 한 고위 관리는 익명을 전제로 이러한 의견을 표명했습니다.
자발적 라이선스 최적화 제공업체(VLOP)가 빅테크 기업을 대상으로 한 특정 디지털 서비스 계약(DSA)을 준수하도록 하는 책임을 맡고 있는 유럽연합은 선거 보안을 규제 감독에서 중점적으로 다루는 분야로 지정했습니다. 이와 관련하여 EU는 현재 전반적인 선거 절차를 개선하기 위한 협의와 공식 가이드라인 초안 작성에 참여하고 있습니다.
유럽연합이 최근 소셜 미디어 기업에 요청한 정보 요청은 주로 이와 관련한 집행위원회의 지침에 부합하기 위한 것입니다. 이들 기업은 긴급한 사안으로 간주된 선거 절차의 보안과 관련된 데이터를 제출할 기한을 4월 3일까지 부여받았지만, 유럽연합은 그 전에 선거 보안 프로토콜을 3월 27일에 마무리할 계획입니다.
딥페이크와 같은 인공 미디어 제작 비용이 감소함에 따라 선거 과정에서의 속임수와 조작 가능성에 대한 우려가 커지고 있습니다. 이에 따라 규제 기관은 정치적 동기를 가진 딥페이크 콘텐츠를 광범위하게 배포할 수 있는 대규모 디지털 플랫폼에 대한 모니터링에 더욱 중점을 두고 있습니다.
기술 업계 지난달 뮌헨 안보 회의에서 나온 선거 기간 중 AI의 기만적인 사용을 막기 위한 협정 은 현재 집행위원회가 RFI를 보내는 플랫폼과 동일한 여러 플랫폼의 지지를 받고 있지만 EU의 입장에서는 충분히 진전되지 않은 것으로 보입니다.
곧 발표될 선거 보안 가이드라인은 세 가지 보호 계층을 활용할 계획이므로 포괄적일 것으로 예상됩니다. 여기에는 특정 위험 시나리오를 식별하고 완화할 수 있도록 디지털 서비스 법에 명시된 명확한 실사 규칙이 포함됩니다. 또한, 위원회는 법적 구속력이 없는 허위정보 방지 실천 강령을 통해 온라인 플랫폼과 5년 이상 협력한 경험을 축적해 왔으며, 이는 DSA에 따라 법적 구속력이 있는 행동 강령으로 전환될 예정입니다. 마지막으로, 새로운 인공지능법에 따른 투명성 표시 및 인공지능 모델 표시 규정의 시행은 자유롭고 공정한 선거를 보장하기 위한 위원회의 노력을 더욱 강화할 것으로 예상됩니다.
유럽 연합은 선거 전에 활용할 수 있는 ‘집행 생태계’를 구축하는 것을 목표로 하고 있다고 관계자는 밝혔습니다.
현재 선거관리위원회의 조사는 투표 과정의 조작 가능성을 넘어 생성 인공지능 기술과 관련된 추가적인 위험까지 포괄하고 있습니다. 이러한 우려에는 딥페이크와 다른 형태의 악의적인 미디어 조작을 통한 외설적인 동영상 또는 이미지 제작이 포함됩니다. 이러한 요청은 혐오 발언과 같은 유해 콘텐츠의 완화, 불쾌한 콘텐츠로부터 어린이 보호 등 온라인 플랫폼에 대한 유럽연합의 다른 중요한 규제와도 일치합니다.
앞서 언급한 생성 인공지능 관련 정보 요청(RFI)과 관련한 답변 제출 기한을 4월 24일로 정하고, 모든 관련 플랫폼에 답변을 제출할 것을 요청했습니다.
유럽연합은 소규모 플랫폼과 AI 도구 개발자를 기만적이고 해로운 딥페이크 콘텐츠의 유포 및 제작의 잠재적 출처로 파악했습니다. 이러한 단체는 이러한 위협을 완화하기 위한 EU의 위험 관리 이니셔티브의 범위에 속합니다.
초대형 온라인 플랫폼(VLOP)에 대한 규제 당국의 감독은 명시적으로 지정되지 않은 플랫폼 및 도구에는 적용되지 않습니다. 그러나 규제 당국이 영향력을 확대하기 위해 취하고 있는 접근 방식은 콘텐츠의 증폭기 또는 유통 채널 역할을 하는 보다 포괄적인 단체를 통해 이러한 플랫폼에 간접적인 압력을 가하는 것입니다. 또한, 가까운 시일 내에 제정될 것으로 예상되는 (입법) AI법이 채택되면 허위 정보 규범과 향후 제정될 AI 협약을 포함한 자율 규제 조치가 적용될 것입니다.