FCC, 딥페이크 음성 복제를 사용한 로보콜 금지
2024년 2월 8일 연방통신위원회 는 인공 지능으로 생성된 음성을 사용하는 로보콜 을 불법화했습니다.
1991년 전화 소비자 보호법 은 로보콜에서 인공 음성을 금지하고 있습니다. FCC의 2월 8일 판결 은 실제 사람의 목소리를 복제한 것을 포함하여 AI가 생성한 음성은 인공적인 것이므로 법으로 금지한다고 선언합니다.
2024년 1월 21일 조 바이든 대통령처럼 들리는 로보콜의 뒤를 이은 조치입니다. 전화에는 바이든의 목소리 가 바이든과 민주당을 지지하는 유권자들에게 뉴햄프셔의 1월 23일 공화당 예비선거에 참여하지 말 것을 촉구하는 내용이 담겨 있었습니다. 는 등록된 민주당원도 공화당 예비선거에 투표할 수 있으며 예비선거에 투표한 유권자는 11월에 있을 본선거에 투표할 자격이 없다는 를 거짓으로 암시하는 전화를 걸었습니다.
예비선거 이틀 전에 걸려온 전화는 인공지능 딥페이크 로 보입니다. 또한 투표를 방해하려는 시도 .
FCC와 뉴햄프셔주 법무장관실에서 이 전화를 조사하고 있습니다. 2024년 2월 6일, 뉴햄프셔 주 법무장관 존 포멜라 는 두 개의 텍사스 회사 , 라이프 코퍼레이션 및 링고 텔레콤을 각각 이 전화의 발신자와 송신자로 지목했습니다.
혼란을 야기
선거에서의 로보콜은 새로운 것이 아니며 불법이 아닙니다 ; 많은 사람들이 단순히 투표를 하기 위한 노력입니다. 하지만 유권자 탄압 캠페인에도 사용되었습니다. 이 사례에서 이 문제를 더욱 복잡하게 만드는 것은 바이든의 목소리를 복제하기 위해 AI를 적용한 것입니다.
불협화음으로 가득 찬 환경에서 딥페이크 로봇 통화와 같은 기타 신호가 만연한 상황에서 진실과 조작을 구별하는 것은 완전히 불가능하지는 않더라도 매우 어려운 일이 됩니다.
앞서 언급한 전화 통신에 대한 조사가 뉴햄프셔 주 법무장관실에 의해 시작되었습니다.
최근 온라인에 사칭 서비스를 제공하는 회사가 다수 등장했습니다 . 저와 같은 사용자는 메뉴에서 조 바이든, 도널드 트럼프 또는 일론 머스크와 같은 정치인, 유명인 또는 경영진을 선택하고 그들이 말하는 것처럼 보이도록 대본을 입력하기만 하면 웹사이트에서 자동으로 딥페이크가 만들어집니다.
일반적인 오디오 및 시각 콘텐츠의 프레젠테이션은 울렁거리고 부자연스러운 품질을 보일 수 있지만, 자동화된 전화를 통해 전달되면 커뮤니케이션에 부여된 신뢰도가 상당히 설득력 있게 느껴집니다. 조 바이든 전 부통령의 녹음된 메시지를 듣고 있다고 인식하기는 어렵지 않지만, 실제로는 인공지능이 허위 정보를 생성한 결과물입니다.
문맥이 핵심이다
나는 미디어 및 허위 정보 학자 . 2019년에 정보 과학자 영국 파리 와 저는 오늘날 대부분의 사람들이 AI라고 생각하는 생성적 적대적 네트워크 가 기관이 실제와 같은 오디오 및 비디오 조작을 판단할 때 증거를 평가하고 결정을 내리는 방식을 어떻게 변화시킬 수 있는지를 연구했습니다. 우리가 발견한 것은 어떤 미디어도 그 자체만으로는 신뢰할 수 없으며, 해석을 내릴 때는 맥락이 중요하다는 것입니다.
인공 지능이 강화된 딥페이크의 신뢰도는 위치와 유통 채널에 따라 달라집니다. 공신력 있는 출처의 확인이 없는 딥페이크는 재미나 흥미를 유발할 수는 있지만 법적 소송에서 입증하기에는 부족합니다. 그럼에도 불구하고 이러한 조작된 동영상은 투표율에 영향을 미치고 논란이 되는 사안에 대한 의견을 형성함으로써 해를 끼칠 가능성이 있습니다.
악명 높은 뉴햄프셔 로보콜에서 예시된 것처럼 기만적인 콘텐츠를 전파하는 데 인공 지능을 활용하는 것은 다른 다양한 형태의 허위 정보와 관련된 문제와 유사합니다.
AI로 강화된 허위 정보 캠페인은 출처를 밝히려면 미디어에 대한 데이터인 메타데이터의 흔적을 추적해야 하기 때문에 대응하기 어렵습니다. 이 작업은 로보콜, 소셜 미디어, 이메일, 문자 메시지, 웹사이트 등 배포 방법에 따라 수행 방법이 달라집니다. 현재 오디오 및 비디오 조작에 대한 연구는 많은 대기업이 애플리케이션 프로그래밍 인터페이스에 대한 액세스를 차단하여 연구자들이 소셜 미디어에 대한 데이터를 수집할 수 없게 되었기 때문에 더 어렵습니다. 신뢰 및 안전 팀 .
시의적절하고 정확한 현지 지식
악명 높은 뉴햄프셔 로보콜 사건과 같이 사기성 콘텐츠를 전파하는 데 인공 지능을 활용하는 것은 다른 모든 형태의 잘못된 정보와 유사한 문제를 야기합니다.선거 과정을 방해하기 위해 AI를 사용하는 적들은 종종 자신들의 행동을 감추기 위해 노력하며, 이는 가짜 텔레비전 방송과 의심스러운 뉴스 매체와 관련된 의심스러운 소셜 미디어 계정 등 의심스러운 출처에서 나오는 확인되지 않은 정보에 대한 대중의 경계가 중요하다는 점을 강조합니다.
일반 대중이 현대의 오디오 및 시각 조작 기술의 능력을 이해하는 것은 매우 중요합니다. 이러한 기술이 널리 보급됨에 따라, 이 중요한 선거 기간 동안 최근 허위 바이든 로보콜 조작 사건에서 입증된 것처럼 이러한 행위의 불법성에도 불구하고 인공지능을 이용한 허위 정보 캠페인이 증가할 것으로 예상됩니다.
제 생각에는 우리 사회가 시의적절하고 정확한 지역 지식을 의미하는 TALK의 중요성을 인식하고 존중해야 할 필요성이 절실히 있습니다. 불협화음과 분열을 조장하기보다는 TALK를 가장 중요시하는 소셜 미디어 플랫폼을 구축하는 것이 필수적입니다.
민주적 절차의 무결성을 지키기 위해서는 악의를 가진 개인이 선거 과정을 훼손할 수 있는 기회를 악용하는 것을 어렵게 만드는 것이 필수적입니다. 그러한 사례 중 하나는 유자격 시민의 투표권 행사를 방해하기 위해 기술적 수단을 악의적으로 활용하는 것입니다. 이와 관련하여 연방 및 주 법 집행 기관은 선거의 정당성을 보장하고 대의 정부의 기반을 유지하기 위해 이러한 부도덕한 활동에 대한 철저한 조사를 실시하는 것이 필수적입니다.
딥페이크는 일부 개인에게 충격으로 다가올 수 있지만, 정보의 확산 속도가 정확성을 검증할 수 있는 능력을 뛰어넘는다고 해도 그 잠재적 영향에 대해 경각심을 갖고 대비하는 것이 중요합니다.
이 문서는 2024년 1월 23일에 처음 게시된 기사의 업데이트 버전입니다. 
조안 도노반 , 저널리즘 및 신흥 미디어 연구 조교수, 보스턴 대학교
이 문서는 Creative Commons 라이선스에 따라 The Conversation 에서 재게재되었습니다. 원본 기사 읽기 .
자세히 보기
기술 정보