Contents

EU, 범용 AI에 대한 새로운 규칙은 시간이 지남에 따라 진화할 수 있다고 말함

Contents

/images/eu-says-incoming-rules-for-general-purpose-ais-can-evolve-over-time.jpg

세계 최초의 인공 지능 규제 프레임워크와 관련하여 금요일 EU 입법자들이 합의한 내용에는 이 선구적인 분야의 발전을 설명하기 위해 필요에 따라 포괄적인 AI 지침을 수정할 수 있는 권한을 유럽위원회에 부여하는 조항이 포함되어 있다고 관리 기관이 발표한 성명에서 밝혔습니다.

현재 제너레이티브 인공지능 기술의 성장을 주도하는 매우 영향력 있는 인공지능 모델(EU법상 “범용” 모델이라고 함)을 규율하는 데 사용되는 용어를 입법자들이 선택한 것은 향후 법적 프레임워크의 지속적인 관련성을 보장하기 위한 의식적인 결정을 반영한 것입니다. 유럽위원회는 정책 입안자들이 법의 범위를 특정 기술로 제한하지 않기 위해 ‘기초’ 또는 ‘최첨단’과 같은 전문 용어를 선택하는 대신 보다 일반적인 명칭을 선택했다고 언급했습니다. 이러한 접근 방식은 해당 분야의 발전이 계속 진화함에 따라 유연성과 적응성을 유지하기 위한 것입니다.

유럽 데이터 보호 위원회(EDPB)는 다양한 작업을 수행할 수 있는 머신러닝 모델에 대한 보다 포괄적인 용어로 ‘블랙박스’를 ‘범용 인공 지능(AI)‘으로 대체할 것을 제안했습니다. 이러한 변화는 현재 블랙박스에만 적용되는 투명성 요건을 넘어 규제의 확대로 이어질 수 있습니다. 이 문제에 대한 EDPB의 의견은 규제 당국이 고위험 애플리케이션을 평가하고 알고리즘이 엄격한 데이터 보호 규칙에 해당되는지 여부를 결정하는 데 지침이 될 것입니다.

앞서 언급한 바와 같이, EU 입법부 간에 체결된 합의에는 범용 인공지능(GP AI)을 규제하기 위한 두 가지 계층, 즉 저위험 범주와 고위험 범주로 분류하는 내용이 포함되어 있습니다. 이 분류 체계는 OpenAI의 ChatGPT와 같이 창의적인 AI 애플리케이션에 사용되어 널리 주목받고 있는 GPAI에 적용됩니다. 이러한 기술에 더 엄격한 통제를 적용해야 하는 시기의 결정은 법적 프레임워크 내에서 설정된 사전 결정된 임계값에 따라 달라집니다.

지난 목요일에 발표한 이전 보고서에 따르면, 제안된 유럽연합 인공지능 법안은 이러한 모델을 훈련하는 데 사용되는 계산 리소스, 특히 부동소수점 연산 또는 FLOP을 고려하고 있습니다. 범용 인공 지능(GPAI) 범주에서 ‘상당한 영향력’을 가진 것으로 인정받으려면 AI 시스템이 100경(10^25) FLOP의 임계값을 초과해야 합니다.

유럽위원회는 기자들을 대상으로 한 기술 브리핑에서 온라인 플랫폼 서비스 신고(FOPS)의 초기 기준은 ‘초기’ 기준일 뿐이며 향후 위임 또는 시행령을 통해 이를 조정할 권한이 있음을 확인했습니다. 또한, 위원회는 위원회의 후원 하에 신설된 전문 모니터링 기관인 AI 사무소에서 개발 중인 다른 지표와 FOPS 기준을 결합할 의향이 있다고 밝혔습니다.

범용 인공 지능(GPAI)에 대한 고위험 임계값 25 FLOPs의 선정은 유럽 위원회의 면밀한 검토를 거쳤습니다. 이 수치는 당시 최첨단 AI 모델을 포괄하기 위한 목적으로 선택된 것으로 추정되지만, OpenAI의 GPT-4 및 Google의 Gemini와 같은 고급 시스템에 대한 적용 가능성에 대한 의문이 제기되고 있습니다. 이러한 문제는 규정 채택을 위한 협상 과정에서 의원들 사이에서 논의되지 않은 것으로 보이며, 이 기준이 현대 AI 기술의 발전하는 능력에 얼마나 부합하는지에 대한 우려를 불러일으키고 있습니다.

범용 인공지능(GPAI) 시스템 제조업체는 궁극적으로 자사 제품이 금융안정위원회(FSB)의 장애 해결 및 운영 복원력(FLOP) 프레임워크에서 정한 기준을 충족하는지 평가하여 특정 GPAI가 ‘시스템적 위험’을 갖고 있는지 여부를 결정해야 할 책임이 있습니다. 따라서 이러한 시스템을 개발하는 책임자는 개별적으로 이러한 판단을 내려야 합니다.

최근 기자 회견에서 이 단체의 익명의 대표는 ChatGPT, Gemini 또는 기타 중국 모델과 같은 챗봇이 “FLOPS"라는 용어가 나타내는 성능 수준에 도달했다고 주장하는 권위 있는 출처는 현재 존재하지 않는다고 말했습니다. 10^25라는 특정 수치를 선택하기로 한 결정은 이용 가능한 정보를 바탕으로 이루어졌으며 오늘날 존재하는 최첨단 모델을 어느 정도 대표하는 역할을 합니다. 그러나 이 수치가 GPT-4나 제미니와 같은 발전을 정확하게 반영하고 있는지는 각 회사에서 정확한 FLOPS 수를 결정해야 하기 때문에 확실하게 확인할 수 없습니다. 그럼에도 불구하고 과학계에서 발표된 다양한 연구에 따르면 이 수치는 일반적으로 가장 최신의 수치로 간주되며

이 규정이 특정 기업을 특별히 고려하지 않고 만들어졌다는 점에 유의하는 것이 중요합니다. 오히려 기술의 발전에 따라 시간이 지남에 따라 변화할 수 있는 기본 기준을 설정하는 것이 주된 목적이었습니다.이 임계값은 잠재적으로 증가하거나 감소할 수 있으며, 향후 다양한 상황을 평가하는 데 더 적합한 지표로 새로운 기준이 등장할 수 있습니다.

인공지능법의 고위험 등급으로 분류된 인공지능 시스템은 잠재적인 시스템 위험을 평가하고 최소화하기 위한 선제적 규제 조치를 받게 됩니다. 여기에는 공공의 안녕, 안전, 시민의 자유 또는 전반적인 사회 복지에 대한 해로운 결과의 가능성을 줄이기 위한 목적으로 모델 결과에 대한 포괄적인 테스트가 수반됩니다.

“하위 계층” 범용 인공 지능(GPAI) 시스템은 덜 엄격한 투명성 전제 조건이 적용되지만, 생성된 AI 출력에 디지털 워터마크를 적용하는 등 최소한의 요건을 준수해야 합니다.

범용 인공 지능(GPAI)에 대한 워터마킹 전제 조건의 통합은 2021년 4월에 위원회가 제안한 위험 기반 프레임워크의 초기 버전에 포함된 조항으로, 인공지능 챗봇 및 딥페이크 시뮬레이션과 같은 혁신에 대한 투명성 필요성을 강조했지만, 이제 이 규칙은 더 광범위한 GPAI 시스템에 적용될 수 있도록 더 광범위하게 적용될 것입니다.

합의된 워터마킹 요건을 구체화하는 과정에서 위원회 담당자가 언급한 바와 같이, 현재 현장에서 사용 가능한 최첨단 기술을 사용하여 인공지능으로 생성된 텍스트에 워터마크를 통합하는 것이 필수적입니다. 현재의 기술은 텍스트 자료에 비해 비디오 및 오디오 콘텐츠에 워터마크를 삽입하는 데 탁월한 효율성을 보이지만, 이러한 마킹은 업계의 최신 기술을 준수하는 것이 필수적입니다. 앞으로도 이러한 워터마킹 방법은 지속적으로 개발 및 개선되어 최적의 성능 수준을 달성하기 위해 노력할 것으로 예상할 수 있습니다.

GPAI 모델을 만들려면 개발자는 유럽연합 저작권 규정을 준수해야 하며, 여기에는 유럽연합 저작권 지침에 명시된 텍스트 및 데이터 마이닝에 대한 기계 판독 가능 옵트아웃에 관한 현행 조항을 준수하는 것이 포함됩니다. 오픈 소스 GPAI가 법에 따라 특정 투명성 요건에서 면제되더라도 저작권 책임이 면제되는 것은 아니라는 점에 유의해야 합니다. 유럽연합 집행위원회는 저작권 지침이 모든 오픈소스 GPAI에 여전히 적용됨을 확인했습니다.

범용 인공지능 시스템의 위험 분류 기준을 결정하는 데 중요한 역할을 하는 인공지능 사무국과 관련하여, 유럽연합 집행위원회는 아직 이러한 결정을 감독하는 전문 그룹에 대한 구체적인 예산이나 인력 배분을 지정하지 않았습니다. 그러나 토요일 아침 이른 시간에 유럽연합의 내부 시장 담당 집행위원인 티에리 브르통은 유럽연합이 AI 모니터링 전담 조직을 설립함에 따라 인력이 크게 늘어날 수 있다고 밝혔습니다.

제안된 AI 사무소의 자원 배분과 관련하여 익명의 유럽연합 집행위원회 관계자는 이러한 결정은 궁극적으로 유럽연합의 행정부가 “공식적이고 적절한” 결정을 통해 이루어질 것이라고 말했습니다. 이 계획에는 임시직과 정규직 인력을 동시에 활용하면서 사무실에 대한 재정적 할당량을 설정하는 것이 포함됩니다. 또한 위원회는 필요한 경우 회원국의 국가 전문가를 고용할 수도 있습니다. 이들 중 일부는 유럽위원회의 다른 부서에서 근무할 수도 있습니다.

인공지능 사무소는 제안된 법안에 따라 첨단 인공지능 시스템과 관련된 잠재적 결과와 위험에 대한 규제 당국의 이해를 높이고, 이를 통해 시스템적 위험을 보다 효율적으로 관리하기 위해 새로 설립될 과학 자문위원회와 협력할 예정입니다. 이와 관련하여 이 문제를 감독하는 책임자는 이러한 복잡한 기술 프레임워크 내에 숨겨져 있을 수 있는 새로운 위협이나 취약점, 특히 FLOP 임계값과 같은 기존 지표를 통한 탐지를 피할 수 있는 취약점을 인공지능 사무소에 알리는 데 있어 과학 패널의 중요한 기능을 강조했습니다.

유럽 연합의 행정부가 향후 입법과 관련하여 투명성에 대한 강한 열망을 표명했지만, 금요일 저녁 늦게 타결된 연장 협상에서 합의된 내용을 압축하고 명확히 할 필요가 있기 때문에 현재로서는 확정된 문안이 없음에도 불구하고 논쟁의 여지가 있는 특정 문제가 작은 글씨 안에 숨겨져 있을 가능성이 여전히 남아 있습니다. 따라서 1월에서 2월 사이에 공개될 것으로 예상되는 최종 문안을 면밀히 검토할 필요가 있습니다.

규제 조치가 완전히 시행되기 전의 임시 기간 동안 유럽연합은 AI 협정 이니셔티브를 통해 범용 인공지능(GPAI) 기업이 확립된 윤리 지침과 모범 사례를 준수할 것을 권고하고 있습니다.따라서 이러한 가이드라인이 아직 법적 구속력을 갖지는 않지만, 역내에서 활동하는 거대 기술 기업들은 향후 예상되는 엄격한 규제를 준수하기 위해 상당한 조사를 받게 될 것으로 보입니다.

특정 절차적 단계를 거쳐야 하므로 EU AI 법의 시행은 2026년 이후에야 완전히 발효될 수 있습니다. 최종 문안을 작성하고, 각 회원국의 언어로 번역하고, 의회와 이사회에서 최종 투표를 통해 승인한 후, 유럽연합의 공식 저널에 게재되기까지 약간의 기간이 소요됩니다. 법안이 발효되기까지 또 다른 기간이 경과합니다.

유럽연합의 규정에 따라 입법자들은 이 법 조항의 점진적 이행 전략을 수립하여 범용 인공지능 시스템과 관련된 엄격한 지침이 시행되기까지 24개월의 기간을 허용했습니다.

인공지능 활용에 대한 엄격한 제한의 시행은 법안 제정 후 6개월 이내에 시작될 것으로 예상되며, 이에 따라 2024년 중반까지 클리어뷰 AI와 같은 플랫폼을 통한 셀카의 무단 수집에 기반한 안면 인식 기술 사용 등 특정 고위험 인공지능 애플리케이션이 금지될 수 있을 것으로 보입니다. 이 일정은 제안된 규제 프레임워크에 대해 유럽 연합 이사회 또는 의회의 심의 과정에서 이의를 제기하지 않는다고 가정한다는 점에 유의해야 합니다. 금지된 AI 관행에 대한 포괄적인 목록은 이전 보고서를 참조하세요.