영국 정부는 'AI 골드러시'를 놓치지 않기 위해 LLM에 대한 보다 긍정적인 전망을 채택할 것을 촉구했습니다.
인공지능 안전에 대한 영국 정부의 시각이 지나치게 제한적이어서 빠르게 발전하는 인공지능 개발 분야에서 영국이 뒤처질 수 있다는 주장이 최근 발표되었습니다.
영국 하원의 통신 및 디지털 위원회가 작성한 이 보고서는 대형 기술 기업, 학술 기관, 벤처 캐피털리스트, 언론, 정부 기관 등 수많은 당사자가 참여한 오랜 기간의 증언 수집을 통해 나온 결과물입니다.
이 연구는 정부가 대규모 언어 모델(LLM)과 같은 고급 AI 시스템과 관련된 즉각적이고 임박한 위험, 특히 저작권 위반과 허위 정보 유포 등 과장된 재앙적 결과나 억지스러운 실존적 위험에 지나치게 몰두하는 대신 저작권 침해와 허위 정보 유포에 대처하는 데 중점을 둬야 한다는 것을 보여줍니다.
인공지능 언어 모델의 비약적인 발전은 인터넷의 출현과 마찬가지로 사회에 큰 영향을 미칠 수 있는 잠재력을 가지고 있습니다. 정부는 현재의 가능성과 미래의 불확실성을 모두 고려하여 적절한 전략을 채택하는 것이 필수적입니다. 영국이 유망한 AI 혁명의 기회를 놓치지 않도록 위험 완화와 가치 있는 기회 포착의 균형을 맞추는 것이 목표가 되어야 합니다.
이 연구는 수많은 국가가 산업과 사회 모두를 재구성할 것으로 보이는 인공지능의 급증하는 유입에 직면하고 있는 글로벌 현상 속에서 발표되었습니다. 지난 12개월 동안 일반 대중의 상상력을 사로잡은 OpenAI의 ChatGPT는 이러한 트렌드를 상징하는 대표적인 사례임이 분명합니다. 결과적으로 이러한 열광적인 반응은 환희와 두려움 등 다양한 감정을 불러일으키며 AI 기술 감독을 둘러싼 격렬한 담론을 촉발시켰습니다. 최근 바이든 대통령은 AI 시스템의 안전과 보안을 보장하기 위한 기준을 마련하기 위한 행정명령을 발표했고, 영국은 이 분야에서 리더십을 발휘하기 위해 노력하고 있습니다
동시에 이 혁신적인 기술에 대해 어느 정도의 통제권을 행사해야 하는지에 대한 논쟁이 커지고 있습니다.
규제 포획
메타의 수석 AI 과학자 얀 르쿤은 최근 수십 명의 서명자들과 함께 AI 개발의 개방성 확대를 촉구하는 공개 서한에 서명했는데, 이는 오픈AI와 구글 같은 기술 기업들이 개방형 AI R&D에 반대하는 로비를 통해 ‘AI 산업의 규제 포획 ‘을 확보하려는 움직임에 대응하기 위한 노력의 일환입니다.
이 서신은 의도한 목표에 부합하지 않는 요소를 통제하기 위한 규제 조치를 성급하게 시행하면 경쟁을 저해하고 창의성을 억압하는 권력 집중을 초래할 수 있다는 점을 강조했습니다. 저자들은 열린 대화를 수용하면 정책 결정에 대한 투명한 접근 방식을 촉진하여 안전, 보안, 책임성 등 원하는 결과를 달성할 수 있도록 정책을 설계할 수 있다고 주장했습니다.
대규모 언어 모델과 생성적 AI에 관한 하원의 보고서는 인공지능이 책임감 있고 편향되지 않도록 보장하는 데 있어 시장 경쟁의 중요한 역할을 강조합니다. 저자들은 정부가 경쟁력을 명확한 AI 정책 목표로 설정하여 OpenAI 및 Google과 같은 지배적 사업자의 잠재적 규제 영향력을 방지할 것을 촉구합니다.
실제로 ‘폐쇄형’ 시스템과 ‘개방형’ 시스템의 문제는 이 보고서 전반에 걸쳐 반복되는 주제이며, 경쟁 역학과 규제 감독이 AI/LLM 시장의 주도권 경쟁에서 어떤 기업이나 접근 방식이 우위를 차지할지 결정하는 데 중요한 요소라는 점을 시사합니다.
본질적으로 ‘제한된’ 시스템을 유지하는 기업과 기본 기술을 퍼블릭 도메인에 더 많이 노출하는 기업 간의 경쟁이 벌어지고 있습니다.
위원회의 보고서에 따르면 이 문제에 대해 행정부가 개방형 또는 폐쇄형 전략을 지지하는 명확한 입장을 취해야 하는지 면밀히 검토했다고 합니다. 그 결과 “복잡하고 점진적인 방법론이 필수적"이라는 결론에 도달했습니다. 그러나 조사 과정에서 수집된 정보는 관련 당사자들의 서로 다른 목표에 의해 영향을 받았습니다.
예를 들어, 마이크로소프트와 구글은 일반적으로 “오픈 액세스” 기술을 지지한다고 언급했지만, 공개적으로 사용 가능한 LLM과 관련된 보안 위험이 너무 커서 더 많은 가드레일이 필요하다고 생각했습니다. 예를 들어, Microsoft의 서면 증거 에서 Microsoft는 “모든 행위자가 고도의 기능을 갖춘 [대규모 언어] 모델이 제기하는 문제를 해결할 의도가 있거나 장비를 잘 갖추고 있는 것은 아니다"라고 말했습니다.
회사는 다음과 같이 언급했습니다:
특정 행위자에 의한 인공지능의 활용은 발전을 위한 수단이 아닌 공격의 도구로 인식될 수 있으며, 다른 개인은 인공지능의 구현과 관련된 잠재적 위험을 간과할 수 있습니다. 현 시점에서는 민주주의 원칙과 인권을 수호하기 위해 인공지능을 활용하고, 공평한 발전을 촉진하기 위해 인공지능 관련 역량의 광범위한 숙련도를 촉진하며, 환경 보전이라는 대의를 위해 인공지능의 역량을 활용하는 것이 중요합니다.
효과적인 규제 구조는 광범위한 사이버 보안 취약점을 체계적으로 표적으로 삼거나 유해한 생물학적 작용제를 만드는 데 인공지능을 활용하는 등 해를 끼칠 수 있는 첨단 기술의 오용 가능성에 대처해야 합니다. 또한, 이러한 시스템이 감독 조치가 불충분한 중요 인프라 관리와 같은 고위험 환경에 적용될 경우 이러한 시스템 운영으로 인한 의도하지 않은 피해를 완화할 수 있는 안전장치를 마련해야 합니다.
그러나 반대로, 개방형 LLM은 접근성이 뛰어나 더 많은 사람들이 사물을 만져보고 내부에서 무슨 일이 일어나고 있는지 검사할 수 있는 ‘선순환’ 역할을 합니다. AI 플랫폼 Hugging Face의 글로벌 정책 책임자인 Irene Solaiman은 증거 세션 에서 학습 데이터 및 기술 논문 게시와 같은 것에 대한 액세스를 개방하는 것이 위험 평가 프로세스의 필수적인 부분이라고 말했습니다.
개방성의 핵심은 투명성이며, 이는 Hugging Face에서 가장 중점을 두고 있는 부분입니다. 우리의 목표는 연구자, 사용자, 규제 기관이 우리 시스템에 관련된 다양한 구성 요소를 쉽게 이해할 수 있도록 하는 것입니다. 그러나 신기술 출시와 관련된 어려움 중 하나는 배포 프로세스가 종종 비밀에 싸여 있어 개발자가 제품이 시장에 출시되는 방식에 상당한 영향력을 행사할 수 있다는 점입니다. 따라서 배포 전에 고려해야 할 요소에 대한 가시성이 제한적입니다.
영국 정부가 최근 출범시킨 AI 안전 연구소 , 또한 의 의장인 이안 호가스는 오늘날 우리는 위험 평가와 관련하여 사실상 ‘스스로 숙제를 하고 있는’ 민간 기업에 의해 LLM과 생성적 AI의 경계가 정의되고 있는 위치에 있다고 언급했습니다. 호가스는 이렇게 말했습니다:
이러한 시스템의 안전성 평가와 관련된 주요 과제 중 하나는 각 기관의 자체 평가 문제에서 비롯됩니다.예를 들어, OpenAI의 LLM인 GPT-4를 공개했을 때 개발자들은 개발의 안전성 측면을 평가하기 위해 헌신적으로 노력했고, GPT-4 시스템 카드라는 상세한 보고서를 발행했습니다. 이 문서에는 구현된 안전 조치와 일반 대중이 접근할 수 있도록 한 근거가 포괄적으로 설명되어 있습니다. 마찬가지로, 딥마인드는 단백질 접힘 모델인 알파폴드를 도입할 때 이중 용도 애플리케이션과 관련된 잠재적 위험을 파악하기 위해 철저한 분석을 수행하고 우려되는 영역을 파악했습니다.
과거에는 프론티어의 발전이 주로 민간 부문 조직에 의해 주도되는 특이한 현상이 있었습니다. 그러나 이러한 단체를 이끄는 개인들은 자신의 행동에 대해 책임을 지려는 진정한 노력을 기울이지 않았으며, 이는 이 기술의 잠재적 영향력이 점점 더 커짐에 따라 더 이상 지속 가능하지 않을 수 있습니다.
대규모 언어 모델(LLM)을 둘러싼 수많은 문제의 핵심에는 규제를 피하거나 규제에 걸리지 않으려는 시도가 자리 잡고 있습니다. 아이러니하게도 첨단 LLM 기술을 개발하는 기업이 규제를 옹호하는 경우가 많으며, 이로 인해 잠재적으로 경쟁업체를 방해할 수 있습니다. 따라서 이 보고서는 규제를 위한 업계의 로비와 정책 입안자들이 정책과 표준을 수립할 때 일부 민간 부문 전문가들의 제한된 기술 지식에 지나치게 의존하는 것에 대한 우려를 제기합니다.
이에 따라 위원회는 의도치 않은 규제 포획과 집단사고의 가능성을 최소화하기 위해 과학혁신기술부(DSIT)와 규제 기관 내에서 보다 강력한 거버넌스 관행을 구현할 것을 제안합니다.
보고서에 따르면 이렇게 해야 합니다:
내부 운영과 관련하여 정책 개발 과정의 다양한 측면을 포괄하는 다양한 조치의 시행을 고려해야 합니다. 여기에는 새로 도입되는 규제가 시장 경쟁에 미치는 영향을 평가하는 기준을 수립하고, 체계적인 조사와 비판적 분석을 정책 결정 절차의 본질적인 부분으로 통합하며, 직원의 전문성 향상을 위한 추가 교육 프로그램을 제공하고, 모든 제안된 지침 또는 벤치마크를 채택하기 전에 공개 협의를 거치도록 의무화하는 것이 포함될 수 있습니다.
좁은 초점
이 보고서의 권고안에서 도출할 수 있는 주요 결론은 AI 안전을 둘러싼 담론이 첨단 인공지능 시스템과 관련된 재앙적 위험이라는 개념을 중심으로 한 단일 관점에 의해 불균형적으로 영향을 받았다는 것입니다. 이러한 관점은 초기 단계에서 이러한 모델을 개발하는 데 중요한 역할을 한 개인과 단체가 지지하는 경우가 많습니다.
실제로 이 보고서는 몇몇 기업의 자발적 서약을 뛰어넘는 ‘고위험, 고위험’ 모델에 대한 의무적인 안전성 평가를 옹호합니다. 반대로 이 보고서는 실존적 위험에 대한 불안이 과장되어 현재 첨단 AI 시스템이 촉진하는 더 즉각적인 문제로부터 주의를 돌리는 역할을 하고 있다고 주장합니다.
이용 가능한 증거와 예측에 따르면, 향후 3년 이내 또는 향후 10년 동안 가까운 미래에 중대한 실존적 위험이 발생할 가능성은 거의 없어 보입니다. 이러한 기술에 대한 지식이 발전하고 책임감 있는 배치가 점차 보편화됨에 따라 실존적 위험에 대한 우려도 줄어들 것으로 예상됩니다. 그럼에도 불구하고 정부는 모든 잠재적 시나리오를 주시하면서 동시에 기회를 포착하고 더 시급한 단기적 위험을 관리하는 데 노력을 집중해야 할 의무가 있습니다.
이 보고서는 이러한 기회를 포착하기 위해서는 몇 가지 임박한 위험에 대처해야 한다는 점을 인식하고 있습니다. 이러한 위협 중 하나는 기존의 텍스트 기반 미디어와 딥페이크 시청각 조작과 같은 첨단 기술을 통해 허위 정보를 조작하고 전파하는 능력이며, 이는 전문가들도 식별하기가 점점 더 어려워지고 있습니다. 영국이 총선을 준비하면서 이 문제의 시급성은 더욱 커지고 있습니다.
국가사이버보안센터의 평가에 따르면, 대규모 언어 모델이 사기성 콘텐츠 생성에 활용되어 매우 사실적인 챗봇을 통해 허위 정보가 쉽게 전파될 가능성이 높다고 합니다. 또한 2025년 1월로 예정된 차기 총선을 앞두고 딥페이크 기술이 크게 발전할 것으로 예상하고 있습니다.
또한, 앞서 언급한 위원회가 OpenAI와 같은 거대 기술 기업과 뉴욕타임즈를 비롯한 여러 언론사 사이에서 논란이 되고 있는 대규모 언어 모델(LLM) 개발에서 보호되는 지적 재산의 활용에 대해 명확한 입장을 취한 것도 주목할 만합니다.이러한 기업들은 이러한 관행이 허용되는 ‘공정 사용’에 해당한다고 주장하는 반면, 창작자와 권리 보유자들은 소송으로 맞서며 저작물의 무단 사용에 대한 구제를 요구하고 있습니다.
이 보고서는 대규모 언어 모델(LLM)이 교육 과정에서 저작권이 있는 자료를 무단으로 활용하는 문제를 해결하기 위한 즉각적인 조치가 필요함을 강조합니다. 이러한 모델이 효과적으로 작동하려면 상당한 양의 데이터가 필요하지만, 그렇다고 해서 권리자의 허락을 받거나 보상을 제공하지 않고 보호되는 콘텐츠를 사용할 수 있는 라이선스가 부여되는 것은 아닙니다. 정부는 이 문제를 신속하게 해결할 수 있는 역량을 갖추고 있으며, 그렇게 하는 것이 현명할 것입니다.
상원의 통신 및 디지털 위원회는 조사 결과에서 잠재적인 재앙적 결과를 완전히 무시하지는 않습니다. 오히려 AI 안전 연구소가 재앙적 위험으로 이어지는 공학적 경로에 대한 종합적인 평가를 즉시 수행하고 그러한 위험과 관련된 경고 신호를 식별해야 한다고 제안합니다.
또한 이 보고서는 악용되거나 부적절하게 작동할 수 있는 매우 강력한 AI 모델의 광범위한 접근성으로 인한 잠재적 보안 위협을 강조합니다. 그러나 위원회는 치명적인 결과가 발생할 가능성이 낮고 그러한 금지 조치를 시행하는 데 따르는 실질적인 어려움으로 인해 이러한 모델을 전면적으로 금지하는 것을 지지하지 않습니다. 대신 정부의 AI 안전 연구소가 실제 상황에 배포된 후 이러한 모델을 모니터링하고 추적할 수 있는 새로운 방법을 고안하는 데 집중할 것을 제안합니다.
특정 물질을 전면적으로 금지하고 싶은 유혹이 있을 수 있지만, 이러한 조치는 과도하고 비생산적인 것으로 간주될 수 있습니다. 그럼에도 불구하고, 이 문서에서 제안하는 바와 같이 이러한 물질의 총체적인 영향을 추적하고 최소화하는 데 주의를 기울여야 합니다.
본질적으로 이 보고서는 대규모 언어 모델(LLM)과 인공지능 전반의 잠재적 함정에 대한 정당한 우려가 존재한다는 점을 인정하면서도, 정책 입안자들이 가상의 재앙적 결과에만 초점을 맞추기보다는 이러한 기술이 제공할 수 있는 장점을 강조하는 방향으로 초점을 전환해야 한다고 제안합니다.
최근 보고서는 현 정부의 우선순위가 AI 안전에 관한 제한된 관점을 지나치게 강조하고 있음을 강조합니다. 정부는 이러한 불균형을 바로잡아 대규모 언어 모델(LLM)이 제공하는 잠재적 이점을 놓치고, 글로벌 경쟁국에 뒤처지며, 중요한 기술 기반을 외국 기술 기업에 의존하게 되는 일이 없도록 해야 합니다.