인공지능 '킬러 로봇' 무리는 전쟁의 미래입니다: 무섭게 들린다면, 그럴 만합니다.
예, 이미 걱정해야 할 때가 되었습니다 - 매우 걱정됩니다. 우크라이나 및 가자 전쟁에서 보았듯이 “킬러 로봇"에 해당하는 최초의 드론이 전장에 등장했으며 는 개의 파괴적인 무기로 입증되었습니다. 하지만 적어도 아직까지는 대부분 인간의 통제 하에 있습니다. 그 반대가 아니라 공중 드론(또는 그에 상응하는 지상 및 해상 드론)이 우리를 통제하는 전쟁의 세계를 잠시 상상해 보세요. 지금으로서는 상상할 수 없을 정도로 파괴적으로 다른 행성에 살고 있을 것입니다. 하지만 안타깝게도 강대국들이 이미 인공지능과 로봇 무기에 대한 연구를 시작한 것을 보면 상상할 수 없는 일이 아닙니다. 이제 그 신비로운 세계로 여러분을 데려가 전쟁의 미래가 우리에게 어떤 의미가 있을지 상상해 보겠습니다.
미군과 다른 선진 강대국들은 AI와 첨단 로봇 공학을 결합하여 이미 다양한 자율 유도 ‘자율’ 무기 시스템, 즉 지휘하는 인간 장교 없이도 치명적인 무력을 사용할 수 있는 전투 드론을 만들기 위해 열심히 일하고 있습니다. 비평가들에 의해 “킬러 로봇"이라고 불리는 이러한 장치에는 자율 운용이 가능한 다양한 무인 또는 “무인” 비행기, 탱크, 선박 및 잠수함이 포함됩니다. 예를 들어, 미 공군은 고위험 임무에서 조종사가 조종하는 항공기에 합류하기 위한 무인 항공기인 ’ 협업 전투기 ‘을 개발 중입니다. 육군은 이와 유사하게 다양한 자율 무인 지상 차량(UGV)을 시험하고 있으며, 해군은 무인 수상 선박(USV)과 무인 해저 선박 또는 드론 잠수함을 모두 실험하고 있습니다. 중국 , 러시아, 호주, 이스라엘도 미래의 전장을 위해 이러한 무기를 연구하고 있습니다.
이러한 살인 기계의 등장이 임박하면서 전 세계적으로 우려와 논란이 일고 있으며, 일부 국가에서는 이미 전면 금지를 추진하고 있고 미국을 비롯한 일부 국가에서는 사람이 감독하는 조건 하에서만 사용을 허가할 계획입니다. 제네바에서는 1980년 유엔 조약인 특정 재래식 무기 협약 을 인용하여 민간인에게 특히 해로운 것으로 여겨지는 비핵무기를 억제하거나 금지하는 것을 목표로 하는 완전 자율 무기의 배치와 사용을 금지하려는 국가 그룹도 있습니다. 한편, 유엔 총회는 지난 10월 뉴욕에서 자율 무기에 대한 첫 번째 논의를 진행했으며, 올 가을에 이 주제에 대한 본격적인 검토를 계획하고 있습니다.
전장에서 이러한 장치를 사용하는 것에 대한 논쟁은 대부분 인간의 감독 없이 사람의 생명을 빼앗을 수 있는 권한이 부여될 것인지 여부에 달려 있습니다. 많은 종교 및 시민단체 는 이러한 시스템은 전장에서 전투원과 민간인을 구분할 수 없으므로 국제 인도법이 요구하는 대로 비전투원을 사망 또는 부상으로부터 보호하기 위해 금지되어야 한다고 주장합니다 . 반면 미국 관리들은 이러한 무기는 법적 제약 내에서 완벽하게 작동하도록 설계될 수 있다고 주장합니다.
이 논쟁의 두 진영 모두에서 아직 완전히 규명되지 않은 불안한 우려, 즉 이러한 자율 무기가 결국 인간의 개입 없이도 스스로 대화할 수 있는 능력을 갖게 되어 ‘지능’을 활용하여 적을 극복하거나 다른 목표를 고안하기 위한 비인가 전략을 수립할 수 있다는 가능성은 여전히 남아있습니다. “긴급 행동"으로 알려진 이 현상은 제네바, 워싱턴 DC 또는 유엔 회관에 모인 정책 입안자들이 아직 고려하지 않은 잠재적 위험을 수반합니다.
‘치명적인 자율 무기’를 둘러싼 담론에서 양측이 여전히 해결하지 못한 가장 큰 우려는 자율 무기가 스스로 통신할 수 있는 능력으로, 궁극적으로 전투 상황에서 인간의 행동에 대한 통제력을 약화시킬 수 있다는 점입니다.
당분간 미군이 개발 중인 대부분의 자율 무기는 기존 전투 플랫폼의 무인(또는 “무인”) 버전이 될 것이며, 승무원과 함께 작동하도록 설계될 것입니다. 서로 통신할 수 있는 능력도 있지만, 인간 지휘관이 임무를 지시하고 감독하는 “네트워크화된” 전투 팀의 일원이 될 것입니다. 예를 들어, 협업 전투기는 가 의 유인 F-35 스텔스 전투기의 ‘충실한 윙맨’으로서 경쟁이 치열한 영공에서 고위험 임무를 수행할 것으로 예상됩니다. 육군과 해군은 자율 무기 개발에 대한 접근 방식에서 대체로 비슷한 궤적을 밟아 왔습니다.
로봇 ‘군집’의 매력
미국의 특정 전략가들은 자율 무기를 독립적인 군집 형성 내에서 다른 로봇과 동등한 파트너로 간주하는 새로운 패러다임에서 활용할 수 있습니다. 이러한 그룹에는 인공지능이 탑재된 수많은 무인항공기(UAV), 무인수상정(USV) 또는 무인 지상 차량(UGV)이 포함될 수 있습니다.각 부대는 동료들과 소통하고 역동적인 전쟁 시나리오에 대한 정보를 교환하면서 집단적인 ‘집단 지성’의 결정에 따라 전투 전술을 협력적으로 조정할 수 있습니다.
첨단 로봇 기술의 출현으로 미래 군대는 집단으로 집단적으로 작전할 수 있게 되어 현재의 상호 연결된 전투력에 비해 더 많은 수, 동기화, 지적 능력, 신속성을 발휘할 것으로 예상되며, 이 개념을 지지하는 폴 샤르는 2014년에 새로운 미국 안보 센터에 제출한 보고서에서 이 개념을 구상한 바 있습니다. 당시 그는 “네트워크로 연결된 협력적 자율 개체"는 분산된 구성 요소 간의 상호 작용 패턴을 조정하여 통합된 고도로 지능적인 개체를 만드는 진정한 군집 행동을 보여줄 수 있을 것이라고 말했습니다.
스웜 개념을 성공적으로 구현하려면 자율 전투 시스템 간의 통신을 촉진하고 ‘투표’ 과정을 통해 교전을 위한 최적의 전략을 집단적으로 결정할 수 있는 고도로 발전된 알고리즘이 필요합니다.
샤레의 통찰력 있는 분석에 따르면 스웜 개념이 그 잠재력을 최대한 발휘하려면 최첨단 알고리즘의 개발이 필요합니다. 이러한 알고리즘을 통해 자율 전투 시스템이 상호 작용하고 최적의 전술에 ‘투표’할 수 있습니다. 이를 위해서는 개미, 벌, 늑대 등 군집 행동을 통해 집단 지성을 발휘하는 동물에서 관찰되는 행동 패턴을 컴퓨터 프로그래밍으로 재현해야 합니다. 샤레에 따르면, 이렇게 조율되고 상호 연결된 무인 차량은 자연에서 늑대 무리가 사용하는 전략을 반영하여 역동적이고 끊임없이 변화하는 위협 환경을 조성할 수 있는 능력을 갖추고 있습니다. 이를 통해 대규모 그룹 내에서 독립적으로 행동하는 개별 유닛에 비해 전반적인 효율성을 크게 향상시킬 수 있습니다.
그러나 2014년에는 이러한 기계 행동을 가능하게 하는 데 필요한 기술이 아직 초기 단계에 머물러 있었습니다. 이러한 중대한 결함을 해결하기 위해 국방부는 AI 및 로봇 공학 분야의 연구에 자금을 지원하는 한편, 구글과 마이크로소프트와 같은 민간 기업으로부터도 이러한 기술을 확보했습니다. 이러한 노력의 핵심 인물은 로버트 워크 로, CNAS에서 폴 샤레의 전 동료이자 군집 전쟁의 초기 애호가였습니다. 워크는 2014년부터 2017년까지 국방부 차관보로 재직하며 첨단 무기, 특히 무인 및 자율 시스템 개발에 막대한 자금을 투입할 수 있는 직책을 맡았습니다.
모자이크에서 리플리케이터로
이러한 노력의 대부분은 국방부의 사내 하이테크 연구 조직인 방위고등연구계획국 에 위임되었습니다. 이러한 협업 군집 작전을 위한 AI를 개발하기 위한 노력의 일환으로 DARPA는 향후 러시아 및/또는 중국과의 고강도 전투에서 유인 및 무인 전투 시스템의 활동을 조정하는 데 필요한 알고리즘과 기타 기술을 완성하기 위한 일련의 프로젝트인 “모자이크” 프로그램에 착수했습니다.
“모자이크 개념의 뛰어난 유연성을 전쟁에 적용하면, DARPA 전략 기술실의 부국장 댄 패트는 “저비용, 덜 복잡한 시스템을 다양한 방식으로 서로 연결하여 모든 시나리오에 맞는 원하는 통합 효과를 창출할 수 있다"고 설명했습니다. 모자이크의 개별 부품은 개별적으로도 매력적이지만 전체에 기여하는 방식에 있어서는 매우 중요합니다.”
이러한 전쟁 개념은 지난 여름 캐슬린 힉스 국방부 차관이 발표한 새로운 ‘리플리케이터’ 전략의 근간을 이루는 것으로 보입니다. “리플리케이터는 [중국의] 가장 큰 장점인 대량을 극복하는 데 도움이 될 것입니다. 더 많은 함선. 더 많은 미사일. 더 많은 사람들"이라고 그녀는 지난 8월 명의 무기 업계 관계자들에게 말했습니다. 그녀는 미군이 수천 대의 자율 무인항공기, 무인정찰기, 무인수상정, 무인지상정(UUV)을 배치하면 중국 군대인 인민해방군을 능가하고 기동하며 제압할 수 있을 것이라고 제안했습니다. “앞서 나가기 위해 우리는 새로운 첨단 기술을 개발할 것입니다. … 우리는 우리 자신의 질량으로 인민해방군의 질량에 대응할 것이지만, 우리의 질량은 계획하기 더 어렵고, 타격하기 더 어렵고, 이기기가 더 어려울 것입니다.”
이러한 야심 찬 프로그램을 구현하는 데 필요한 하드웨어와 소프트웨어를 모두 확보하기 위해 국방부는 현재 보잉과 레이시온과 같은 전통적인 방위 계약업체와 Anduril 및 Shield AI 과 같은 AI 스타트업으로부터 제안을 구하고 있습니다. 공군의 협업 전투 항공기 및 해군의 Orca 초대형 UUV 와 같은 대규모 장치도 이 드라이브에 포함될 수 있지만, 현재 우크라이나 군이 적진 뒤에서 러시아 탱크와 장갑차를 제거하는 데 사용하는 AeroVironment의 스위치 블레이드 공격 드론 과 같은 작고 덜 복잡한 시스템을 신속하게 생산하는 데 중점을 둡니다.
동시에 미 국방부는 이미 기술 스타트업에 이러한 이질적인 로봇 유닛과 관련 유인 플랫폼 간의 통신 및 조정을 용이하게 하는 데 필요한 소프트웨어를 개발할 것을 요청하고 있습니다.이를 위해 공군은 2024 회계연도 예산에 5천만 달러를 편성하여 프로젝트 VENOM , 즉 “독사 실험 및 차세대 작전 모델"이라는 불길한 이름을 붙일 것을 의회에 요청했습니다. 베놈 프로젝트에 따라 공군은 기존 전투기를 AI 기반 무인 항공기로 전환하여 다중 드론 작전에서 첨단 자율 소프트웨어를 테스트하는 데 사용할 예정입니다. 육군 와 해군 이 유사한 시스템을 테스트하고 있습니다.
군집이 스스로 경로를 선택할 때
다시 말해, 미군(그리고 아마도 중국, 러시아 및 몇몇 다른 강대국의 군대)이 서로 통신하고 이동 중에 예측할 수 없는 새로운 전투 기동을 공동으로 선택할 수 있는 알고리즘을 갖춘 자율 무기 시스템 군집을 배치하는 것은 시간 문제일 뿐이라는 뜻입니다. 이러한 군집에 참여하는 모든 로봇 구성원에게는 임무 목표([지정된] 지리적 좌표 내에 있는 모든 적 레이더와 대공 미사일 포대를 찾아서 파괴)가 주어지지만, 그 방법에 대한 정확한 지침은 주어지지 않습니다. 그래야 서로 협의하여 전투 전술을 선택할 수 있습니다. 우리가 가진 제한된 테스트 데이터에 따르면, 은 인간 조종사와 지휘관이 생각지도 못한(그리고 복제할 수도 없는) 개의 매우 파격적인 전술을 사용할 수 있습니다.
이렇게 상호 연결된 AI 시스템이 계획에 없던 새로운 결과를 초래하는 경향을 컴퓨터 전문가들은 “돌발 행동"이라고 부릅니다. 과학 저널 다이제스트인 ScienceDirect에서 , “이머전 행동은 그 자체로는 그러한 특성을 나타내지 않는 더 작거나 단순한 개체 간의 상호작용을 통해 더 큰 패턴이 발생하는 과정으로 설명할 수 있습니다.“라고 설명합니다. 군사적 측면에서 이는 다수의 자율 무기가 공동으로 개별 장치가 수행하도록 프로그래밍되지 않은 전투 전술을 채택하여 전장에서 놀라운 성과를 거둘 수도 있지만, 핵 및 재래식 작전에 사용되는 중요한 민간 인프라 또는 통신 시설의 파괴를 포함하여 인간 지휘관이 의도하지 않고 예상하지 못한 확대 행위를 할 수도 있다는 것을 의미합니다.
“크래시 코스"라는 적절한 이름의 모닝 뉴스레터를 구독하여 살롱의 최신 뉴스와 인사이트를 종합적으로 요약한 내용으로 하루를 시작하세요.
물론 이 시점에서 여러 무기로 무장하고 인간의 감독을 받지 않는 외계 집단이 어떤 선택을 할지 예측하기란 거의 불가능합니다.아마도 이러한 시스템에는 적의 전파 방해 또는 다른 이유로 인해 인간 감독관과의 통신이 끊어지면 기지로 복귀하도록 요구하는 안전 장치 가 장착되어 있을 것입니다 . 그러나 이러한 사고 기계가 까다로운 실제 상황에서 어떻게 작동할지, 실제로 집단 지성이 그러한 지시를 무시하고 스스로 판단할 수 있을지 누가 알겠습니까?
그러면 어떻게 될까요? 미리 프로그램된 한계를 넘어 계속 싸워서 의도치 않은 확전, 심지어는 핵무기까지 유발할 수 있을까요? 아니면 고전 공상과학 “터미네이터” 영화 시리즈 에 나오는 스카이넷처럼 적군에 대한 공격을 중단하고 대신 아군의 작전을 방해하여 아군을 공격하고 파괴하는 행동을 선택할까요? 아니면 좋든 나쁘든 우리의 상상을 초월하는 행동을 할 수도 있을까요?
자율 무기는 개별 장치가 수행하도록 프로그래밍되지 않은 전투 전술을 공동으로 채택할 수 있으며, 인간 지휘관이 의도하지 않았고 예상하지 못한 행위를 할 수도 있습니다.
미국의 군사 및 외교 고위 관리들은 AI가 실제로 그러한 미래의 위험을 초래하지 않고 사용될 수 있으며, 미국은 미래의 위험한 잘못된 행동에 대해 철저하게 적절한 안전장치를 통합한 장치만 사용할 것이라고 주장합니다. 이는 사실 2023년 2월 국무부가 발표한 ‘책임 있는 군사적 인공지능 사용과 자율성에 관한 정치적 선언’에서 의 핵심 사항입니다. 그러나 많은 저명한 보안 및 기술 관계자들은 미래 로봇 무기의 잠재적 위험성을 잘 알고 있으며, 전쟁에서 인공지능의 급속한 활용에 대한 경고를 계속하고 있습니다.
특히 주목할 만한 것은 2021년 2월에 발표된 인공지능에 관한 국가안보위원회의 최종 보고서입니다. 로버트 워크(국방부 근무 후 CNAS로 복귀)와 에릭 슈미트 전 구글 CEO가 공동 위원장을 맡은 이 위원회는 향후 중국 및 러시아와의 분쟁에서 승리를 보장하기 위해 미군이 AI를 신속하게 활용할 것을 권고했습니다. 그러나 로봇이 포화된 전장의 잠재적 위험에 대한 우려도 표명했습니다.
“이러한 시스템의 확인되지 않은 전 세계적 사용은 잠재적으로 의도하지 않은 분쟁 확대와 위기 불안정의 위험이 있습니다.” 보고서 는 를 언급했습니다.이는 “전장에서 AI 지원 무기 시스템과 자율 무기 시스템 간의 상호 작용(즉, 돌발 행동)이 복잡하고 검증되지 않았기 때문"을 비롯한 여러 가지 이유로 발생할 수 있습니다. 이러한 위험을 고려할 때 “각국은 AI 지원 및 자율 무기 시스템과 관련된 위험을 줄이는 데 초점을 맞춘 조치를 취해야 한다"고 결론지었습니다.
자율 무기가 의도된 목적을 넘어 잠재적인 위험을 초래할 수 있다는 생각은 일리가 없는 것은 아닙니다. 이러한 우려는 단순한 계산상의 문제나 복잡한 알고리즘 이해의 한계를 넘어 이러한 시스템의 본질에 있습니다. 치명적인 힘을 중심으로 작동하는 이러한 시스템의 존재 이유를 고려할 때, 이러한 시스템이 독립적으로 작동하여 파괴적인 결과를 초래할 가능성이 충분히 존재합니다. 인공지능을 지배하는 첨단 수학의 복잡성과 씨름하면서도 이러한 현실을 인정하는 것이 중요합니다. 궁극적으로 우리는 이러한 기술 개발의 윤리적 함의를 신중하게 고려하고 책임감 있게 활용해야 할 공동의 책임이 있습니다.
실제로 그러한 운명이 우리에게 닥친다면, 우리의 죽음을 애도하고 우리의 공동 묘비에 그 엄숙한 말을 새겨줄 생존자가 남지 않을 수도 있습니다.
자세히보기
분쟁과 미래에 대한 마이클 클레어의 담론과 관련하여, 그의 관점은 자원 부족이 향후 군사 교전의 범위와 규모를 결정하는 데 중요한 동인으로 작용할 것이라는 개념을 강조하고 있음이 분명합니다. 이와 관련하여 그는 석유, 물, 광물, 경작지 등 필수 자원을 통제하기 위한 국가 간 경쟁이 심화되고 있으며, 이로 인해 국제적으로나 국가 자체 내에서 분쟁이 점점 더 많이 발생할 것이라고 주장합니다. 또한 클레어 씨는 기술의 발전이 전쟁의 본질을 형성하는 데 중요한 역할을 할 것이며, 무인 항공기(UAV), 자율 무기 시스템, 사이버 전쟁 능력 및 기타 신흥 기술
이 등장할 가능성이 높다고 주장합니다.