본문 바로가기

시사/정치

AI 군사화의 갈림길, REAIM 2026 정상회의가 남긴 과제

 

스페인 아 코루냐에서 열린 제3차 ‘군사 영역에서의 책임 있는 AI(REAIM 2026)’ 정상회의가 막을 내렸다. 이번 회의는 인공지능 기술이 전장의 판도를 바꾸는 시점에서 국제적인 규범을 마련하고자 하는 시도였으나, 결과는 반쪽짜리 합의에 그쳤다. 전 세계 85개국이 참여했음에도 불구하고, 실제 핵심 원칙에 서명한 국가는 35개국에 불과했다. 특히 인공지능 분야의 양대 산맥인 미국과 중국이 동시 불참하면서 기술 패권 경쟁의 골이 얼마나 깊은지 다시 한번 확인시켜 주었다.


인공지능 군사 규범, 왜 35개국만 서명했나

 

이번 REAIM 정상회의의 핵심은 ‘20가지 AI 행동 지침’이었다. 여기에는 인공지능 기반 무기 체계에 대한 인간의 통제권 유지, 명확한 지휘 및 통제 체계 확립, 국가적 감시 체제 정보 공유 등이 포함되어 있다. 인공지능 발전 속도가 규제 속도를 앞지르면서 발생할 수 있는 오작동이나 우발적 충돌 위험을 줄이자는 취지였다.

 

하지만 서명국은 참여국의 약 3분의 1에 그쳤다. 전문가들은 이를 두고 각국이 처한 ‘죄수의 딜레마’ 때문이라고 분석한다. 루벤 브레켈만스 네덜란드 국방장관은 “러시아와 중국이 기술 개발에 박차를 가하는 상황에서, 스스로 규제의 족쇄를 차고 싶어 하지 않는 심리가 작동하고 있다”고 설명했다. 기술 우위를 놓치지 않으려는 욕심과 책임 있는 사용이라는 명분 사이에서 많은 국가가 망설이고 있는 것이다.

 

 

 


미국과 중국의 외면, 깊어지는 불확실성

 

가장 뼈아픈 대목은 미국과 중국의 서명 거부다. 미국은 2023년 헤이그, 2024년 서울 회의까지만 해도 비구속적 합의안에 찬성표를 던졌으나, 이번 스페인 회의에서는 입장을 바꿨다. 이는 트럼프 정부의 등장과 함께 변화된 대외 정책 기조, 그리고 유럽 동맹국들과의 긴장 관계가 복합적으로 작용한 결과로 풀이된다.

 

중국 역시 이번 합의가 자국의 군사 현대화를 늦추려는 서구 중심의 틀이라고 판단해 거리를 뒀다. 인공지능 기술이 국가 안보의 핵심 자산이 되면서, 구속력이 없는 선언적 문서조차도 잠재적인 정책적 제약이 될 수 있다는 우려가 작용한 셈이다. 이처럼 핵심 강대국들이 빠진 규범은 실효성 측면에서 큰 의문을 남길 수밖에 없다.


인공지능 기술이 가져올 전장의 위험 요소

 

정부들이 인공지능 규범 마련에 매달리는 이유는 기술의 예측 불가능성 때문이다. 인공지능은 데이터 학습 과정에서 예기치 못한 ‘환각 현상’을 일으키거나 논리적 오류를 범할 수 있다. 만약 이러한 오류가 핵무기 통제나 타격 대상 선정 과정에서 발생한다면 인류는 돌이킬 수 없는 재앙을 맞이하게 된다.

 

이번 합의안에 서명한 35개국(한국, 캐나다, 독일, 프랑스, 영국 등 포함)은 비록 비구속적일지라도 인공지능 시스템의 투명성과 신뢰성을 확보하기 위한 최소한의 가이드라인이 필요하다고 주장한다. 인공지능이 인간의 판단을 보조하는 수준을 넘어 독자적인 결정을 내리는 시대가 오기 전에 국제적인 안전장치를 마련해야 한다는 절박함이 깔려 있다.

 

 

 

 

AI 군사화의 갈림길, REAIM 2026 정상회의가 남긴 과제

 

 


군사적 효율성과 윤리적 책임 사이의 줄타기

 

인공지능 기술은 군사적으로 분명한 이점을 제공한다. 병력 소모를 줄이고, 복잡한 전장 데이터를 실시간으로 분석해 정확한 의사결정을 돕는다. 하지만 기술이 고도화될수록 책임의 주체는 모호해진다. 인공지능 무기가 민간인을 오인 사격했을 때, 그 책임은 개발자에게 있는가 아니면 현장 지휘관에게 있는가에 대한 논의는 여전히 평행선을 달리고 있다.

 

유엔 군축연구소(UNIDIR)의 야스민 아피나 연구원은 “법적 구속력이 없는 문서임에도 불구하고 각국이 구체적인 정책 이행을 명문화하는 것에 큰 부담을 느끼고 있다”고 전했다. 기술 발전의 수혜는 누리되, 책임에서는 자유롭고 싶어 하는 각국 정부의 속내가 이번 서명 결과에 고스란히 드러난 셈이다.


인공지능 규범의 향후 과제와 전망

 

REAIM 정상회의는 이제 원칙의 수립을 넘어 실행 단계로 나아가야 하는 숙제를 안게 되었다. 비록 참여국 전체의 동의를 얻지는 못했지만, 35개국이 보여준 의지는 향후 인공지능 거버넌스 논의의 기초가 될 것이다. 앞으로는 인공지능 모델의 안전성 테스트 표준화, 데이터 편향성 제거, 교전 수칙에 AI를 적용하는 구체적인 방법론 등이 논의의 중심이 될 전망이다.

 

결국 인공지능 기술의 평화적 이용과 책임 있는 통제는 인류가 반드시 풀어야 할 고차방정식이다. 미국과 중국 같은 강대국들이 배제된 상태에서의 규범은 반쪽짜리에 불과하겠지만, 국제사회의 끊임없는 압박과 대화 시도는 계속되어야 한다. 기술이 인간의 통제를 벗어나는 순간, 전장의 승패보다 더 중요한 인류의 생존 문제가 시작될 수 있기 때문이다.


비즈니스와 투자 관점에서의 시사점

 

인공지능 기술의 군사적 확산은 방산 산업과 빅테크 기업들에게 거대한 기회이자 동시에 리스크다. 각국의 국방 예산이 인공지능 고도화에 집중되면서 관련 하드웨어 및 소프트웨어 시장은 폭발적으로 성장할 것이다. 하지만 국제적인 규제 논의가 구체화될수록 관련 기업들은 기술 윤리와 수출 통제라는 엄격한 잣대를 맞닥뜨리게 된다.

 

투자자들은 이러한 거시적인 규제 흐름을 민감하게 포착해야 한다. 특히 인공지능 기술의 투명성을 입증할 수 있는 ‘설명 가능한 AI(XAI)’나 보안 기술을 보유한 기업들이 장기적으로 시장을 주도할 가능성이 크다. 기술 혁신의 속도를 따라잡지 못하는 정치적 합의 속에서도 기술은 멈추지 않고 전진하고 있다.

 

#인공지능 #AI #REAIM