[AI병법③] AI가 고른 표적…전쟁 자동화 논쟁 확산

AI가 만든 공격 후보…전장 자동화 논쟁 확대
연구기관 "군사 AI 확대 속 책임 구조 중요"

편집자주 ...전쟁의 양상이 달라지고 있다. 상업용 위성, 공개 소스 정보, 도시 감시망과 같은 민간 데이터가 전장 분석에 포함되면서 정보 수집의 범위가 넓어지고 있다. 인공지능은 늘어난 데이터를 처리하는 핵심 기술로 부상했다. 해외 연구기관들은 현대전이 데이터와 네트워크 중심 구조로 이동하고 있다고 분석한다. 감시망의 확장은 정보 우위를 높이는 동시에, 상용 인프라 보안이라는 새로운 과제를 동반한다. <뉴스1>은 이번 기획을 통해 AI가 바꾸는 전쟁의 구조를 분석해본다.

10일(현지시간) 팔레스타인 가자 지구 남부 칸유니스의 이스라엘이 통제하는 '옐로 라인'(정전선) 구역 내에서 폭발이 일어난 뒤 연기가 피어오르고 있다. 2026.02.10. ⓒ 로이터=뉴스1

(서울=뉴스1) 김민수 기자 = 전쟁에서 인공지능(AI)의 역할이 확대되면서 새로운 논쟁도 커지고 있다. 감시와 정보 분석, 지휘통제 등 다양한 군사 영역에서 AI 활용이 늘어나면서 작전 효율은 높아지고 있지만 동시에 자동화된 공격과 오판 가능성에 대한 우려도 제기되고 있기 때문이다.

15일 업계에 따르면 안보 연구기관들은 AI를 특정 무기 기술이 아니라 전쟁 수행 체계 전반에 영향을 미칠 수 있는 범용 기술로 평가한다. 감시 체계와 정보 분석, 지휘통제, 무인 시스템 등 다양한 군사 영역에 동시에 적용될 수 있기 때문이다.

스톡홀름국제평화연구소(SIPRI)는 2024년 보고서에서 AI 기술이 군사 정보 분석과 의사결정 지원 영역에서 중요한 역할을 할 가능성이 높다고 분석했다. 보고서는 AI가 전장 데이터 분석과 상황 인식 능력을 높일 수 있지만 동시에 새로운 위험 요인도 만들 수 있다고 설명했다.

'AI 표적 시스템' 논쟁

AI의 군사 활용을 둘러싼 대표적인 사례로는 가자전쟁에서 제기된 'AI 표적 선정 시스템' 논쟁이 있다.

외신 보도에 따르면 이스라엘군은 가자지구 작전 과정에서 '라벤더(Lavender)'로 알려진 인공지능 기반 분석 시스템을 활용해 공격 대상 후보를 생성한 것으로 알려졌다.

보도에 따르면 해당 시스템은 다양한 정보 데이터를 분석해 무장 조직과 연관된 인물 가능성을 평가하는 방식으로 작동한 것으로 전해졌다. AI가 분석한 정보를 기반으로 공격 대상 후보 목록이 만들어지는 구조다.

외신들은 일부 군 관계자 인터뷰를 인용해 AI가 생성한 표적 후보가 실제 작전 계획 수립 과정에서 참고 자료로 활용됐다고 보도했다.

이 사례는 AI가 군사 작전에서 어느 수준까지 활용돼야 하는지를 둘러싼 국제 논쟁을 촉발했다. AI 분석 결과가 인간 지휘관의 판단을 보조하는 방식으로 활용되더라도 실제 전장 상황에서 인간 검증 과정이 충분히 이뤄지는지 논의가 필요하다는 지적이 나온다.

튀르키예 STM이 개발한 '카르구-2' 드론(STM 갈무리)
자율무기 논쟁 확산

AI 군사 활용과 관련된 또 다른 논쟁은 자율무기 문제다.

유엔 안전보장이사회 리비아 전문가 패널은 2021년 보고서에서 튀르키예 방산업체 STM이 개발한 드론 '카르구-2(Kargu-2)'와 관련된 자율무기 시스템이 리비아 내전에서 사용됐을 가능성을 언급했다.

보고서는 해당 무기 체계가 운용자와 무기 사이의 데이터 연결 없이 표적을 공격하도록 설계된 치명적 자율무기 시스템으로 설명했다. 당시 리비아 정부군을 지원하던 세력이 해당 드론을 운용했고, 공격 과정에서 반군 세력을 추격하는 형태의 작전이 이뤄졌다는 내용도 포함됐다.

다만 보고서는 실제 공격이 완전한 자율 방식으로 이뤄졌는지 여부는 명확히 확인되지 않았다고 밝혔다. 공격으로 인한 사상자 규모 역시 공개되지 않았다.

이러한 무기 체계가 확대될 경우 전장 상황의 맥락을 기계가 제대로 이해할 수 있는지에 대한 문제가 제기되고 있다. 예컨대 항복 의사를 표시하거나 후퇴하는 상황처럼 군사적 판단이 필요한 장면에서 알고리즘이 이를 정확히 구분하지 못할 가능성이 있다는 것이다.

유엔 군축연구소(UNIDIR)는 2203년 보고서에서 AI 기반 군사 시스템이 확대될수록 인간 통제를 유지하는 원칙이 중요해질 것이라고 강조했다. 보고서는 군사 작전에서 인간이 최종 판단 권한을 유지하는 원칙이 필요하다고 권고했다.

미국·이스라엘과 이란의 전쟁이 이어지는 가운데 12일(현지시간) 아랍에미리트(UAE) 두바이의 두바이 크리크 하버(Dubai Creek Harbour) 인근에서 드론이 추락한 후 파손된 건물의 모습. 2026.3.12 ⓒ 로이터=뉴스1
군사 AI 확산 속 책임·통제 논쟁

안보 연구기관들은 AI 군사 활용이 확대될수록 군사 작전의 책임 구조가 복잡해질 수 있다고 분석한다.

미국 랜드연구소(RAND)는 2023년 보고서에서 AI 기술이 정보 분석과 지휘통제 등 다양한 군사 영역에서 활용될 가능성이 높다고 분석했다. 다만 AI 시스템 의존도가 높아질 경우 의사결정 책임과 통제 문제도 함께 제기될 수 있다고 지적했다.

미국 조지타운대 안보신기술센터(CSET)는 2024년 보고서에서 AI 기반 의사결정 지원 시스템이 군사 작전에서 지휘관의 판단을 보조하는 역할을 할 가능성이 높다고 분석했다. AI가 대규모 데이터를 신속하게 분석해 상황 인식을 높일 수 있지만 인간의 판단과 통제가 유지되는 구조가 중요하다는 설명이다.

전문가들은 AI 기술이 감시와 정보 분석, 지휘통제 등 다양한 군사 영역에서 활용되면서 전쟁 수행 환경이 변화하고 있다고 평가한다. 동시에 AI 활용 확대가 군사 작전의 책임과 통제 문제를 둘러싼 새로운 논쟁을 만들어내고 있다고 적었다.

AI 기술의 군사 활용이 확대되면서 향후 군사 기술 경쟁과 국제 규범 논의 역시 더욱 치열해질 것이라는 전망이 나온다.

kxmxs4104@news1.kr