'무기'가 돼버린 AI…미·이란전쟁 양상 흔든다

방대한 정보 신속 분석…12시간 만에 900개 표적 공격
"인간 의사결정 배제될 수도"…AI 윤리 문제 부각

28일(현지시간) 미국과 이스라엘의 이란 공습 이후 이란 테헤란의 하메네이 거처를 촬영한 에어버스 위성사진. 이란 당국은 1일 하메네이 최고지도자와 고위 인사들의 사망을 인정했다. ⓒ 로이터=뉴스1

(서울=뉴스1) 이기범 기자 = 미국·이스라엘의 이란 공습 과정에서 인공지능(AI)을 활용한 정황이 속속 확인되고 있다. AI 모델을 통해 드론 영상부터 통신 감청 자료까지 방대한 정보를 빠르게 분석해 복잡한 공격 작전을 빠르게 수행하는 방식이다. 전쟁 양상이 달라짐에 따라 AI 윤리 문제에 대한 지적과 함께 인간이 전쟁 과정에서 버튼만 누르는 역할을 할 수 있다는 우려가 나오고 있다.

5일 주요 외신 보도에 따르면 미국의 이란 공습 작전에는 앤트로픽의 AI 모델인 '클로드'가 사용됐다. 월스트리트저널(WSJ)은 미군 사령부가 클로드를 활용해 정보 평가, 목표물 식별, 전장 시뮬레이션 수행 등을 했다고 전했다. 또 팔란티어의 데이터 플랫폼 고담도 주요한 역할을 한 것으로 알려졌다.

AI를 기반으로 위성 및 드론 영상부터, 통신 감청 기록 등 방대한 데이터를 분석해 목표물을 식별하고, 레이더와 드론 데이터를 융합해 방공망의 허점을 찾아 공격을 쏟아 붓는 식이다. AI는 통합된 데이터를 기반으로 다양한 작전 시나리오를 비교·분석하고, 공격 작전의 법적 근거를 뒷받침해 주는 역할도 한다.

팔란티어의 고담이 다양한 군사 데이터를 통합하면 앤트로픽의 클로드가 이를 분석해 다양한 공격 시나리오를 제시하는 구조로 파악된다.

이를 통해 미국은 12시간 만에 이란 목표물에 약 900건의 공습을 가한 것으로 전해졌다. 앞서 미국과 이스라엘은 지난 2024년에도 AI를 이용해 3만 7000명의 표적을 식별, 가자 지구를 폭격한 것으로 알려졌다.

영국 가디언지는 "AI가 복잡한 공격 작전에 필요한 계획 시간을 단축시키고 있다"며 "일각에서는 인간 전문가들이 자동화된 공격 계획을 형식적으로 승인하는 데 그칠 수 있다는 우려가 나온다"고 평가했다.

미국 인공지능(AI) 기업 앤트로픽의 로고. 앤트로픽은 대형 언어 모델 '클로드'를 개발했다. 2025.6.25 ⓒ 로이터=뉴스1

이번 사태를 계기로 AI 개발자와 이용자를 중심으로 AI 윤리 문제가 재차 부각되고 있다.

앤트로픽은 미 국방부의 일방적인 AI 사용에 반대하면서 트럼프 행정부로부터 공급망 위험 기업으로 지정됐다. 반대로 오픈AI는 앤트로픽의 퇴출 직후 국방부와 계약을 맺으면서 논란을 빚었다.

이용자들은 앤트로픽의 손을 들어줬다. 앤트로픽의 클로드는 이용자 수가 급증하면서 한 때 일시적 접속 오류가 발생하기도 했다. 지난달 28일 미국 애플 앱스토어 무료 앱 순위에서도 1위를 차지했다. 반면, 오픈AI의 챗GPT는 미 국방부 계약 소식이 알려진 후 하루 만에 앱 삭제율이 295% 급증했다.

오픈AI, 구글 등 미국 빅테크 기업 직원들은 '우리는 분열되지 않을 것이다'라는 제목의 공개서한을 통해 앤트로픽에 대한 연대를 나타냈다.

이들은 "그들(국방부)은 다른 회사가 먼저 굴복할 것이라는 두려움을 이용해 각 회사를 분열시키려 한다"며 "그 전략은 서로의 입장을 알지 못할 때만 작동한다. 이 서한은 전쟁부(Department of War)의 압력에 맞서 공동의 이해와 연대를 만들기 위한 것"이라고 취지를 설명했다.

Ktiger@news1.kr