미 국방부, AI 윤리 고집하는 앤스로픽에 "계약 끊겠다" 최후통첩

앤스로픽, '자율 살상무기·대규모 감시'는 절대 불가 입장
오픈AI 출신들이 세운 'AI 안전' 선두주자…창업 철학과 국가안보 사이 딜레마

미국 인공지능(AI) 기업 앤트로픽의 로고. 2025.6.25 ⓒ 로이터=뉴스1

(서울=뉴스1) 강민경 기자 = 미국 국방부가 인공지능(AI) 스타트업 앤스로픽과의 2억 달러 규모 계약을 파기하려 한다고 미국 매체 악시오스가 14일(현지시간) 보도했다.

앤스로픽이 자사 AI 모델의 군사적 사용 범위에 대한 윤리적 제한을 철회하지 않으면서 수개월간 지속된 펜타곤과의 협상이 교착 상태에 빠졌다.

미 국방부는 앤스로픽을 포함한 4대 AI 기업에 "모든 합법적인 목적"을 위해 AI 도구를 사용할 수 있도록 허용하라고 압박하고 있다. 사실상 모든 군사작전에 AI를 제한 없이 활용하겠다는 뜻이다.

하지만 앤스로픽은 '미국 시민에 대한 대규모 감시'와 '인간의 개입 없이 스스로 판단하고 공격하는 완전 자율 살상 무기 개발' 등 두 가지 영역에 대해서는 절대 허용할 수 없다는 입장을 고수한 것으로 알려졌다.

미 행정부의 한 고위 관리는 악시오스에 "이 두 가지 금지 조항에 회색지대가 많다"며 "앤스로픽의 입장이 현실적으로 실행 불가능하다"고 비판했다.

그는 "모든 선택지를 검토하고 있다"며 앤스로픽과의 협력관계 축소나 완전한 관계 단절까지 고려하고 있다고 밝혔다. 미 국방부로서는 개별 사용 사례마다 앤스로픽과 협상하거나 작전 중 클로드 모델이 특정 명령을 거부하는 상황을 감당할 수 없다는 입장이다.

앤스로픽은 2021년 오픈AI의 부사장이었던 다리오 아모데이를 비롯한 전직 오픈AI 직원들이 설립한 AI 연구 기업이다. 이들은 오픈AI가 AI의 상업적 성공에 치중하면서 안전에 대한 초심을 잃었다고 비판하며 회사를 떠났다.

이 업체는 AI 모델 클로드 등에 특정 원칙을 미리 학습시켜 스스로 유해하거나 비윤리적인 답변을 생성하지 않도록 유도하는 훈련 기술로 이름을 알렸다.

미 국방부와 앤스로픽의 갈등은 니콜라스 마두로 베네수엘라 대통령 체포 작전에 클로드가 사용됐다는 의혹을 계기로 극에 달했다.

미 국방부 관리는 앤스로픽의 임원이 파트너사인 팰런티어 측에 연락해 해당 작전에 클로드가 사용됐는지 문의했다고 밝혔다. 이 관리는 "앤스로픽이 해당 작전에서 총격전이 있었던 만큼 자사 소프트웨어 사용에 반대하는 듯한 뉘앙스를 풍겼다"고 주장했다.

하지만 미 국방부가 앤스로픽과 결별하기는 쉽지 않다고 악시오스는 전했다.

한 고위 관리는 "다른 모델 회사들은 특화된 정부 애플리케이션 분야에서 (앤스로픽보다) 뒤처져 있다"고 인정했다. 클로드는 국방부의 기밀 네트워크에 도입된 최초의 AI 모델이기도 해서 대체가 쉽지 않다.

현재 오픈AI의 챗GPT와 구글의 제미나이, xAI의 그록 등 경쟁 모델들은 기밀이 아닌 환경에서 국방부와 협력하고 있고 일반 사용자에게 적용되는 안전장치를 국방부용으로는 해제하는 데 동의한 것으로 알려졌다.

pasta@news1.kr