1. 생성형 AI는 이미 군사 작전에 활용되는 핵심 기술로 등장했다.
- AI 기반 데이터 분석 시스템은 군사 목표 식별과 작전 계획 수립을 자동화하며 전쟁의 속도를 크게 높이고 있다.
2. AI 군사 활용은 기술 기업과 정부 사이의 윤리적 갈등을 촉발하고 있다.
- 대규모 감시와 자율 무기 시스템을 둘러싼 문제는 AI 기업과 정부 관계에서 중요한 쟁점으로 떠오르고 있다.
3. AI는 전쟁과 감시 기술의 핵심 인프라로 확산될 가능성이 있다.
- AI와 대규모 데이터 분석이 결합될 경우 군사 작전뿐 아니라 사회 전반의 감시 시스템에도 활용될 수 있다.
| 본 자료는 500만명 이상의 구독자를 보유한 과학과 기술, 비즈니스 유튜브 채널인 Coldfusion이 2026년 3월 9일 방송한 내용을 비즈앤프로가 번역, 정리한 것입니다. 해설자의 의견은 비즈앤프로의 의견과 다를 수 있습니다. |
| 요약 (Executive Summary) |
생성형 AI, 군사 작전의 핵심 도구로 등장
최근 보도에 따르면 미국 국방부(Pentagon)는 Anthropic의 AI 모델 Claude를 군사 작전에 활용한 것으로 알려졌다. 사례로는 베네수엘라 대통령 니콜라스 마두로 체포 작전과 이스라엘–이란–미국 간 군사 충돌 상황이 언급된다.
이 사례는 생성형 AI가 단순한 정보 분석 도구를 넘어 군사 작전의 의사결정 과정에 직접 활용되는 단계에 진입했음을 보여준다.
군사용 AI는 일반 소비자가 사용하는 AI와 구조적으로 다르다.
- 군 전용 맞춤형 모델(Custom Model)
- 기밀 데이터 접근 환경
- 전용 데이터센터 기반 대규모 연산 자원
이러한 환경에서는 단일 요청에 투입되는 컴퓨팅 자원이 소비자 AI보다 수십만 배 이상 높을 수 있다.
결과적으로 군에서 사용하는 AI는 일반 사용자 AI보다 훨씬 높은 분석 능력과 처리 속도를 갖게 된다.
전쟁의 속도를 바꾸는 AI 분석 시스템
군사 작전에 활용된 대표적인 시스템은 Maven Smart System이다.
이 시스템은 Palantir가 개발한 군사 데이터 분석 플랫폼으로, Anthropic의 Claude 기반 AI 모델이 결합되어 작동한다.
시스템의 핵심 기능은 다음과 같다.
방대한 정보 통합
AI는 다음과 같은 다양한 정보원을 통합 분석한다.
- 위성 데이터
- 정보기관 보고서
- 감시 시스템 데이터
- 교통 및 도시 카메라 영상
보도에 따르면 이 시스템은 총 179개의 데이터 소스를 통합 분석한다.
예를 들어 이스라엘은 이란 테헤란의 교통 카메라 네트워크를 활용해 사람과 차량 이동 데이터를 추적한 것으로 알려졌다.
군사 목표 식별
AI는 방대한 데이터를 분석해
- 공격 대상 위치 좌표 생성
- 목표 중요도 평가
- 작전 우선순위 설정
등을 수행한다.
실시간 작전 지원
AI 분석 결과는 실시간으로 군 작전에 반영된다.
조지타운대 연구에 따르면 이 시스템을 통해
- 20명의 인력이 2,000명의 업무를 수행하는 효과가 나타났다.
또한 과거 수주일이 걸리던 군사 작전 계획이 실시간 수준으로 단축되는 변화가 나타나고 있다.
AI 기업과 정부 사이의 갈등
AI의 군사 활용은 기술 기업과 정부 사이의 윤리적 갈등을 촉발했다.
2025년 Anthropic은 Palantir와 협력하여 약 2억 달러 규모의 펜타곤 계약을 체결했다.
그러나 계약 협상 과정에서 미국 정부는 다음과 같은 요구를 제시했다.
- Claude를 “모든 합법적 목적”에 사용할 수 있도록 허용
- 민간 기업의 기술 사용 제한 제거
여기에는 다음과 같은 가능성이 포함될 수 있었다.
- 미국 시민 데이터 분석
- 대규모 감시 시스템
- 완전 자율 무기 시스템
이에 대해 Anthropic은 다음 두 가지 안전장치를 요구했다.
- 미국 시민 대상 대규모 감시 금지
- 인간 개입 없는 완전 자율 살상 무기 금지
미국 정부는 최후통첩을 전달했고
Anthropic CEO 다리오 아모데이(Dario Amodei)는 이를 거부했다.
그 결과 미국 정부는
- 모든 정부 기관에 Anthropic 기술 사용 중단 명령
- Anthropic을 “공급망 위험(Supply Chain Risk)”으로 지정
했다.
이는 미국 기업에 대해 적용된 전례 없는 조치였다.
OpenAI의 계약 참여와 논란
Anthropic과 정부 갈등 직후 OpenAI CEO 샘 올트먼(Sam Altman)은 OpenAI가 해당 계약을 맡겠다고 발표했다.
그러나 협상 기간은 약 2일에 불과했으며, 계약 내용이 Anthropic이 거부한 조건과 어떻게 다른지 명확하지 않다는 지적이 제기되었다.
이 사건 이후
- OpenAI 및 Google 직원 450명 이상이 공개 서한 서명
- 내부 윤리 논쟁 확대
- 대중의 “Quit GPT” 보이콧 운동 확산
등의 반응이 나타났다.
AI 군사 경쟁의 확산
AI 기반 군사 기술은 미국만의 문제가 아니다.
- NATO 역시 Palantir와 계약 체결
- AI 기반 군사 분석 시스템 도입 추진
이는 AI가 향후 군사 경쟁의 핵심 전략 기술이 될 가능성을 보여준다.
AI와 감시 기술의 결합 가능성
AI는 군사 영역뿐 아니라 감시 기술과 결합될 가능성도 제기된다.
정부는 이미 다음과 같은 데이터를 데이터 브로커로부터 구매할 수 있다.
- 위치 정보
- 웹 브라우징 기록
- 개인 금융 정보
이 데이터는 AI 분석을 통해 대규모 인구 분석 시스템으로 활용될 수 있다.
또 다른 사례로 Meta Ray-Ban 스마트 안경이 있다.
이 장치는 카메라와 AI를 통해 사람의 신원을 자동 식별하는 기능(Name Tag) 개발이 진행 중인 것으로 알려졌다.
| 전체 번역본 |
AI, 이제 전쟁의 도구가 되다
현실이 된 AI 전쟁
월스트리트 저널은 미 국방부(펜타곤)가 베네수엘라의 니콜라스 마두로 대통령을 검거하기 위한 작전의 일환으로 앤스로픽(Anthropic)의 AI 모델 ‘클로드(Claude)’를 사용했다고 보도했습니다. 미 국방부가 목표물을 식별하고 추적하는 데 인공지능을 활용한 것은 사상 처음 있는 일입니다. 우리의 동맹국들 또한 우리가 여기서 AI를 어떻게 사용하는지 연구하게 될 것입니다. 실제로 최근 UAE의 데이터 센터들이 공격받기도 했습니다.
안녕하세요, ‘콜드 퓨전(Cold Fusion)’의 새로운 에피소드에 오신 것을 환영합니다. 이제 숨길 수 없는 사실이 하나 있습니다. 우리는 AI가 전쟁에 투입되는 것이 현실인 세상에 살고 있습니다. 미군은 최근 최소 두 건의 주요 사례에서 AI를 사용했습니다. 하나는 베네수엘라의 마두로 대통령 검거 작전이었고, 다른 하나는 이스라엘, 이란, 그리고 미국 간의 분쟁이었습니다.
앤스로픽과 펜타곤의 결별
미군에 핵심 기술을 공급한 AI 기업은 앤스로픽이었습니다. 하지만 곧 양측 사이에 긴장이 흐르기 시작했습니다. 정부는 자율형 AI 무기 제어와 데이터 수집을 통한 미국 시민의 대규모 감시를 허용하는 계약 체결을 요구했습니다. 앤스로픽이 이를 거절하자, 정부는 앤스로픽을 모든 정부 계약에서 완전히 퇴출시켰습니다. 앤스로픽이 기술 사용 방식에 대한 펜타곤의 요구를 거부하자 모든 정부 기관이 이 기업과의 관계를 끊기로 한 것입니다.
이 소식은 그 자체로 충격적이었지만, 그 직후 더 놀라운 일이 벌어졌습니다. 기업 역사상 최악의 행보 중 하나로 기록될 사건인데, 협상이 결렬된 지 불과 몇 시간 만에 샘 올트먼이 등판했습니다. 그는 챗GPT의 개발사인 오픈AI(OpenAI)가 미 국방부와 계약을 맺겠다고 발표했습니다.
오픈AI의 추락은 이로써 완벽해졌습니다. 인류의 이익을 위해 암 정복 같은 목표를 가졌던 비영리 기업이, 수단과 방법을 가리지 않고 투자를 갈구하는 영리 기업으로 변질되더니, 이제는 사명 선언문에서 ‘안전’이라는 단어를 삭제하고 군과 파트너십을 맺은 것입니다. 결과적으로 수십만, 어쩌면 수백만 명의 사용자가 서비스를 해지하는 등 챗GPT에 대한 대대적인 불매 운동이 일어났습니다. 오늘 우리는 AI가 대중화된 지 단 3년 만에 어떻게 전쟁터에 자리를 잡았는지, 전쟁에서 AI는 어떻게 작동하는지, 그리고 이것이 우리에게 무엇을 의미하는지 파헤쳐 봅니다.
군사용 AI는 무엇이 다른가?
여기서 질문이 생깁니다. 현재 우리가 챗GPT가 생성하는 정보를 완전히 믿을 수 없고, 심지어 세차장이 어떻게 작동하는지도 제대로 이해하지 못하는데, 어떻게 군사 목표물을 식별하는 데 신뢰할 수 있을까요?
비결은 이렇습니다. 대중이 사용하는 AI와 군이 사용하는 AI는 완전히 다릅니다. 앤스로픽의 CEO 다리오 아모데이는 인터뷰에서 “우리는 국가 안보 목적의 맞춤형 모델을 만든 최초의 기업”이라고 밝혔습니다.
가장 큰 차이점은 모델 자체와 구동되는 하드웨어에 있습니다. 앤스로픽은 군을 위한 전용 모델을 제작하여 기밀 정보로 가득 찬 데이터 센터에서 직접 구동했습니다. 또한, 그들은 신경망이라는 ‘블랙박스’ 내부를 들여다보고 윤리와 행동을 수학적으로 제어하는 방법을 찾아냈습니다. 과학자들은 모델의 뇌 안에서 ‘어시스턴트 페르소나’를 담당하는 특정 기하학적 방향을 발견하여 성격 변화에 제한을 두는 데 성공했습니다.
게다가 이 모델은 전용 하드웨어에서 작동합니다. 민간인들은 수억 명의 사용자와 컴퓨팅 자원을 나눠 쓰지만, 군은 단 하나의 요청을 위해 데이터 센터 전체의 자원을 100% 사용하기도 합니다. 즉, 군사용 AI는 일반 소비자용 AI보다 성능 면에서 5~6단계(10만 배 이상) 더 뛰어날 수 있습니다. 하지만 여전히 완벽하지는 않습니다. ‘신미국안보센터(CNAS)’의 폴 샤레 부소장은 “AI는 틀릴 수 있습니다. 생사가 걸린 문제에서는 여전히 생성형 AI의 결과물을 확인할 인간이 필요합니다”라고 강조합니다. 다리오 아모데이 본인조차도 기술이 아직 완전히 준비되지 않았으며, 자율형 무기에 대해 우려하고 있다고 말합니다.
전쟁의 속도를 바꾸는 ‘메이븐 시스템’
이란에서 24시간 내에 1,000개의 목표물을 타격하는 것은 전용 AI 시스템 없이는 불가능했습니다. 바로 팔란티어(Palantir)가 구축하고 앤스로픽의 클로드 맞춤형 버전으로 구동되는 ‘메이븐 스마트 시스템(Maven Smart System)’입니다.
이 시스템은 위성, 감시 장치 등으로부터 방대한 기밀 데이터를 수집합니다. 예를 들어, 이스라엘 정부는 테헤란의 거의 모든 교통 카메라를 해킹하여 누가 어디서 오가는지 실시간으로 모니터링했습니다. 시스템은 총 179개의 데이터 소스에서 정보를 끌어모았고, 클로드는 이 거대한 데이터 바다를 해석해 통찰력을 내놓았습니다.
전쟁 초기, 이 시스템은 이란 내 목표물을 실시간으로 정리하고 우선순위를 정했습니다. 관계자들에 따르면, 시스템은 정확한 위치 좌표를 발행하고 중요도에 따라 목표물의 순위를 매겼습니다. 조지타운 대학교의 연구에 따르면, 이 시스템 덕분에 단 20명의 팀원이 과거 2,000명의 인력이 하던 작업을 수행할 수 있었다고 합니다. 메이븐 시스템과 클로드의 결합은 전쟁의 페이스를 급격히 끌어올렸습니다. 몇 주가 걸리던 전투 계획 수립이 실시간 작전으로 바뀐 것입니다.
마두로 대통령 검거 작전에서도 이 시스템은 핵심적인 역할을 했습니다. 전언에 따르면 앤스로픽은 자신들의 소프트웨어가 그 작전에 사용되고 있다는 사실을 몰랐다고 합니다. 이 사실이 밝혀지면서 앤스로픽과 미 정부 간의 본격적인 갈등이 시작되었습니다. 전 정부 관료 에밀 마이클스에 따르면, 앤스로픽 임원이 팔란티어 측에 자신들의 소프트웨어가 작전에 쓰였는지(이는 기밀 사항입니다) 물었고, 만약 그렇다면 서비스 약관 위반일 수 있다고 암시했습니다. 이에 펜타곤은 소프트웨어 제공업체가 언제든 시스템을 끄거나 모델을 오염시킬 수 있다는 사실에 큰 위기감을 느꼈습니다.
민간인 대규모 감시와 최후통첩
AI를 전쟁에 활용하려는 움직임은 미국에만 국한되지 않습니다. NATO 역시 작년에 팔란티어와 계약을 맺고 독자적인 버전의 메이븐 시스템을 보유하고 있습니다. 다시 앤스로픽과 미 정부의 결별 이야기로 돌아가 보죠.
2025년 7월, 앤스로픽은 팔란티어를 통해 펜타곤과 2억 달러 규모의 계약을 맺었습니다. 하지만 펜타곤은 앤스로픽에 ‘모든 합법적 목적’을 위해 민간 분야의 제한 없이 클로드를 사용할 수 있게 하라고 요구하기 시작했습니다. 여기서 문제는 애국법(Patriot Act) 하에서 미국인에 대한 스파이 행위도 ‘합법’이 될 수 있다는 점입니다.
정부는 데이터 브로커로부터 미국인의 위치 정보, 인터넷 검색 기록, 정치적 성향, 금융 정보 등을 대량으로 구매하여 AI로 분석하길 원했습니다. 아무도 정부가 자신을 감시하는 것을 원치 않지만, 법적인 해석이 기술의 속도를 따라잡지 못한 상태입니다.
이에 앤스로픽은 계약서에 두 가지 안전장치를 명시하길 원했습니다. 첫째, 미국인에 대한 대규모 감시 금지. 둘째, 인간의 개입 없는 자율형 살상 무기 금지입니다. 2026년 2월 24일, 미 정부는 앤스로픽에 “금요일 오후 5시 1분까지 응하지 않으면 대가를 치를 것”이라는 최후통첩을 보냈습니다. 다리오 아모데이는 양심상 굴복할 수 없다며 거절했습니다. 정부는 분노했고, 이란 폭격이 시작되기 불과 몇 시간 전 앤스로픽의 도구 사용을 전면 금지했습니다. 심지어 미국 기업에 단 한 번도 사용된 적 없는 ‘공급망 위험’이라는 딱지까지 붙였습니다.
샘 올트먼의 행보와 ‘Quit GPT’ 운동
이 틈을 타 샘 올트먼이 등장했습니다. 그는 앤스로픽이 거부한 그 계약을 오픈AI가 맡겠다고 했습니다. 구글과 오픈AI의 직원 450명 이상이 앤스로픽의 편에 서라는 공개 서한에 서명하며 반발했습니다. 최근 에피소드에서 오픈AI가 재정적 어려움을 겪고 있다고 말씀드린 적이 있는데, 이 군사 계약으로 그들은 정부로부터 무한한 자금을 공급받게 되었습니다.
샘 올트먼은 SNS를 통해 오픈AI의 계약에도 앤스로픽이 싸워온 것과 동일한 안전 원칙이 포함되어 있다고 주장했습니다. 하지만 뉴욕 타임스에 따르면 오픈AI와 정부는 단 이틀간 협의했을 뿐입니다. 이처럼 성급하게 체결된 계약이 제대로 된 안전장치를 갖췄을지는 의문입니다.
대중의 반발은 거셌습니다. ‘Quit GPT’ 운동이 일어나 수백만 명의 사용자가 서비스를 해지했습니다. 인스타그램 게시물은 3,600만 회 이상의 조회수를 기록했고, 샌프란시스코에서는 시위가 벌어졌습니다. 현재 앤스로픽은 ‘공급망 위험’ 지정에서 벗어나기 위해 다시 미군과 협상 중인 것으로 알려졌습니다. 결국 이 이야기에는 ‘착한 주인공’이 없을지도 모릅니다.
우리가 처한 현실과 대처 방법
AI를 전쟁과 감시에 사용하는 것은 이 기술이 가질 수 있는 최악의 남용 사례입니다. 정부의 막강한 하드웨어 위에서 구동되는 AI는 전체 국민을 실시간으로 분석하고 통제하는 도구가 될 수 있습니다. 이는 마치 전체주의적 소설 속 이야기 같습니다.
하지만 우리에게도 스스로를 보호할 방법이 있습니다.
- 데이터 브로커 사이트에서 정보 삭제: 정부가 데이터 브로커로부터 정보를 사는 것은 불법이 아닙니다. 애초에 데이터 브로커 네트워크에 내 정보가 노출되지 않도록 조치하는 것이 가장 중요합니다.
- 법적 규제 요구: 우리는 이런 기술의 오남용을 원치 않는다는 목소리를 내고 법 제정을 촉구해야 합니다.
이러한 감시 체계는 이미 확산 중입니다. 호주의 슈퍼마켓에는 이미 팔란티어의 감시 시스템이 설치되어 있고, 메타(Meta)의 ‘레이밴 글래스’ 역시 심각합니다. 안경을 쓴 사람이 당신을 바라보는 것만으로 AI가 당신이 누구인지 식별하는 ‘네임태그(Name Tag)’ 기능이 내부적으로 준비 중입니다. 작년에 하버드 학생들은 이미 이 안경으로 낯선 사람의 신원을 즉석에서 식별할 수 있음을 증명했습니다. 메타는 시민 단체들이 다른 현안에 집중하느라 감시가 소홀한 틈을 타 이 기능을 다시 도입하려 합니다.
밀레니얼 세대로서 저는 아이팟(iPod)이 오직 사용자만을 위해 존재했던 마지막 주류 기술 제품이 아니었나 생각하곤 합니다. AI는 우리 삶을 편리하게 만들어야 했지만, 너무나 빨리 전쟁과 대규모 감시라는 최악의 용도로 변질되었습니다. 개인이 생산성을 위해 AI를 쓰는 것은 좋지만, 거대한 힘을 가진 자들의 손에 들어간 이 기술은 재앙이 될 수 있습니다.
저는 이 상황을 널리 알리고 경각심을 일깨우기 위해 이 영상을 만들었습니다. 여러분은 이 모든 상황에 대해 알고 계셨나요? 아니면 처음 듣는 소식인가요? 지금까지 콜드 퓨전의 도고(Dogo)였습니다. 시청해 주셔서 감사합니다. 다음번엔 조금 더 가벼운 주제로 찾아뵙겠습니다. 모두들 좋은 하루 보내세요!
![]()
