‘인간적 주저함’이 사라졌다...이스라엘 AI가 만든 지옥의 묵시록 [★★글로벌]

2 days ago 4

하마스·헤즈볼라와 전쟁서
AI 기술로 공격목표 쏟아내
신속하게 산출된 인간표적
민간인 대량살상 부수적 피해
“판단의 인간병목 사라졌다”
軍인사들조차 AI 부작용 우려

사진설명

인공지능(AI)이 돈을 벌기 위한 목적이 아닌, 살상용으로 쓰일 때 어떤 일이 벌어질까요.

오직 승리라는 하나의 목표를 위해 서로를 죽고 죽이는 전쟁터에서 AI 기술 활용은 지옥문을 여는 열쇠가 될 것으로 보입니다. 이스라엘 사례 때문입니다.

올해 단독 형식으로 보도된 영국 가디언, 이스라엘 매체 +972 매거진, 그리고 최근 미국 워싱턴포스트 기사를 종합하면 이스라엘은 ‘8200부대’라는 세계 최강의 정보화부대를 앞세워 지난 1년 간 팔레스타인 무장단체 하마스와 전쟁에 AI 기술을 사용하고 있습니다.

안타깝게도 전쟁 승리를 위해 투입한 이 기술은 이스라엘에 잔인한 핏빛 이미지를 더하고 있는 것으로 보입니다. 전쟁의 효율성을 명분으로 <민간인 사망 확대> <기술 위험성에 대한 반대의견 묵살> <알고리즘에 대한 통제력 상실>을 야기하고 있다는 분석입니다.

이스라엘이 전쟁 승리를 위해 쓰는 AI 기술은 거룩한 평화의 땅에서 어떤 부작용을 낳고 있는 것일까요.

8200부대 사령관이 준비한 AI 전쟁, 현실이 되다

세계 최고 수준의 보안·인공지능(AI) 기술력을 보유한 이스라엘군 8200부대. <사진=이스라엘군 홈페이지>

세계 최고 수준의 보안·인공지능(AI) 기술력을 보유한 이스라엘군 8200부대. <사진=이스라엘군 홈페이지>

지난 9월 ‘요시 사리엘’이라는 이름이 전 세계 언론에 노출됩니다. 그는 다름 아닌 8200부대 사령관입니다. 8200부대는 세계 최고 수준의 보안·AI 기술을 보유한 정보 조직입니다. 8200부대를 이끌었던 그가 사임한다는 소식과 함께 그가 이끌었던 AI 전쟁의 실상을 두고 언론 취재 보도가 잇달았습니다.

그는 8200부대를 이끌기 직전 미국 국방대(NDU)에서 안식년을 보내며 2021년 실명이 아닌 필명(Y. S. 준장)으로 AI가 바꿀 미래 군사작전 변화를 그린 책(인간과 기계의 팀 : 세상을 혁신할 인간과 AI의 시너지 창출 방법)을 출간한 인물입니다.

당시에는 ‘Y. S. 준장’이라는 필명 때문에 저자가 누군지 몰랐는데 2023년 10월 이스라엘-하마스 전쟁이 터지고 이스라엘의 공격 양태를 보니 이 책에서 예고된 AI 전술들이 실제 사용되고 있다는 의구심을 불러 일으켰습니다.

마침내 지난 4월 가디언이 단독 보도를 내놓았는데 이 책의 저자가 바로 8200부대를 이끌고 있는 요시 사리엘 사령관이었다는 것이죠.

놀랍게도 요시 사리엘 사령관이 3년 전 자신의 저서에서 적시한 AI 활용 전략은 실제 8200부대의 AI 활용 방법과 일치하며 이스라엘군의 AI 전술 요체는 바로 가스펠라벤더로 요약됩니다.

공격 목표·민간 살상 지옥문 연 AI ‘가스펠·라벤더’

AI로 범죄 용의자를 미리 추정해 잡아내는 미국 드라마 ‘퍼슨 오브 인터레스트’

AI로 범죄 용의자를 미리 추정해 잡아내는 미국 드라마 ‘퍼슨 오브 인터레스트’

한국에서도 인기를 끌었던 미국 범죄스릴러물인 ‘퍼슨 오브 인터레스트’를 보면 AI가 CCTV 영상을 분석해 미리 범죄를 예측하고 용의자를 지목하는 방식으로 스토리가 전개됩니다.

복음이라는 고귀한 뜻을 가진 ‘가스펠’은 역설적으로 미국 드라마처럼 AI를 통해 살상 목표를 산출하는 이스라엘군의 기술력을 상징합니다.

작년 10월 전쟁이 시작되고 이스라엘군은 수 년간 공들여 수집한 집 주소, 터널 및 기타 무장 단체에 중요한 인프라스트럭처를 기록한 데이터베이스(DB)를 바탕으로 가자지구에 포탄을 퍼부었습니다.

하지만 목표 시설들은 전쟁이 장기화하면서 빠르게 바닥 났습니다. 이스라엘군은 빠른 공격 속도를 유지하기 위해 공격 목표물을 빠르게 생성할 수 있는 ‘가스펠’을 사용한 것으로 추정됩니다.

가스펠은 다양한 예측 알고리즘을 기반으로 통신감청 데이터, 인공위성 영상, 소셜네트워크 데이터를 분석해 하마스가 땅속에 묻어놓았을 로켓 무기 좌표 등을 찾아냅니다.

농경지에서 새로운 땅굴이 만들어졌을 가능성 등 미묘한 영상 패턴을 분석하는 식이죠.

이렇게 쏟아내는 공격 목표 리스트를 정보 분석가가 심사해 상부에 보고하고 고위급 장교가 최종 타깃 DB로 설정하게 됩니다.

공습이 멈추지 않은 이유···‘먹잇감’ 계속 물어다 주는 AI 때문

지난해 11월 이스라엘 공습으로 레바논 베이루트 시내 민간인 거주지역에서 연기가 피어오르고 있다. <사진=AFP 연합뉴스>

지난해 11월 이스라엘 공습으로 레바논 베이루트 시내 민간인 거주지역에서 연기가 피어오르고 있다. <사진=AFP 연합뉴스>

워싱턴포스트 소속 테크 전문인 엘리자베스 도스킨 기자의 단독 보도에 따르면 AI를 사용해 공격 타깃을 채운 덕분에 이스라엘군은 중단 없이 하마스를 계속 공습할 수 있었다고 합니다.

워싱턴포스트는 가스펠의 효용성에 대해 지난 2023년 아비브 코하비 전 이스라엘군 참모총장이 한 언론과의 인터뷰에서 이렇게 자랑한 사실도 공개했습니다.

“가스펠 이전에는 분석가들이 가자지구에서 한 해 50개의 새로운 표적을 생성해 표적 DB화할 수 있었는데 가스펠이 가동된 후에는 하루 만에 100개의 표적을 만들어낸다.”

AI로 DB화한 공격 목표들은 이스라엘군 내 ‘더 풀(the Pool)‘이라는 네트워크에서 공유되며 이 DB 목록과 인간 병사가 의심하는 공격 목표 간 일치가 확인되면 주저 없이 공격을 퍼부은 것이죠.

확률을 기반으로 하는 AI 기술이 공습의 멈춤 없이 계속 폭탄을 투하하도록 만드는 지옥문을 열게 한 것입니다.

‘라벤더’라는 또 다른 머신러닝 도구 역시 백분율 점수를 사용해 팔레스타인인이 무장 단체의 일원이 될 가능성을 예측하고 인간 표적을 대량 생성하는 것으로 파악됩니다.

AI가 설정한 공격목표, ‘민간인 사망’ 막대한 피해 야기

이스라엘-하마스 전쟁 1년을 앞두고 지난해 10월 6일(현지시간) 예루살렘의 구시가 성벽에 전쟁으로 흐른 날짜 수를 의미하는 숫자 365와 노란 리본, 하마스에 납치된 인질들의 사진이 비춰지고 있다. <사진=AFP 연합뉴스>

이스라엘-하마스 전쟁 1년을 앞두고 지난해 10월 6일(현지시간) 예루살렘의 구시가 성벽에 전쟁으로 흐른 날짜 수를 의미하는 숫자 365와 노란 리본, 하마스에 납치된 인질들의 사진이 비춰지고 있다. <사진=AFP 연합뉴스>

워싱턴포스트는 이스라엘군 법률 고문을 맡았던 탈 밈란씨의 발언을 인용해 2014년 이스라엘군이 허용하는 고위급 테러리스트 한 명당 민간인 사망자 비율이 1 대 1이었다고 전했습니다.

그러나 이번 가자 전쟁을 통해 하마스 하급 대원 1명 당 민간인 사망자 비율은 15명으로 늘었고 최근 뉴욕타임스는 이 숫자를 20명으로 보도했습니다.

현장에서 취합된 정보를 토대로 사람의 판단이 개입되는 기존 상황에서는 공격 단추를 누를 때 민간인 피해 여부가 중요하게 고려되는 반면, AI가 산출하는 공격 목표들은 강한 확신을 심어주며 공격 단추를 누를 때 발생하는 주저함을 소멸시킵니다.

또한 확률의 방식으로 멀쩡한 민간인을 테러리스트로 추정할 가능성도 커집니다. 이는 이스라엘의 공격 목표가 민간인 거주 시설에 더 가까워진다는 것을 의미하죠.

그러나 이스라엘군은 AI 사용이 인명을 위험에 빠뜨린다는 주장에 대해 “사실과 다르다”고 반박하고 있습니다. 이스라엘군은 워싱턴포스트에 보낸 성명에서 “정보를 효과적으로 수집할 수 있는 능력이 많을수록 그 과정은 더 정확해진다”고 밝혔습니다.

이스라엘군은 “오히려 이러한 도구는 부수적인 피해를 최소화하고 사람이 주도하는 프로세스의 정확성을 높였다”라고 주장하고 있습니다.

군대 내부에서 ‘노’라고 말할 수 있는 문화도 사라졌다

이스라엘군이 가자지구 도시 라파에서 도로 위를 걷는 행인들을 정밀타격해 제거하는 영상. 당시 미국은 라파 지역에 밀집한 피난민 피해를 우려해 이스라엘군의 정밀타격 작전을 반대하고 한때 이스라엘로 보낼 포탄 선적까지 중단했지만 이스라엘군은 작전을 지속했고 100여명의 테러리스트를 제거했다고 밝혔다. 이 가운데 민간인 피해가 얼마나 되는지는 언급하지 않았다. <이미지=이스라엘군 홈페이지 영상 캡처>

이스라엘군이 가자지구 도시 라파에서 도로 위를 걷는 행인들을 정밀타격해 제거하는 영상. 당시 미국은 라파 지역에 밀집한 피난민 피해를 우려해 이스라엘군의 정밀타격 작전을 반대하고 한때 이스라엘로 보낼 포탄 선적까지 중단했지만 이스라엘군은 작전을 지속했고 100여명의 테러리스트를 제거했다고 밝혔다. 이 가운데 민간인 피해가 얼마나 되는지는 언급하지 않았다. <이미지=이스라엘군 홈페이지 영상 캡처>

여러 매체 중에서도 최근 워싱턴포스트 기사가 주목받는 이유는 실제 AI 기술이 전쟁에 투입됐을 때 군대 내부에서 통제력이 상실될 위험이 커질 가능성 때문입니다.

워싱턴포스트는 AI 기반 공격 목표 정보의 품질에 대한 우려와 더불어, 이 기술의 사용이 역사적으로 ‘개인의 추론’을 중시하던 업무 문화를 ‘기술력 우선’ 문화로 대체하면서 이스라엘군 내에 분열적 변화를 촉발했다고 전합니다.

일례로 8200부대는 오랫동안 낮은 직급의 정보 분석가들이 직속 상사를 우회하고 고위 상사에게 직접 경고를 할 수 있는 권한이 부여됐다고 합니다.

그런데 사리엘 사령관과 다른 정보 지휘자들의 지도 아래 엔지니어를 중시하는 방향으로 조직이 바뀌고 AI에 저항적인 것으로 여겨지는 몇몇 지휘관들이 해임됐다고 합니다.

익명을 요구한 전직 이스라엘군 지휘관은 워싱턴포스트에 “이곳은 AI 공장이 됐다. 인간은 기계로 대체됐다”고 전하고 있습니다.

또 AI 분석 도구에 부여되는 가중치도 신뢰할 수 없는 수준이라는 내부 비판이 나오고 있다고 합니다. 기계학습 과정에서 공격 타깃이 테러리스트가 아니라는 학습 자료가 상대적으로 적다는 점도 AI의 편향과 오류를 야기할 수 있습니다.

특히 전직 이스라엘군 고위 관료들은 워싱턴포스트에 군내 ‘경고 문화’가 약화됐다고 염려합니다. 앞서 얘기한 것처럼 AI 분석과 판단에 의존하면서 공격 결정을 두고 신중하게 고민하는 인간적 주저함, 이른바 ‘인간 병목’ 현상이 사라지고 있다는 것입니다.

이스라엘, AI 전쟁 이용서 과연 ‘10번째 사람’ 있을까

이스라엘은 정부 운영 과정에서 9명의 관료가 찬성을 해도 1명은 그 논리를 깨는 반대 답변을 제시하는 ‘10번째 사람’ 원칙이 준용되는 나라로 유명합니다.

전통의 지혜에 도전하라는 것이 10번째 사람에게 주어진 임무입니다.

브래드 피트가 출연한 영화 ‘월드워Z’를 기억하는 독자들은 익숙한 단어일 것입니다. 영화 속에서 이스라엘은 다른 나라보다 일찍 거대 장벽을 설치하고 알 수 없는 감염병과의 전쟁에서 선방했는데 이 영화적 상상력을 구성하는 현실 모티프가 바로 ‘10번째 사람’입니다.

영화 ‘월드워Z’ 속에서 주인공 브래드 피트가 ‘열번째 사람’과 대화를 나누는 모습.

영화 ‘월드워Z’ 속에서 주인공 브래드 피트가 ‘열번째 사람’과 대화를 나누는 모습.

제5차 중동전쟁으로 불리는 현 지정학 충돌 국면에서 이스라엘은 하마스와 헤즈볼라를 상대로 역대 볼 수 없었던 쉴 새 없는 공습을 가하면서 이란과 레바논까지 무력화했습니다.

또 무장단체의 여러 고위급 인사를 상대로 완벽한 암살 테러를 감행했습니다. 이 과정에서 영화 속에서나 나올법한 이른바 ‘삐삐 폭탄 테러’ 사건까지 일으켰습니다.

모두 이전 중동 전쟁에서는 보지 못한 새로운 양상이자 진한 피비린내를 풍기는 장면들입니다.

이를 두고 외부에서는 이스라엘의 정보력과 기술력에 놀라움을 표하지만 민간인 거주지를 가리지 않는 잔인한 공습과 이로 인해 쌓여가는 여성과 어린이 등 민간인 사망자 피해를 고려하면 이스라엘은 AI 기술을 이용해 인류가 예전에 보지 못한 지옥문을 연 것 같습니다.

2025년 가자전쟁이 휴전 혹은 종전을 맞게 된다면 10번째 사람 원칙이 통용돼 온 이스라엘 국방부 내부에서는 이번 AI 무기화에 대해 어떤 사후 평가를 내리게 될까요.

전쟁광으로 비난 받은 이스라엘 총리 등 “정치인보다 AI 기술이 더 통제불능 상태였다”는 10번째 사람의 경고가 나오지 않을까 싶습니다.

“뒤처지는 것에 대한 두려움이 작동하고 있다. 이 두려움은 예전 핵무기와 수소폭탄 개발경쟁의 동력이 됐던 것과 동일한 역학관계를 만들고 있다.”

버락 오바마 행정부에서 국가안보회의(NSC) 특별보좌관으로 활동했던 군축 전문가인 존 울프스탈은 지난해 각국의 AI 무기화 경쟁에 이 같이 경고했습니다.

반대로 AI 안전론을 주창해온 세계적 벤처 투자가인 마크 안드리센은 2003년 6월 ‘AI가 세상을 구할 이유’라는 선언문에서 이렇게 말했습니다.

“나는 인공지능이 전쟁 사망률을 획기적으로 줄임으로써 전쟁을 개선할 수 있을 것이라고 생각한다. 모든 전쟁은 극심한 압박과 극도로 제한된 정보 속에서 제한된 능력을 가진 인간 지휘관의 끔찍한 결정으로 특징된다. AI는 군 지휘관과 정치 지도자들이 위험과 오류, 불필요한 유혈사태를 최소화하며 훨씬 더 나은 전략·전술적 결정을 내리도록 도울 것이다.”

안타깝게도 안드리센의 바람은 이스라엘 전쟁을 통해 순진한 헛소리가 됐습니다.

확률의 AI는 오히려 오판을 두려워하는 인간의 죄의식을 집어삼켜 더 많은 공격 버튼을 누르게 했다는 게 외신들의 탐사보도 결론입니다.

1946년 일본 히로시마 원자폭탄 폭발 당시 상공 이미지

1946년 일본 히로시마 원자폭탄 폭발 당시 상공 이미지
Read Entire Article