도널드 트럼프 미국 대통령은 최근 AI기업인 앤트로픽(Anthropic)을 "급진 좌파적 기업"이라고 규정했습니다. 앤트로픽이 미국 정부의 요청을 정면으로 거부한 뒤 벌어진 일입니다. 미국 정부는 앤트로픽의 AI 모델인 클로드(Claude)를 자율 무기 시스템에 활용할 수 있도록 해달라고 요구했지만, 앤트로픽 CEO는 "양심에 따라 그들 요구에 동의할 수 없다"라고 거절했습니다. 이후 미국 정부는 앤트로픽을 '공급망 위험' 기업으로 지정했는데, 이는 앤트로픽을 적대 국가 기업으로 분류한다는 얘기입니다.
앤트로픽의 결정은 AI를 자율 무기 시스템에 결합하면 벌어질 위험성을 인지한 판단이기도 합니다. 현재 시점에서 AI를 자율 무기 시스템에 전면 도입했을 경우 예상되는 부작용들을 보면 상당히 충격적입니다.
통제할 수 없는 무기, 전쟁 더 빈번해질 것
첫째, 전쟁이 더욱 빈번하게 자주 발생할 수 있습니다. 2024년 라일리 시몬스-에들러 등이 쓴 논문(AI-Powered Autonomous Weapons Risk Geopolitical Instability and Threaten Ai Research)을 보면, AI 기반 자율 무기가 인간을 대체하면 전쟁 비용과 인적 부담이 낮아지고, 그러면서 저강도 분쟁도 더 자주 발생합니다. 군사 권력을 가진 결정권자들이, 분쟁에 따른 부담이 적어지다 보니, 정치적 필요 등에 따라 분쟁을 활용하는 빈도가 높아진다는 겁니다. 분쟁 빈도가 높아지면서 더 광범위한 전면전으로의 확전 위험성을 높입니다.
둘째, 전쟁 시 비인도적 집단 살육의 발생 가능성을 높입니다. 휴먼라이트워치(Human Rights Watch)의 보고서(A Hazard to Human Rights)는, 'AI 자율 무기 시스템은 인간 생명에 대한 가치를 이해하거나 존중하는 능력이 없어, 살육을 자행할 것'이라고 적시돼 있습니다. AI 시스템은 공격 필요성을 판단하기 위해 인간 행동의 미묘한 신호를 식별할 수 없고, 인간과 소통할 수도 없어 상황을 진정시킬 수도 없습니다. 가령 '전쟁 승리'라는 목적을 달성하기 위해, AI는 '상대방과 협상 및 조율'과 '상대방 살상'이라는 선택지 중 '상대방 살상'을 택할 가능성이 크다는 겁니다. 그것이 AI에는 훨씬 더 '빠르고, 효율적'이기 때문이겠지요. 최근 AI를 활용한 가상 전쟁에서 AI들이 핵무기를 아무렇지도 않게 사용한 것도 이와 같은 현상입니다.
셋째, AI를 활용한 대량 살상 무기 시스템이 범람할 수 있습니다. AI가 군비 경쟁에 본격적으로 활용되기 시작하면, 각국 정부는 국가 안보 차원에서 AI의 군사적 활용을 연구하게 되고, 민간 AI 연구 성과 역시, 살상 무기 시스템으로 젼용하게 될 것이라는 게 라일리 시몬스 논문이 우려한 지점입니다. 과거 미국이 핵무기를 개발하자, 여러 국가들이 핵무기 개발을 한 것과 같은 형태로 전개될 거란 얘깁니다.
넷째, 결정적으로 이렇게 개발된 AI 자율 무기 시스템을 인간이 통제할 수 없다는 것입니다. 앤트로픽 CEO인 아모데이는 "최전선 AI 시스템은 완전 자율 무기를 구동할 만큼 아직 충분히 신뢰할 수 없다"라고 말했습니다. 현재 AI 모델들은 많은 발전을 이뤄왔지만, 여전히 환각(hallucination), 맥락 오해, 예측 불가능한 오류 등을 끊임 없이 나타납니다. 수천 억, 수조 원개의 파라미터를 가진 AI가 어떤 식으로 사고하고 판단하는지는 일반 시민은 물론 개발자도 제대로 알지 못합니다.
AI 무기의 유혹, 깨어있는 시민이 막아야
최근 댓글 목록