2016년 3월 바둑의 인간 실력자인 이세돌과 인공지능(AI)인 알파고 사이의 대국은 전 세계인의 주목을 받았다. 6년이 지난 지금, 사용자 질문에 답하도록 설계된 언어모델인 챗GPT는 더욱 뜨거운 관심을 받고 있다. AI의 발전 속도는 우리의 상상을 초월하며 활용 분야도 데이터 분석 및 통계, 언어, 의료, 법률뿐만 아니라 국방 분야까지 확대되고 있다. 국방 분야에서 AI는 군수, 인사, 의무, 감시·정찰이나 사이버 분야뿐만 아니라 인간의 살상을 초래할 수 있는 화력·기동, 함정·항공 무기 체계에도 적용될 수밖에 없을 것이다. 군사 분야에서 AI는 결국 인간의 개입 없이 외부의 상황을 스스로 확인하고 프로그램된 원칙에 따라 임무를 수행하는 자율무기 체계(Autonomous Weapon Systems)의 문제와 연결된다.
학자들은 2017년 미국 캘리포니아 아실로마에 모여 AI가 가져올 위협과 혜택에 대해 논의하면서 23개의 원칙을 마련했다. 유럽연합(EU) 집행위원회와 경제협력개발기구(OECD)도 AI 윤리 기준을 마련했다. 미국은 2020년 책임성, 공평성, 추적 가능성, 신뢰성, 통제 가능성의 5개 국방 AI 윤리 원칙을 마련했다. AI가 기술적 특이점(technological singularity)을 넘어 스스로 발전하는 경우 오히려 인류를 위협하는 상황이 올 수도 있다. 이를 막기 위해 2014년부터 유엔의 특정재래식무기금지협약 기구에서 자율무기 체계 관련 문제를 논의하고 있다. 2019년 인간책임, 기존의 국제법 적용, 인간-기계의 상호작용 등 11가지 지도원칙을 도출했다. 하지만 과학기술 수준이나 국가경제력에 따라 자율무기 체계의 개발과 사용에 대한 의견이 첨예하게 대립하고 있다.
이와 같이 군사적 AI에 대한 국제적 논의가 진전이 없는 상황에서 네덜란드와 우리나라가 공동으로 2월 15일과 16일 네덜란드 헤이그에서 군사 영역에서의 책임 있는 AI에 관한 고위급 국제회의(Responsible AI in the Military Domain)를 개최한다. 미국, 일본, 영국, 캐나다, 호주, 독일 등 50여개국에서 참석하는 이번 회의는 AI 관련 국제사회의 이해 제고 등을 논의할 계획이다. 특히 2일차 장관급 세션에서 박진 외교부 장관이 책임 있는 군사적 AI에 관해 연설을 하고, 국방부에서도 관련 회의에 참여할 예정이다. AI의 군사적 활용 잠재성과 주된 도전 사항, 설명 가능한 AI와 인간책임의 문제, 인간과 기계의 상호작용을 적절하게 유지하기 위한 사항 등이 논의될 예정이다.
국방 AI는 무기 체계의 핵심적 요소로서 기술적으로도 중요하지만 윤리·법률·정책적 문제도 함께 지니고 있다. 우리나라가 꾸준한 개발을 통해 군사선진국과 AI 분야 기술적 차이를 줄여나가는 것도 중요하지만 미래 전략계획을 수립할 때 국제적 논의를 반영할 뿐만 아니라 AI 선진국으로서 국제사회에서 관련 논의를 주도해나가야 할 것이다. 이번 회의를 통해 책임 있는 AI 논의를 선도하고 국내적으로도 군사적 AI 제도가 더 발전하는 계기가 되기를 기대해본다. 이러한 노력은 우리 정부가 지향하는 ‘글로벌 중추국가(GPS)’의 초석이 될 것이다.
박문언 한국국방연구원 국방인력연구센터장
silverpaper@heraldcorp.com