로봇군단과 인간의 전쟁을 담은 영화 <터미네이터: 제네시스>의 장면.
전쟁에 뛰어든 로봇은 시간과 비용, 지형과 날씨 등 각종 데이터를 완벽히 분석해 가장 효율적인 공격만을 단행한다. 싸우다 부서지면 고치면 되고, 힘이 부치면 같은 로봇을 더 만들면 될 일이다. 그러다 로봇에 오류가 발생한다면 어떻게 될까. 혹은 학습으로 인간 능력을 뛰어넘은 로봇이 명령을 무시하는 끔찍한 가정도 가능하다.
이 영화 같은 상상은 현실과 크게 다르지 않다. <가디언>은 20일 26개국 정보기술(IT) 전문가 116명이 “로봇 무기의 급격한 발전 속도를 볼 때 인류에 미칠 피해가 크다”며 로봇 무기의 사용과 개발을 금지할 것을 요구하는 성명을 유엔에 제출했다고 보도했다. 여기엔 전기자동차업체 테슬라의 최고경영자 일론 머스크와 인공지능(AI) 바둑 프로그램 ‘알파고’를 만든 딥마인드의 창업자 무스타파 술레이만 등이 이름을 올렸다.
이들은 21일 유엔의 자동화 무기 논의 개시를 앞두고, 자동화 무기인 이른바 ‘킬러 로봇’이 전장에 투입될 경우 예측 불가능한 ‘제3세대 전쟁’이 발발할 가능성이 크다고 우려했다. 또 테러리스트에 의해 무고한 인명을 살상하도록 조작될 수 있고, 해킹 위험성도 크다고 지적했다. 그러면서 “화학무기와 핵무기에 이은 새로운 무기 혁명이 될 것”이라며 “자동화 무기가 개발되면 인간이 이해할 수 없는 빠른 속도로 무력 갈등이 촉발된다. 이 판도라의 상자가 열리면 다시 닫기는 어렵다”고 강조했다. 성명에는 특정재래식무기금지협정(CCW)과 같은 전 지구적 협약을 체결해 ‘도덕적으로 옳지 않은’ 로봇 무기를 연구 개발부터 사용까지 철저히 규제해야 한다는 주장이 담겼다. 이들은 오는 25일까지 오스트레일리아 멜버른에서 국제인공지능 공동콘퍼런스(IJCAI)를 열고 자동화 무기 개발에 따른 대응책을 논의한다.
2년 전에도 머스크와 물리학자 스티븐 호킹 등이 비슷한 공동 서한을 내 유엔이 이 문제에 대해 공식 논의에 들어가도록 기여한 바 있다. 머스크는 지속적으로 인공지능에 대한 예방적 규제를 주장하면서, 이를 인류의 가장 큰 실존적 위협이 될 것이라고 경고하고 있다. 하지만 영국 정부는 2015년 이미 자율 무기 개발에 대한 금지를 반대한다는 입장을 냈고, 미국·이스라엘·러시아 등은 국가 차원에서 킬러 로봇의 활용을 고민하고 있다.
<가디언>을 보면, 현재 영국이 개발중인 타라니스 드론은 자동으로 상황을 파악해 공격에 나설 수 있게 설계됐다. 2013년 시험 비행에 성공한 이 드론은 2030년이면 인간이 조종하는 토네이도 GR4 전투기를 대체할 수 있을 것으로 예상된다. 러시아는 무인 지상용 전투 차량 ‘우란-9’를 이미 사용중이다. 또 미 해군은 자율운항 무인 함정 ‘시 헌터’를, 보잉사는 무인잠수정 ‘에코 보이저’를 개발하고 있다. 한국 비무장지대에서 비정상적 움직임을 감지해 자동 총격을 가하는 삼성의 ‘센트리 건’도 이미 현장에 투입된 킬러 로봇의 사례로 언급됐다.
김미나 기자
mina@hani.co.kr