미사일을 탑재할 수 있는 미 공군의 무인 정찰기 프레데터. 사진 위키미디어 제공.
미 국방부가 전쟁에서 인공지능 사용에 관한 새로운 윤리 지침을 발표했다.
에이피(AP)통신에 따르면, 지난해 10월 국방혁신위원회(Defense Innovation Board)가 미 국방부에 제출한 ‘인공지능 원칙 : 인공지능의 윤리적 사용에 관한 국방부 권고안’이 지난 24일 공개되었다.
권고안은 미 정부와 산업계, 학계 등 주요 인공지능 전문가들의 15개월에 걸친 논의를 통해 만들어졌다. 위원회 위원장은 구글 회장을 지낸 에릭 슈미트다. 구글은 2018년 국방부와의 계약에 따라 수행해오던 인공지능 무기 연구개발 비밀사업인 메이븐 프로젝트의 지속을 놓고 열띤 논쟁을 겪은 바 있다. 구글은 구성원들의 강력한 반발에 부닥쳐 결국 메이븐 프로젝트 수행을 포기하기로 하고, 구글의 인공지능 원칙을 발표했다.
권고안 원칙은 크게 다섯가지로 구성돼 있다.
1. 책무성(Responsible) : 국방부에 속한 사람이 전시 인공지능 사용 판단을 하는 훈련을 받아야 한다.
2. 공정성(Equitable) : 국방부는 인공지능 식별 과정에서 생기는 편견을 막기 위해 의도적 노력을 기울여야 한다.
3. 추적가능성(Traceable) : 국방부는 과제를 제시해야 하고 기술이 어떻게 작동하는 이해해야 한다.
4. 신뢰성(Reliable) : 인공지능 시스템은 명료하게 정의된 사용 영역을 갖고 잘 작동해야 한다.
5. 통제가능성(Governable) : 인공지능 시스템은 스카이넷이 되지 않도록 의도하지 않은 피해나 혼란을 감지하고 회피할 수 있는 능력을 지녀야 한다.
2013년 4월22일 영국 런던에서 국제적인 비영리조직 ‘킬러로봇 금지 캠페인’이 출범해, 인공지능 킬러로봇 개발 반대활동을 해오고 있다. 킬러로봇 금지 캠페인 제공
마크 애스퍼 미 국방방관은 권고안 채택에 대해 “미국은 향후 미래 전장에서의 승리, 규범 기반의 국제질서 보호 등을 위해 인공지능 도입을 가속화하고 국방 안보 분야에 인공지능 적용에서도 주도적 역할을 해야 한다”고 밝혔다. 국방부가 전시 인공지능 윤리원칙을 만든 배경은 기존 군사지침에 인공지능 관련 내용이 없다는 점과 인공지능 시스템이 새로운 윤리적 모호성과 위험성을 야기한다는 것을 인식했기 때문이다. 2012년 만들어진 미 국방부의 군사지침은 사람이 자동화 무기체계를 관리, 제어하도록 규정하고 있으나 인공지능 사용에 관한 내용은 없었다.
이번 지침에 대한 전문가 평가는 엇갈린다. 리베카 크루토프 리치몬드대 법학교수는 “인공지능 윤리원칙 채택은 좋은 출발점”이라면서도 “군은 인공지능 시스템에 대해 사이버보안 위험처럼 광범한 데이터를 비판적으로 평가하고 악용 가능성을 다뤄야 한다”고 지적했다.
정보기술 언론 <넥스트웹>은 “모호하고 실효성 없는 원칙”이라고 평가했으며, <원제로>의 데이브 거시곤은 “로봇으로 사람을 죽이면 안된다”는 윤리가 빠져 있다고 지적했다.
구본권 선임기자 starry9@hani.co.kr