인공지능 범용기술로 활용 늘지만
판단 근거와 인과관계 설명 못해
AI 차별·편견 불거지면 신뢰 파국
알고리즘 개발·학제간 논의 중요
판단 근거와 인과관계 설명 못해
AI 차별·편견 불거지면 신뢰 파국
알고리즘 개발·학제간 논의 중요
설명 가능 인공지능 개발 의미
2013년 미국 위스콘신주의 에릭 루미스는 총격 사건에 쓰인 차량을 몰고 가다 경찰 검문에 불응하고 도주한 혐의로 기소돼 6년형을 선고받았다. 중형 선고의 근거는 재범 가능성을 판단하는 인공지능 알고리즘 컴퍼스(Compas)의 데이터였다. 루미스는 “인공지능 판단의 알고리즘을 확인하거나 이의를 제기할 수 없었다”며 항소했지만, 2017년 위스콘신주 대법원은 “컴퍼스는 유용한 정보를 제공했다”며 항소를 기각했다. 재판 양형에 상당한 영향을 주는 알고리즘 컴퍼스는 효율성과 차별 논란 속에서도 미국 여러 주 법원에서 사용되고 있다. 인공지능과 데이터분석 기술 발달로 대출 심사, 구직 인터뷰, 보험 가입 등에서 알고리즘 활용이 늘고 있다. 국내에서도 여러 대기업이 입사원서 선별과 인터뷰에 인공지능을 사용한다고 밝히고 있다.
인공지능을 재판, 취업, 대출 심사 등에서 사용할 때 효율성은 높아질 수 있지만 불이익을 받았다고 여기는 사람들의 반발을 피할 수 없다. 인공지능이 판단 근거와 이유를 말하지 않기 때문이다.
인공지능이 전기처럼 모든 산업과 생활영역에 활용되는 범용 도구가 될 것이라는 기대가 높아지면서 ‘설명 가능성’이 인공지능 기술과 성공의 빗장으로 주목받고 있다. 인공지능은 바둑, 체스, 스타크래프트 등에서 과시한 능력을 현실 세계에 그대로 적용할 수 없기 때문이다. 알파고가 포석의 근거와 이유를 설명하지 않았지만, 이세돌과 커제는 패배를 이의없이 수용했다. 하지만 게임의 규칙과 결과가 한정돼 있는 게임의 영역과 취업·대출심사 등 사람이 최종 판단을 내려오던 영역은 다르다. 인공지능 결과에 사람이 동의할 수 없으면 인공지능은 활용되기 어렵다. 딥러닝 기술은 최근 비약적 발전과 뛰어난 성과물을 내놓고 있지만, 보이지 않는 층위에서 수많은 매개 변수가 만들어내는 기술적 속성으로 인해 인공지능을 들여다볼 수 없는 블랙박스로 만들었다.
설명가능 인공지능은 개발 단계에서 기술적 오류를 발견하게 돕고, 결과물에 인과 관계를 제공해 사용자와 영향을 받는 사람들이 결과를 수용할 수 있도록 도와준다. 정책 입안자에게는 공정성과 투명성을 확보할 수 있도록 해 법률과 실행의 근거를 제공한다. 개발사도 설명력을 갖춘 제품은 매력적이다. 자율주행 차량의 경우 주행 판단의 근거와 원리를 설명할 수 있으면 사고시 책임 범위 산정만이 아니라, 차량 구매와 운행 단계에서도 소비자 신뢰를 높일 수 있다.
영국의 정보기술 컨설턴트 개리 리처드슨은 <컴퓨팅> 기고에서 “인공지능 알고리즘의 부적절함과 편견으로 인해 사회 전반적으로 부정적 영향이 불거지면 인공지능은 세 번째 겨울을 맞을 수 있다”고 경고했다. 인공지능은 애초의 기대와 투자에 부응하지 못하는 시시한 결과 때문에 1970년대, 1990년대 두 차례 ‘인공지능의 겨울’로 불리는 침체기를 경험한 바 있다. 리처드슨은 “설명 가능한 인공지능은 또 다른 인공지능의 겨울을 피하고 산업과 소비자에게 큰 혜택을 제공해줄 것”이라고 말했다.
국내에서도 연구와 논의가 활발하다. 지난달 29일 서울 고등과학원 초학제연구프로그램은 설명가능 인공지능을 주제로 한 워크숍을 열어 알고리즘 개발과 사회적 영향에 관한 논의를 진행했다. 정부의 정책 과제를 주도하고 있는 최재식 울산과학기술원(UNIST) 설명가능인공지능 연구센터장은 이날 발표에서 주로 헬스케어, 이미지 인식, 금융, 게임 등의 영역에서 설명가능 인공지능을 개발하고 있는 국내 사례를 소개했다. 국내에서는 4개 분과에서 200여명의 연구진이 설명가능 인공지능 개발에 참여하고 있다. 이날 워크숍에서는 사회적 영향에 대한 기술철학자들의 발표와 토론도 진행됐는데, 학문 영역에 따라 ‘설명 가능성’에 대한 개념과 접근법에 상당한 차이가 있다는 현실을 드러냈다. 개발진은 이미지 인식, 대출 심사 과정 등 구체적 실무영역에서 인공지능의 판단 근거를 제시할 수 있는 영역으로 ‘설명 가능성’을 한정해 접근했고, 기술철학자들은 사람들을 설득할 수 있는 논리와 정당성의 근거로 ‘설명가능성’의 문제를 다뤘다. 다학제적 논의 특성상 의견이 수렴되지 않았지만, 설명가능 인공지능의 중요성에 대한 국내의 접근과 논의가 활발해지고 있음을 알려준 자리였다.
글·사진 구본권 선임기자 starry9@hani.co.kr
최재식 울산과학기술원(UNIST) 설명가능인공지능 연구센터장이 3월29일 서울 고등과학원에서 설명가능 인공지능에 대해 발표하고 있다. 현재 딥러닝은 사진으로 사람의 성적 정체성을 식별하는 데 있어 인간보다 뛰어난 능력을 보이고 있다.
항상 시민과 함께하겠습니다. 한겨레 구독신청 하기