오철우 ㅣ 서울과학기술대 강사(과학기술학)
새해 2020년에는 인공지능이 ‘사람 중심’이라는 말과 더 자주, 더 친근하게 만나야 할 듯하다. 지난 한 해의 흐름을 돌아보며 드는 생각이다. 2016년 알파고 충격 이후 인공지능 미래 사회에 대한 기대와 우려가 계속되는 가운데 지난해는 영향력 있는 국제기구들이 그간의 논의를 종합하는 인공지능 개발과 사용 원칙들을 잇달아 발표한 한 해였다.
일찌감치 유엔 기구들은 인공지능 시대의 인권과 윤리, 사회 문제를 숙고해왔다. 이에 더해 지난해 11월에는 유럽의회와 유럽위원회의 지원을 받는 포럼인 ‘사람을 위한 인공지능’(AI4people)이 기술과 윤리, 시장, 사회규범 간의 균형을 강조하는 보고서를 냈고, 3월에는 국제전기전자공학회(IEEE) 표준화기구가 인권, 복지, 투명성, 책임성이 중요함을 강조하는 ‘윤리적으로 정렬된 설계’라는 자율·지능시스템 원칙을 발표했다.
경제협력개발기구(OECD)도 나섰다. 지난해 6월 발표한 보고서 <사회 안의 인공지능>은 인공지능 개발과 사용이 사람 중심으로 이뤄져야 한다는 대원칙을 확인했다. 표준적인 정부의 역할은 ‘신뢰할 수 있는 인공지능의 책임관리인’에 맞춰졌다.
사람 중심 인공지능(Human-centered AI, HAI)이라는 말이 공식 무대에서 주목받은 것은 지난해 6월 주요 20개국(G20) 무역과 디지털경제 분야 장관 회의였다. 여기에서 발표된 선언문은 ‘사람 중심 인공지능’을 주요 내용으로 명시했다. 인터넷에서도 사람 중심 인공지능이란 말은 공감대를 넓히고 있다.
경제협력개발기구와 G20의 ‘인공지능 원칙’은 정부가 인공지능 정책을 세우고 시행할 때 고려할 다섯 원칙을 담았다. 첫째, 인공지능은 포괄적 성장, 지속가능한 발전, 그리고 복지를 지향하며, 둘째 인권과 민주적 가치를 존중해야 한다. 이를 위해, 셋째 인공지능 개발운영자는 인공지능 시스템이 어떻게 작동하는지 설명할 수 있고 그 정보를 투명하게 밝혀야 하며, 넷째 인공지능 시스템은 어떤 조건에서도 제대로 작동하는 견고함과 안전성을 갖추고, 다섯째 인공지능 개발운영자는 이에 책임감을 지녀야 한다는 것이다. 혁신, 성장과 함께 인권, 복지를 위한 인공지능은 투명과 안전, 책임의 원칙에 의해 작동해야 한다.
각 나라 정부는 이런 원칙이 인공지능 개발과 사용에서 잘 구현되도록 관리, 감독하는 역할을 맡는다. 우리 정부도 지난 12월 인공지능 연구개발 생태계 육성, 사회와 산업 분야의 활용 증대, 그리고 사람 중심의 인공지능을 위한 ‘국가전략’을 발표했다. 이제 ‘사람 중심’은 인공지능에서 기술경쟁력의 요소로 부각된다. 국내에서도 ‘사람 중심’을 위한 연구개발이 더욱 늘어야 한다.