“사람이야? 챗봇이야?”
생성형 인공지능(AI) 기술이 적용된 챗봇 이용자들이 혼동하는 일이 없도록, 스마트폰 등을 대화를 할 때 상대방이 사람이 아닌 챗봇이라는 사실을 대화 시작 전에 미리 알려줘야 한다는 가이드라인이 나왔다.
한국인터넷자율정책기구(KISO, 이하 키소)는 3일 챗봇 서비스의 신뢰도를 높이고 윤리적 문제에 기업들이 대응할 수 있도록 ‘챗봇 윤리 가이드라인’을 만들었다고 밝혔다. 네이버, 카카오 등 국내 대표 빅테크와 인공지능 챗봇 ‘이루다’를 운영하는 스타트업 ‘스캐터랩’, 인공지능 자연어처리 스타트업 ‘튜닙’ 등 키소 회원사들이 가이드라인 마련에 참여했다.
키소는 “챗봇은 인간과 친구가 되어주거나 궁금증을 해소해주는 등 도움을 줄 수 있다. 하지만 챗봇에 지나치게 의존하거나 챗봇을 잘못 활용하면 인간에게 정신적·경제적 피해를 가져다줄 수 있다”고 가이드라인 마련의 배경을 밝혔다.
키소 회원사들은 가이드라인에서 인간 존엄성·권리 존중, 개인정보 보호·정보 보안, 다양성, 투명성, 책임성 등 인공지능 챗봇이 지켜야 할 다섯 가지 원칙을 제시했다.
“아동·청소년, 노인, 장애인 등 사회적 약자들도 챗봇을 쓸 수 있도록 화면을 단순하게 설계하고 접근성 향상을 위한 기능을 갖춰야 한다”(다양성)거나, “대화 상대가 챗봇이라는 점을 이용자에게 미리 밝혀야 한다”(투명성)는 등이다. 다만 “심리 상담, 치매 환자 안정화 등 챗봇임을 알리지 않는 게 더 유의미한 효과를 가져오는 경우 알리지 않는 등 서비스 개발자와 운영자들이 상황에 따라 유연하게 판단할 수 있다”고 덧붙였다.
키소 회원사들은 “챗봇 이용 과정에서 개인정보 등을 무단으로 노출·공유하거나 오용하지 않아야 한다”(개인정보 보호), “이용 과정에서 챗봇의 부작용 등을 인지한 경우 운영자에게 알려 피해를 최소화해야 한다”(책임성)고 하는 등 챗봇 이용자 쪽 역할도 함께 강조했다.
이재신 키소 신기술위원회 위원장(중앙대 교수)은 “챗봇이 변화하는 기술 환경 속에서도 폭넓은 사회적 공감을 얻도록 가이드라인을 지속해서 수정·보완하겠다”고 말했다.
정인선 기자
ren@hani.co.kr