국내 인공지능 기업 스캐터랩이 개발한 채팅로봇(챗봇) ‘이루다’가 지난 27일 서비스를 재개했다. ‘스무살 여대생’ 챗봇이 이용자들의 왜곡된 성관념, 혐오 발언을 학습하고 개인정보 유출 문제를 일으켜 서비스가 중단된 지 1년9개월여 만이다. 업그레이드된 이루다는 인공지능과 기존보다 17배 확장된 언어모델을 활용해 실시간으로 대화 문맥을 파악해 답변하고 사진도 인식해 대화가 한결 자연스러워졌다. 이용자가 차별과 혐오 발언을 유도하거나 학습시키면 회피하는 기술도 익혔다.
돌아온 챗봇 이루다는 인공지능·로봇과 공존해야 하는 사회의 모습을 알려준다. 인공지능 알고리즘은 이미 만들어진 데이터를 활용하기 때문에, 우리 사회의 편향성과 차별을 반영한다는 점이다. 기계 아닌 사회의 차별이 원인이다. 기계학습 특성상 문제점이 보고되면 개선하거나 회피할 수 있고 갈수록 효율성은 높아진다. 이에 대해 수학자 캐시 오닐은 <대량살상 수학무기>에서 “공정성과 공익은 인간 머릿속에만 존재하기 때문에 정량화가 어려워 배제된다. 효율성을 희생하더라도 알고리즘에 인간적 가치를 반영해야 한다”고 말한다.
알고리즘과 데이터는 아는 만큼 사회가 통제할 수 있다. 알고리즘에 대한 투명성과 접근성이 요구되는 이유다. 교육과정에서 코딩 교육을 강조하고 있지만 그보다 중요한 것은 알고리즘과 데이터가 개인과 사회에 어떤 영향을 끼칠 수 있는지와 이를 통제하는 방법이다. 이미 ‘코파일럿’처럼 자동으로 코딩을 해주는 프로그램이 등장한 상황에서 코딩은 기계에 쉽게 대체될 기능이다.
이루다의 서비스 기치는 ‘공감과 위로’로, 모든 사람이 덜 외롭고 행복한 삶을 사는 데 도움이 되는 친구를 목표로 내걸었다. 개인화·고령화 사회에서 휴머노이드로봇·소셜로봇·챗봇에 대한 의존성은 커진다. 편리하지만 위험한 미래다. 매사추세츠공과대학의 사회심리학자 셰리 터클은 1960년대부터 왜 사람들이 로봇에 빠져드는지를 연구했다. 로봇이 사람을 속이기 때문이 아니라, 사람들이 사람에게 기대하기보다 통제 가능한 기계에 더 의존하고자 하기 때문이라는 게 연구의 결과다(<외로워지는 사람들>). 함께 살아갈 인공지능 챗봇을 어떤 존재로 만들어야 하는지는 개발자만이 아니라 사회 모두의 과제가 됐다.
구본권 사람과디지털연구소장
starry9@hani.co.kr