본문 바로가기

광고

광고닫기

광고

본문

광고

경제 IT

사람이야? 챗봇이야?… “대화 시작 전 알려야”

등록 2023-09-03 12:00수정 2023-09-04 02:50

KISO ‘AI 챗봇 윤리 가이드라인’ 공개
게티이미지뱅크
게티이미지뱅크

“사람이야? 챗봇이야?”

생성형 인공지능(AI) 기술이 적용된 챗봇 이용자들이 혼동하는 일이 없도록, 스마트폰 등을 대화를 할 때 상대방이 사람이 아닌 챗봇이라는 사실을 대화 시작 전에 미리 알려줘야 한다는 가이드라인이 나왔다.

한국인터넷자율정책기구(KISO, 이하 키소)는 3일 챗봇 서비스의 신뢰도를 높이고 윤리적 문제에 기업들이 대응할 수 있도록 ‘챗봇 윤리 가이드라인’을 만들었다고 밝혔다. 네이버, 카카오 등 국내 대표 빅테크와 인공지능 챗봇 ‘이루다’를 운영하는 스타트업 ‘스캐터랩’, 인공지능 자연어처리 스타트업 ‘튜닙’ 등 키소 회원사들이 가이드라인 마련에 참여했다.

키소는 “챗봇은 인간과 친구가 되어주거나 궁금증을 해소해주는 등 도움을 줄 수 있다. 하지만 챗봇에 지나치게 의존하거나 챗봇을 잘못 활용하면 인간에게 정신적·경제적 피해를 가져다줄 수 있다”고 가이드라인 마련의 배경을 밝혔다.

키소 회원사들은 가이드라인에서 인간 존엄성·권리 존중, 개인정보 보호·정보 보안, 다양성, 투명성, 책임성 등 인공지능 챗봇이 지켜야 할 다섯 가지 원칙을 제시했다.

“아동·청소년, 노인, 장애인 등 사회적 약자들도 챗봇을 쓸 수 있도록 화면을 단순하게 설계하고 접근성 향상을 위한 기능을 갖춰야 한다”(다양성)거나, “대화 상대가 챗봇이라는 점을 이용자에게 미리 밝혀야 한다”(투명성)는 등이다. 다만 “심리 상담, 치매 환자 안정화 등 챗봇임을 알리지 않는 게 더 유의미한 효과를 가져오는 경우 알리지 않는 등 서비스 개발자와 운영자들이 상황에 따라 유연하게 판단할 수 있다”고 덧붙였다.

키소 회원사들은 “챗봇 이용 과정에서 개인정보 등을 무단으로 노출·공유하거나 오용하지 않아야 한다”(개인정보 보호), “이용 과정에서 챗봇의 부작용 등을 인지한 경우 운영자에게 알려 피해를 최소화해야 한다”(책임성)고 하는 등 챗봇 이용자 쪽 역할도 함께 강조했다.

이재신 키소 신기술위원회 위원장(중앙대 교수)은 “챗봇이 변화하는 기술 환경 속에서도 폭넓은 사회적 공감을 얻도록 가이드라인을 지속해서 수정·보완하겠다”고 말했다.

정인선 기자 ren@hani.co.kr
항상 시민과 함께하겠습니다. 한겨레 구독신청 하기
언론 자유를 위해, 국민의 알 권리를 위해
한겨레 저널리즘을 후원해주세요

광고

광고

광고

경제 많이 보는 기사

삼성전자 인사 쇄신은 없었다 1.

삼성전자 인사 쇄신은 없었다

윤석열표 ‘건전재정’에 갇힌 한국 경제…‘1%대 저성장’ 뾰족수 없다 2.

윤석열표 ‘건전재정’에 갇힌 한국 경제…‘1%대 저성장’ 뾰족수 없다

‘차기 총리설’ 이창용 “경제 어려운데 한은 총재 충실하겠다” 3.

‘차기 총리설’ 이창용 “경제 어려운데 한은 총재 충실하겠다”

EU 경쟁당국, 대한항공·아시아나 합병 승인…‘메가 캐리어’ 뜬다 4.

EU 경쟁당국, 대한항공·아시아나 합병 승인…‘메가 캐리어’ 뜬다

삼성, 경영진단실 신설해 이재용 측근 배치…미전실 기능 부활? 5.

삼성, 경영진단실 신설해 이재용 측근 배치…미전실 기능 부활?

한겨레와 친구하기

1/ 2/ 3


서비스 전체보기

전체
정치
사회
전국
경제
국제
문화
스포츠
미래과학
애니멀피플
기후변화&
휴심정
오피니언
만화 | ESC | 한겨레S | 연재 | 이슈 | 함께하는교육 | HERI 이슈 | 서울&
포토
한겨레TV
뉴스서비스
매거진

맨위로
뉴스레터, 올해 가장 잘한 일 구독신청