생성형 인공지능 챗지피티(GPT)의 등장과 함께 인공지능이 저널리즘에 미칠 영향에 대한 언론계 안팎의 관심도 높아지고 있다. 이정용 기자 lee312@hani.co.kr
대화형 인공지능(AI) 챗지피티(GPT)가 사회 각 분야에서 화제인 가운데, 인공지능이 저널리즘에 미칠 영향에 대한 언론계의 관심도 다시 높아지고 있다. 특히 프로그래밍 언어가 아니라 사람이 쓰는 자연어를 그대로 받아들여 높은 수준의 콘텐츠 창작과 요약·교정 능력을 선보이고 있는 생성형 인공지능이 등장한 만큼, 기자 업무의 상당 부분을 대체할 수 있을 것이란 전망이 나오는 상황이다. 반면 주어진 질문에 ‘확률 높은 답’을 제시하도록 만들어진 인공지능의 한계를 고려할 때, 꼼꼼한 취재와 사실 확인 등 저널리즘의 원칙은 여전히 강조될 수밖에 없다는 분석도 나온다.
21일 미디어 업계의 설명을 종합하면, 지난해 11월 미국의 오픈에이아이(OpenAI)가 공개한 챗지피티 등 생성형 인공지능을 미디어 분야에 활용하려는 노력은 이미 활발히 진행되고 있다. 미국의 대표적 온라인 매체 <버즈피드>가 지난 1월 챗지피티를 활용해 이용자 맞춤형 콘텐츠와 퀴즈를 제작하겠다고 선언한 것이 대표적이다. 스포츠 전문지 <스포츠일러스트레이티드>와 <맨스저널> 등을 발행하고 있는 미국의 아레나 그룹은 이미 챗지피티를 개발한 오픈에이아이의 거대 언어모델과 딥러닝 도구 등으로 ‘40살 이상 남성이 근육을 유지하는 법’ 등 긴 기사를 생산해 국내외에 큰 화제를 모으기도 했다. 아레나 그룹은 2월 이 사실을 공개하며 앞으로도 생성형 인공지능을 콘텐츠 제작공정과 비디오 제작, 뉴스레터, 후원 콘텐츠 등에 적극적으로 활용하겠다고 밝혔다.
뉴스 등 콘텐츠 제작에 인공지능을 활용한 사례는 이외에도 많다. 국내만 하더라도 <연합뉴스>가 2020년 4월부터 엔씨소프트와 손잡고 인공지능 기술 분야의 하나인 머신러닝 기반의 날씨 기사를 제공하고 있다. 연합뉴스는 2021년 1월 포털 업체 줌인터넷과 ‘뉴스 3줄 요약’ 서비스를 공동 개발하기도 했다. <조선일보>도 같은 해 11월 스타트업 기업 웨이커와 협업해 일종의 인공지능 기자인 ‘서학개미봇’을 개발했고, <매일경제>는 외부 인공지능 소프트웨어 개발업체를 통해 자사 유료 플랫폼의 글 기사 일부를 동영상으로 자동 변환한 콘텐츠를 올 초부터 선보이고 있다.
다만 국내 언론사가 지금까지 뉴스 제작 등에 활용해온 인공지능 기술은 대체로 사람이 제공한 정보를 받아들이고 학습해 결과물을 기계적으로 내놓는 수준에 그쳤다. 당연히 실제 사람의 손에서 만들어진 기사나 영상보다 어색할 수밖에 없었다. <여수문화방송>이 2021년 도입했다가 1년 만에 중단한 인공지능 날씨 정보 서비스가 대표적이다. 인공지능 기상캐스터나 아나운서가 미리 입력된 텍스트를 스스로 구현하는 방식이었는데, ‘이상하다’는 반응이 많았다. 여수문화방송 관계자는 지난 20일 “인공지능 기술이 많은 발전을 거듭했다고 하는데, 아직까지 사람이 직접 방송하는 수준에는 미치지 못한다는 판단으로 해당 서비스를 중단한 상태”라고 설명했다.
반면 최근 각광받는 챗지피티 등 생성형 인공지능은 거대 언어모델을 기반으로 만들어졌다는 점에서 출발선이 다르다. 따라서 지금까지의 인공지능 저널리즘과 달리 생성형 인공지능은 마치 사람이 창작한 것처럼 빼어난 품질의 콘텐츠를 제공한다. 특히 챗지피티의 응용프로그램인터페이스(API)인 지피티-3와 지피티-4에서 지원하는 ‘미세조정’(Fine-tuning) 기능에 사용자가 지정하는 추가 학습 데이터를 보태면 좀 더 정확도 높은 결과물을 얻을 수 있다. 또한 챗지피티를 만든 오픈에이아이의 달리2(Dall-E2)나 미드저니(Midjourney) 등 인공지능 이미지 생성기는 저작권에서 자유롭고 기사 내용에도 맞는 이미지를 풍부하게 제공하기도 한다.
강정수 미디어스피어 이사는 “지금까지 나온 인공지능 모델과 거대 언어 모델을 기반으로 하는 생성형 인공지능은 결과물의 품질을 놓고 판단할 때 비교하기 힘들 정도로 차이가 난다”며 “뉴스 생산자 입장에서는 지금 당장 ‘글쓰기의 협업 툴’로서만이 아니라 이미지 생산, 웹사이트의 디자인 변경 등에 생성형 인공지능을 폭넓게 활용할 수 있을 것”이라고 말했다.
물론 챗지피티 등 생성형 인공지능에도 한계는 존재한다. 챗지피티가 아무리 ‘그럴듯해 보이는’ 답변을 제공한다 해도 이는 본질적으로 질문의 내용을 이해한 결과가 아니라 ‘확률적으로 계산된’ 답변에 그치는 만큼, 저널리즘 영역에서 이를 활용한다 하더라도 명확한 목표와 원칙에 따라 쓰되 사실 검증 등 지속적인 모니터링을 게을리해선 안 된다는 지적이다.
이준환 서울대 교수(언론정보학과)는 “통계적으로 다음에 나올 단어를 예측하는 생성형 인공지능 특성상 과거보다는 개선됐다 하더라도 여전히 잘못된 정보를 생산할 가능성이 존재한다”며 “물론 지금 수준으로도 글 전체의 맥락 구성이나 미처 생각하지 못한 지점 탐색, 번역·윤문 등 적극적으로 활용할 분야가 있겠지만, 그만큼 사실 검증의 중요성은 더 높아질 것”이라고 말했다.
오세욱 한국언론진흥재단 책임연구위원은 ‘챗지피티 열풍’이 외려 저널리즘의 원칙을 다시 환기하는 계기가 될 수 있다고 내다봤다. 오 위원은 “세상을 바라보는 관점은 인공지능이 제공해줄 수 없다”며 “방대한 자료 요약 등은 챗지피티에 맡기되, 그 시간을 사실 검증과 깊이 있는 취재 등 저널리즘의 원칙을 강화하는 쪽에 쏟아야 할 것”이라고 말했다.
최성진 기자
csj@hani.co.kr