본문 바로가기

광고

광고닫기

광고

본문

광고

오피니언 칼럼

[전치형의 과학 언저리] 인공지능, 하지 않을 용기

등록 2023-06-22 19:13수정 2023-09-18 18:25

과학 언저리
킬러 로봇을 다룬 영화 <터미네이터 제네시스>의 한 장면.
킬러 로봇을 다룬 영화 <터미네이터 제네시스>의 한 장면.

전치형 | 카이스트 과학기술정책대학원 교수·과학잡지 <에피> 편집주간

모든 기술은 양날의 칼과 같아서 효용과 부작용이 모두 있으니 인공지능만 문제 삼을 일은 아니라는 반박도 있겠지만, 그 날이 유난히 날카로울 뿐만 아니라 짙은 베일에 가려 있으므로 특별히 경계해야 한다는 주장을 이제 수긍할 수밖에 없다. 인공지능 기술에는 방임이 아니라 개입이 필요하다는 사회적 합의가 이뤄진 것이다.

인공지능(AI) 기술의 위험을 우려하고 경고하는 이들이 부쩍 많아졌다. 국내외에서 전문가들의 기고, 토론, 성명, 권고가 매일 이어진다. 그중에는 인공지능이 인류 전체의 운명을 뒤흔들 만한 “실존적 위험”이 될 수 있다는 목소리도 있다. 핵전쟁이나 기후변화처럼 인공지능도 우리가 개입하기 어려운 방식으로 파국적인 결과를 낳을 수 있다는 것이다. 이런 걱정을 하는 전문가들은 위험을 통제하기 위한 사회적 논의를 하는 동안 연구를 중단하자는 과감한 제안도 내놓았다. 인류의 생존이 인공지능 기술의 적절한 규제 여부에 달린 것만 같다.

5년 전에도 이와 비슷한 분위기가 있었다. 2018년 4월 초 많은 신문과 방송이 이른바 “킬러 로봇” 문제를 앞다투어 보도했다. <한국일보>와 <국민일보>는 1면에 영화 속 킬러 로봇 이미지를 실었다. <한국일보> 기사 제목은 “현실로 다가온 ‘킬러 로봇’… 윤리논쟁 점화”였다. 인공지능과 로봇 분야 해외 연구자 수십명이 카이스트가 국방 관련 인공지능 연구센터를 만들어서 자율형 살상무기를 연구할 것으로 의심된다면서 앞으로 카이스트와 하는 모든 연구 협력을 끊겠다(보이콧)고 선언한 것이다. 이들은 신성철 카이스트 총장에게 보낸 공개서한에서 자율형 살상무기라는 “판도라의 상자는 한번 열리면 닫기 어려울 것”이라고 경고했다. 그럼 어떻게 하란 말인가. 상자를 열지 않으면 된다, 즉 “이 기술을 개발하지 않겠다고 결정”하면 된다는 것이 이들의 주장이었다. 한국 킬러 로봇의 향방은 카이스트의 선택에 달려 있었다.

일년에도 강산이 변할 만큼 발전하는 인공지능 분야에서 5년이나 지난 일을 다시 꺼내는 것은 당시의 논란이 그저 논란으로 끝나지 않았기 때문이다. 신 총장은 보이콧을 주도한 과학자에게 보낸 답신에서 “카이스트는 인간의 유의미한 통제가 없는 자율형 무기 개발 등 인간 존엄성에 반하는 어떠한 연구 활동도 수행하지 않을 것”이라고 약속했다. 한 대학 전체가 “인권과 윤리 기준을 중시”하고 판도라의 상자는 열지 않겠다고 공개 선언한 것이다. 우려를 이해하고 조심하겠다는 정도가 아니라 앞으로 하지 않을 연구를 명확하게 밝혔다는 점에서 신 총장의 서한은 인공지능 윤리와 규제의 역사에서 중요한 문서로 기록될 것이다.

뜨거웠던 카이스트 보이콧 사태가 어느새 잊힌 것을 보면 인공지능 윤리나 규제도 쉽게 달아올랐다가 곧 사그라지는 유행일지 모른다. 신기술에 대한 열광과 공포가 언론의 입맛에 따라 주기적으로 소비되는 경향도 있다. 알파고, 카이스트 보이콧, 챗봇 이루다에 이어 지금은 챗지피티(ChatGPT)에 모든 관심이 쏠린다. 또 “실존적 위험”이나 “킬러 로봇”처럼 실체가 모호한 말은 잠시 흥미를 끌 수는 있겠지만 인공지능을 연구, 개발, 활용하는 현장에 있는 이들에게 유용한 지침을 주기는 어렵다. 인공지능 기술이 비약적으로 발전한 것에 비해 그 위험을 방지하기 위한 시도는 획기적으로 진전하지 못한 것 같아 답답하다.

그러나 지난 5년간 인공지능 기술이 자유, 평등, 안전, 평화 등 인류가 중시하는 가치에 위배되는 결과를 낳을 수 있다는 인식만큼은 널리 퍼졌다. 모든 기술은 양날의 칼과 같아서 효용과 부작용이 모두 있으니 인공지능만 문제 삼을 일은 아니라는 반박도 있겠지만, 그 날이 유난히 날카로울 뿐만 아니라 짙은 베일에 가려 있으므로 특별히 경계해야 한다는 주장을 이제 수긍할 수밖에 없다. 인공지능 기술에는 방임이 아니라 개입이 필요하다는 사회적 합의가 이뤄진 것이다. 앞으로 필요한 것은 강력한 칼을 어디에 쓰고 어디에는 쓰지 않을지에 관한 약속과 실천이다. 지난주 유럽의회가 공공장소에서 실시간으로 얼굴을 인식하는 기술 등 인권침해 위험이 큰 인공지능 사용을 금지하는 법안 협상안을 채택한 것이 그런 사례다.

인공지능이 곧 인류를 말살할 스위치를 누를 것으로 생각해서 윤리나 규제를 논하는 것은 아니다. 영화가 아닌 현실에서 인공지능이 제기하는 위험은 훨씬 구체적이고 국지적일 것이다. 바로 그런 이유로 대학, 기업, 정부조직에서 인공지능 개발과 활용의 방향을 설정하고 이에 책임질 수 있는 이들이 입장을 밝히고 결정을 내려야 한다. 이런 결정과 실천이 쌓이면서 비로소 인공지능은 인간 사회에 무사히 자리를 잡을 수 있게 된다. 5년 전 카이스트의 약속은 지금도 유효하다(고 믿는다).
항상 시민과 함께하겠습니다. 한겨레 구독신청 하기
언론 자유를 위해, 국민의 알 권리를 위해
한겨레 저널리즘을 후원해주세요

광고

광고

광고

오피니언 많이 보는 기사

검찰은 끝났다 [사설] 1.

검찰은 끝났다 [사설]

끝 모를 명태균 폭로, 윤 대통령 부부가 직접 설명해야 [사설] 2.

끝 모를 명태균 폭로, 윤 대통령 부부가 직접 설명해야 [사설]

불온서적이 노벨상을 받았다 [똑똑! 한국사회] 3.

불온서적이 노벨상을 받았다 [똑똑! 한국사회]

집으로, 일터로…성별 소득 격차와 ‘온콜’ [유레카] 4.

집으로, 일터로…성별 소득 격차와 ‘온콜’ [유레카]

문해력도 모르는 닭대가리 [말글살이] 5.

문해력도 모르는 닭대가리 [말글살이]

한겨레와 친구하기

1/ 2/ 3


서비스 전체보기

전체
정치
사회
전국
경제
국제
문화
스포츠
미래과학
애니멀피플
기후변화&
휴심정
오피니언
만화 | ESC | 한겨레S | 연재 | 이슈 | 함께하는교육 | HERI 이슈 | 서울&
포토
한겨레TV
뉴스서비스
매거진

맨위로
뉴스레터, 올해 가장 잘한 일 구독신청