본문 바로가기

광고

광고닫기

광고

본문

광고

오피니언 칼럼

[전치형, 과학의 언저리] 무심코 그린 얼굴?

등록 2020-07-02 18:16수정 2020-07-03 13:13

전치형 ㅣ 카이스트 과학기술정책대학원 교수·과학잡지 <에피> 편집위원

최근 소셜 미디어에서 ‘페이스앱’이라는 프로그램을 써서 변형한 자기 사진을 올리는 사람이 꽤 많았다. 페이스앱은 남성 얼굴이라고 인식한 사진을 여성 얼굴처럼 보이게 변환해주는 기능을 갖췄다. 여성 얼굴로 인식한 사진은 남성 얼굴로 바꿔준다. 사용자들은 앱이 생성한 사진을 보면서 예쁘다, 멋지다, 잘 어울린다, 지금과 다른 성으로 살았어도 괜찮았겠다는 식의 평가를 주고받았다. 알고리즘이 자동으로 남성을 여성으로, 여성을 남성으로 바꿔주면서 어색함과 익숙함을 동시에 느끼게 한 것이 이 앱의 인기 비결인 것 같다.

하지만 여성과 남성이라는 범주의 경계를 넘어가서 살고 있는 트랜스젠더 여성 또는 남성이 이 앱이 만든 사진을 소셜 미디어에 즐겁게 공유하는 장면은 상상하기 어렵다. 트랜스젠더 여성은 이 앱이 자기 얼굴을 여성(또는 남성)으로 인식한 뒤 그것을 남성(또는 여성)의 얼굴로 바꿔서 보여주는 것을 어떻게 해석해야 할까? 페이스앱은 젠더에 대한 우리의 통념에 기대고 있다. 사용자들이 한 젠더에서 다른 젠더로 순간적으로 옮겨간 자신이나 친구의 모습에 재미를 느끼는 것은, 그런 경계 넘기가 실제로는 일어나지 않을 일이라고 가정하기 때문이다. 페이스앱은 두 가지 젠더가 있고 그 둘 사이의 경계가 견고하다는 믿음 위에서만 재미를 준다.

페이스앱은 인공지능이 얼굴을 가지고 그 사람의 젠더를 자동으로 인식하고 분류하는 ‘자동 젠더 식별’ 기술의 한 사례다. ‘자동 젠더 식별’ 알고리즘은 공중화장실처럼 한 젠더만 출입하도록 규정된 공간에 다른 젠더의 사람이 접근하는 것을 통제하는 등의 용도로 사용할 수 있다. 트랜스젠더 컴퓨터공학자인 오스 키스는 2018년에 ‘자동 젠더 식별’ 기술 연구 동향을 분석한 논문에서 대부분의 연구가 식별 대상인 젠더를 남성과 여성 두 가지만으로 설정하고 그 범주는 변화할 수 없는 것으로 가정하고 있음을 발견했다. 그는 이런 젠더 체계 안에서 얼굴 인식 기술을 개발할 때, 그 체계에 들어맞지 않는 트랜스젠더의 존재와 삶을 배제하게 된다고 지적했다. 인공지능의 젠더 식별 정확도가 높아질수록, 트랜스젠더를 식별 대상에 넣지 않는 차별적인 시스템도 더 굳건해진다.

얼굴에서 사람의 정체성이나 성향을 읽어내고 판정하려는 시도는 젠더뿐만 아니라 인종 문제에도 맞닿아 있다. 6월 하순에는 얼굴 사진으로 그 사람의 ‘범죄 성향’을 예측할 수 있다는 알고리즘 연구에 대해 컴퓨터공학, 인문학, 사회과학 연구자 2400여명이 공개적으로 비판 서한을 발표했다. 알고리즘 연구진은 이 소프트웨어가 경찰의 범죄예방 활동에 도움을 줄 것으로 기대했고, 이들이 속한 대학은 “80%의 정확도로 그리고 인종적 편견 없이, 소프트웨어는 사람의 얼굴 사진만 가지고서 그가 범죄자인지 예측할 수 있다”고 홍보했다. 비판자들은 이런 연구야말로 인종적 편견에 기반하고 있고 그것을 강화할 것이라고 주장했다.

공개서한은 이렇게 지적한다. “인종적 편견 없이 ‘범죄 성향’을 발견하거나 예측하는 시스템을 개발하는 것은 불가능하다. ‘범죄 성향’이라는 개념 자체가 인종적 편견을 담고 있기 때문이다.” 현재의 범죄자 데이터베이스는 범죄 성향 분포의 객관적 반영이 아니라 인종차별적인 경찰과 사법 시스템의 산물이다. 흑인을 잠재적 범죄자로 취급하고, 이들에게 부당한 공권력을 행사하면서 감옥으로 보내온 사회적, 역사적 시스템이 인공지능 연구 안으로 침투해 있다는 것이 비판자들의 주장이다. 인공지능이 얼굴 사진을 보자마자 범죄 성향을 판단하도록 훈련하는 데에 쓰이는 데이터는 흑인을 보자마자 범죄자로 의심하는 경찰의 행태가 만들어낸 것이다.

얼굴을 슬쩍 보고서 그 사람을 식별하고 평가하는 인공지능을 만들려는 시도는 한동안 계속될 것이다. 얼굴이 그 사람의 본질을 담고 있다는 오래된 통념을 인공지능이 확인해줄 것만 같다. 그러나 얼굴은 윤곽선과 굴곡과 피부색의 집합이 아니며, 물리적 얼굴을 특정한 정체성이나 성향으로 대응시키려는 시도는 언제나 실패했다. 알고리즘은 얼굴에 새겨져 있는 차별과 배제의 경험을 읽어낼 수가 없다. 그 역사를 읽지 않는 것을 알고리즘의 객관성이라고 믿는 순간, 차별과 배제의 역사는 알고리즘을 통해 반복된다. 알고리즘은 여성, 남성, 트랜스젠더, 흑인의 얼굴을 무심코 그리는 법을 모른다.
항상 시민과 함께하겠습니다. 한겨레 구독신청 하기
언론 자유를 위해, 국민의 알 권리를 위해
한겨레 저널리즘을 후원해주세요

광고

광고

광고

오피니언 많이 보는 기사

한동훈의 ‘생닭’과 윤석열의 ‘대파’ 1.

한동훈의 ‘생닭’과 윤석열의 ‘대파’

대통령이 위험하다 [세상읽기] 2.

대통령이 위험하다 [세상읽기]

[사설] 총선 앞 막 쏟아낸 감세 공약, 이제 어찌 감당할 건가 3.

[사설] 총선 앞 막 쏟아낸 감세 공약, 이제 어찌 감당할 건가

적개심이 된 ‘지못미’…검찰 정치보복성 수사가 부추겨 [이철희의 돌아보고 내다보고] 4.

적개심이 된 ‘지못미’…검찰 정치보복성 수사가 부추겨 [이철희의 돌아보고 내다보고]

조국, 미래의 아이콘이 되기를 [세상읽기] 5.

조국, 미래의 아이콘이 되기를 [세상읽기]

한겨레와 친구하기

1/ 2/ 3


서비스 전체보기

전체
정치
사회
전국
경제
국제
문화
스포츠
미래과학
애니멀피플
기후변화&
휴심정
오피니언
만화 | ESC | 한겨레S | 연재 | 이슈 | 함께하는교육 | HERI 이슈 | 서울&
포토
한겨레TV
뉴스서비스
매거진

맨위로
뉴스레터, 올해 가장 잘한 일 구독신청