뇌 임플란트에 인공지능, 디지털 아바타 기술 접목 발병 전 영상에서 목소리 추출해 실시간 소통 구현
뇌 해독 시스템은 앤의 두피에 연결된 디지털 링크를 이용해 뇌 신호를 잡아낸 뒤 이를 음성으로 변환, 디지털 아바타를 통해 재생한다. 연구팀 제공.
기술이 난치병 환자의 삶을 돌려주고 장애를 극복하는 도구로 활용되는 사례는 많다. 파킨슨병 환자의 손떨림을 줄여주는 구글의 ‘스마트 스푼’이나 마이크로소프트의 ‘엠마 워치’, 저시력 장애인이 사물을 보다 또렷이 볼 수 있게 돕는 삼성전자 ‘릴루미노’와 옥사이트의 ‘스마트 스펙’도 일부다. 인공지능은 의학이 닿지 않았던 그늘에도 빛을 비춘다. 동공 스캔만으로도 파킨슨병을 7년 앞서 진단하고, 통화 목소리로 우울증을 진단하는 인공지능 의사도 나왔다. 올해 4월엔 미국 매사추세츠 종합병원(MGH) 하버드의대 연구팀이 수만장의 뇌 자기공명영상(MRI) 이미지를 인공지능에게 학습시켜 알츠하이머 발병 여부를 90% 정확도로 미리 감지해냈다.
앤은 고등학교 수학 교사로 일하던 2005년, 갑작스런 뇌졸중으로 삶이 뒤바뀌었다. 오감은 있지만 근육은 완전히 마비됐다. 수년 동안 꾸준히 물리치료를 받은 덕에 눈을 찡그리는 등 간단한 의사표현을 하게 됐지만 의사를 온전히 전달하기엔 턱없이 부족했다.
에드워드 창 박사를 만나며 변화가 시작됐다. 캘리포니아대학교 메디컬센터(UCSF) 신경외과 전문의인 창은 의사소통이 어려운 사람들이 온전하게 소통하는 방법을 연구하고 있었다. 연구진은 세 가지에 주목했다. 뇌 신호와 인공지능, 디지털 아바타다. 그는 먼저 앤의 뇌에 칩을 심어 오감으로 전달되는 전기 신호를 가로챘다. 인공지능은 1024개의 단어와 어휘를 학습해 앤의 고유한 뇌 신호를 해독하는 훈련을 거쳤다. 디지털 아바타는 앤이 말을 시도할 때 뇌에서 보내는 신호를 분석해 얼굴 움직임으로 변환해 보여준다. 연구진은 앤의 결혼식 연설에서 음성을 뽑아내 목소리도 되살려냈다. 앤이 생각하는 것만으로도 아바타가 표정과 움직임, 목소리로 대신 표현해주는 셈이다. 그때까지 앤은 입력용 보조기구인 안경을 쓰고 화면 속 글자를 하나씩 눌러가며 가족과 대화했다. 한 문장을 전달하는 데 5분 이상 걸리던 대화가 목소리와 표정을 더한 실시간 소통으로 바뀌었다. 그가 뇌졸중으로 쓰러졌을 때 첫 돌이던 딸은 18년 만에 엄마의 목소리를 직접 들었다. 앤의 삶은 바뀌었다.
뇌 해독 시스템은 앤의 두피에 연결된 디지털 링크를 이용해 뇌 신호를 잡아낸 뒤 이를 음성으로 변환, 디지털 아바타를 통해 재생한다. 연구팀 제공.
뇌 임플란트 기술은 10여년 전부터 꾸준히 연구돼 왔다. 뇌에 조그만 칩을 심어 뇌에서 발생하는 생체 신호를 해석하고 조종하는 뇌-컴퓨터 상호작용(BCI) 기술이다. 일론 머스크가 설립한 뉴럴링크는 2021년, 뇌에 칩을 심은 원숭이가 손을 쓰지 않고 뇌 신호만으로 탁구 게임을 하는 영상을 공개하기도 했다. 지난해엔 독일의 전신마비 루게릭 환자가 뇌에 심은 칩의 도움으로 의사소통에 성공한 사례도 있었다. 올해 6월에는 미국 프리시즌 뉴로사이언스가 환자 3명의 두개골에 전자칩을 이식하는 임상실험에 성공하기도 했다. 하지만 뇌 신호로 환자의 의사를 파악하는 데 그치지 않고 얼굴 표정과 목소리까지 합성한 사례는 이번이 처음이다. 연구팀은 이 시스템이 분당 80단어 분량의 텍스트를 해독할 수 있다고 밝혔다.
아직은 아쉬운 점도 있다. 디지털 아바타와 연동하기 위해 앤은 머리에 부착한 출력장치와 뇌 암호 해독 시스템을 유선으로 연결해야 한다. 연구팀은 무선으로 BCI와 통신할 수 있는 시스템 개발을 진행 중이다. 시스템을 고도화해 실제 생활에서 의사소통 도구로 쓰이길 바란다며. 이번 연구 결과는 <네이처> 8월23일자(사진)에 공개됐다.
이희욱 미디어랩부장 asadal@hani.co.kr