UCSF 연구진 학술지 '네이처'에 발표

사람의 뇌파를 바탕으로 음성을 합성하는 기술이 나왔다. 기술이 상용화되면 의사소통이 불가능한 환자의 생각을 어느 정도 파악해, 이들의 삶의 질을 개선할 수 있을 것으로 기대된다.

미국 샌프란시스코 캘리포니아대(UCSF) 연구진은 뇌-컴퓨터 인터페이스(Brain-Computer Interface·BCI)를 이용한 의사소통 기술을 개발했다고 25일 밝혔다. 연구 결과는 국제학술지 '네이처'(Nature) 24일 자에 실렸다.

지금껏 학계에는 BCI를 활용한 의사소통 보조 기술이 여럿 보고됐다. 눈동자나 얼굴 근육 신호를 이용해 사람의 의도를 문자로 표현하는 장치가 대표적이다. 그러나 이런 방법으로는 단어를 1분에 최대 10개까지 나타낼 수 있다. 1분에 100∼150개의 단어를 쏟아내는 말에 비하면, 의사를 표현하는 데 제한을 받는 셈이다.

이에 연구진은 말을 기반으로 한 의사소통 장치를 구현해 냈다. 연구는 뇌전증을 치료하기 위해 뇌에 전극을 부착한 5명을 대상으로 진행했다. 연구진은 전극을 통해, 말을 할 때 움직이는 조음(調音) 기관의 뇌파를 읽어냈다. 조음 기관에는 입술과 혀, 턱관절 등이 속한다.

이어 뇌파 신호를 바탕으로 조음 기관의 운동을 추정할 수 있는 인공지능(AI)을 개발했다. 이 인공지능을 이용하면 조음 기관의 운동을 실제로 측정하지 않고도 음성을 합성할 수 있었다. 정확도는 47∼69% 정도였다.

연구를 진행한 에드워드 창 교수는 "뇌파 신호를 바탕으로 완전한 문장을 합성해 냈다"며 "환자를 위한 임상 장치 개념을 증명한 셈"이라고 연구의 의의를 밝혔다.

연구진은 뇌파 인식 전극을 보다 촘촘하게 배열하고 인공지능 기술을 발전시키는 등의 추가 연구를 진행해 장치정확도를 높일 수 있을 것으로 보고 있다.

저작권자 © 울산매일 - 울산최초, 최고의 조간신문 무단전재 및 재배포 금지