기자명 최승욱 기자
  • 입력 2019.03.26 09:37

인공지능 기반으로 맞춤형 음량제어… 귀에 최적화된 소리 찾아
사업화 진행… '100% 수입' 실시간 음량제어방송장비 국산화 기대

오디오 콘텐츠 변환 솔루션 시제품이 동작하는 모습. (사진제공=KETI)

[뉴스웍스=최승욱 기자] 전자부품연구원(KETI, 원장 김영삼)은 인공지능(AI)으로 오디오 음원을 분석, 보다 명확하게 음성을 전달하는 것은 물론, 배경음악, 음향, 대사 등 구성음 간 최적화된 음량구성을 실시간 제공하는 음량 자동제어기술을 개발했다고 26일 밝혔다.  

KETI에 따르면 2016년 5월부터 방송법이 개정되면서 방송프로그램의 평균음량이 LKFS 기준 (-)24dB로 통일됐다. LKFS(Loudness, K-weighted, relative to Full Scale)란 디지털 방송프로그램 음량측정 기준으로, 실제 소리에너지 값을 사람 귀에 들리는 상대적인 크기를 고려해 변환시킨 표준 단위이다. (-)값이 작을수록 큰 소리를 의미한다.

압축신호를 송출하는 디지털방송 특성상 과거 아날로그 방송과 달리 방송국 단에서의 송출신호 조정을 통한 일괄음량조절이 어렵다. 법 개정으로 채널 간, 프로그램 간 평균음량차이는 사라졌다. 문제는 콘텐츠 내에서의 들쭉날쭉한 음량편차에 대한 기준이 없다는 점이다. 육성음량이 배경음악, 음향효과 등 배경음량 대비 작아 대사전달이 부정확하거나, 음량 급등락 등으로 편안한 시청이 힘든 실정이다. 

분석 기반의 음량조절 사례. ILKFS 기준. (사진제공=KETI)

이번에 KETI가 개발한 ‘AI기반 오디오 음원분석 및 자동 음량 실시간 제어기술’은 딥러닝을 활용한 CNN기반 알고리즘으로 콘텐츠 내 소리를 400ms 단위로 육성, 묵음, 배경음, 혼합음 등의 클래스로 구분하고, 클래스에 따라 맞춤형으로 음량을 제어하도록 고안됐다. CNN(Convolutional neural networks)이란 지능신경망 종류로, 주로 매트릭스 데이터나 이미지 데이터의 특징 추출에 활용된다.

단위구간별 소리들은 직전 단위구간과의 연속성 차원에서 조절된 음량이득, 이전 동일 클래스와의 연계성 차원에서 조절된 음량이득 및 평균음량을 (-)24dB로 맞추기 위한 육성, 배경음, 혼합음 등 클래스별 조절된 음량이득 등을 고려해 실시간으로 제어, 출력된다. 음량이득은 원음의 음량을 의도적으로 증폭 또는 감쇄시킨 정도를 뜻한다. 웅얼거리는 듯 들릴 수 있는 대사음량은 키워주고, 과도한 배경음향은 줄인다. 이에따라 기존 콘텐츠의 음성 명료도를 개선하고 급등락하는 소리의 상대적 편차를 줄여 편안한 청취 환경을 제공하는 동시에 라이브방송 시에도 평균음량 규정을 실시간으로 맞출 수 있는 장점을 갖고 있다.

AI 기반 지능형 오디오 분석/제어기술 개념도. (그림제공=KETI)

KETI 지능형영상처리연구센터 김제우 수석은 “이번 기술개발로 100% 해외의존 중인 실시간 음량제어 방송장비의 국산화가 기대된다”며 “디지털 방송뿐 아니라, 인터넷 개인방송, 소셜 미디어 등 퍼스널 미디어시장이 지속성장하고 있는 만큼, 향후 편안한 시청환경 구축에 KETI 기술이 활용될 것으로 기대한다”고 밝혔다.

이번 기술은 과학기술정보통신부와 정보통신기획평가원(IITP)의 ‘방송통신산업기술개발사업’으로 지원된 ‘딥러닝기반 지능형 오디오 분석을 통한 오디오 콘텐츠 변환 솔루션 개발’ 과제로 개발됐다. 현재 주관기관인 네오컨버전스주식회사로 기술이전돼 사업화가 진행 중이다.

 

저작권자 © 뉴스웍스 무단전재 및 재배포 금지