Korea Digital Contents Society

Current Issue

Journal of Digital Contents Society - Vol. 22 , No. 3

[ Article ]
Journal of Digital Contents SocietyVol. 22, No. 3, pp.429-436
Abbreviation: J. DCS
ISSN: 1598-2009 (Print) 2287-738X (Online)
Print publication date 31 Mar 2021
Received 09 Dec 2020 Revised 12 Jan 2021 Accepted 12 Jan 2021
DOI: https://doi.org/10.9728/dcs.2021.22.3.429

무대 공연에서 공연자의 위치에 따른 마이크 소리의 실시간 방향 전환에 관한 연구
조환희1 ; 김준2, *
1동국대학교 영상대학원 멀티미디어학과 박사과정
2동국대학교 영상대학원 멀티미디어학과 교수

A study on a real-time direction change of microphone sound according to the location of performers in stage performance
Hwan-Hee Jo1 ; Jun Kim2, *
1D.M.A. Candidate, Department of Multimedia, Graduate school of Digital Image and Contents, Dongguk University, Seoul, Korea
2Professor, Department of Multimedia, Graduate school of Digital Image and Contents, Dongguk University, Seoul, Korea
Correspondence to : *Jun Kim E-mail: ghksgml12@naver.com


Copyright ⓒ 2021 The Digital Contents Society
This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-CommercialLicense(http://creativecommons.org/licenses/by-nc/3.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

초록

현대 무대 공연에서 청각적 효과는 작품에 대한 이해와 몰입도 증가에 큰 도움이 된다. 다양한 스피커와 음향 시스템의 발전에도 불구하고, 아직 공연 중에 공연자의 목소리를 보다 입체적으로 전달하는 데 기술적 어려움을 가지고 있다. 본 연구에서는 공연 중 시각 정보와 청각 정보 간의 불일치를 줄이고자, 공연자의 움직임에 대한 정보를 실시간으로 측정하고 이를 통해 청각적인 제어를 동시에 구현한 자동화 시스템을 제안하고자 한다. 이 시스템을 통해 공연자의 움직임과 청각 정보를 결합하여 관객의 작품 몰입도를 향상시킬 수 있는 새로운 방법을 제시하고자 한다.

Abstract

In modern stage performance, various auditory system has been applied for the enhancement of understandings of the performance. In spite of the development of various sound systems, there is still a technical difficulty in delivering the voice of performers in stereophonic way. In this study, in order to minimize the mismatch between visual and aural information during a performance, we propose a novel sound-control system that automatically controls the sound effect by measuring the real-time the movement of performers. Through this system, we present a new method to improve the audience’s immersion and understanding of the performance by combining the performer’s movement and sound effect.


Keywords: Real-Time Sound Locating System, Acoustic Automation, Surround Sound, Public Address(PA), Interactive performance
키워드: 실시간 소리 위치 추적 시스템, 음향 자동화, 입체음향, 무대 음향, 인터랙티브 퍼포먼스

Ⅰ. 서 론

무대에서의 공간이란 단순히 공연자의 몸짓, 목소리, 음악을 전달하는 것이 목적이 아닌, 관객이 작품을 통해 스토리의 진행, 극적인 효과, 공감각적 체험을 소통하는 장소이다[1]. 일반적으로 관객과 작품 사이의 체험적 소통을 돕기 위해 시각적인 요소와 청각적인 요소가 활용된다. 시각적인 요소는 주로 소품, 조명 등의 무대 요소를 활용하거나 배경 및 무대 구성 전환을 이용한다. 이때, 청각적인 요소는 대사의 전달과 악기 혹은 그 외 효과음 및 음악을 통해 관객의 시각적 상상력을 더욱 자극하는 역할을 한다.

공간음향 혹은 입체음향이라고 일컫는 분야의 발전을 통해 소리를 입체적으로 전달할 수 있는 음향 시스템과 무대 장치들이 생기고 있지만, 아직 공연장에서 공연자의 목소리를 전달하는 기술에는 적용되지 않고 있다.

현재 공연장에서 첨단 청각적 효과의 적용에 어려움이 생기는 이유는 크게 두 가지가 있다. 첫 번째로, 소리 위치의 고정이다. 뮤지컬과 같이 큰 무대를 사용하는 공연장에는 각 공연자가 마이크를 착용하여 스피커를 통해 소리를 전달한다. 각 공연자는 정해진 동선을 따라 움직이지만, 소리의 위치는 대부분 중앙에 고정되어 있다. 공연자의 위치가 변함에 따라 소리가 왼쪽에서 오른쪽으로 움직이는지, 가장자리에서 중앙으로 이동하는지에 대한 표현이 부족하다. 두 번째로, 음향 조작 방식의 수동성이다. 기존의 방식으로 공연자의 위치에 따라 스피커에서 들리는 공연자의 소리 위치를 조절하기 위해서는 사운드 오퍼레이터[2]가 공연자의 모든 동선을 알고 있어야 하며, 공간의 특성을 살리지 못한 채 감각에 의존하여 수동으로 조작을 해야 한다. 이러한 수동적이고 주관적인 요소로 인해, 관객은 시각적 정보와 청각적 정보 간의 이질감을 느끼게 된다. 이로 인해 작품의 몰입도가 줄어들게 되며, 작품의 흐름과 정서에 방해 요소가 된다. 더욱이 다수의 공연자가 무대에 존재하게 되면 위치 정보에 대한 제어를 실시간으로 동시에 조작하는 것이 물리적으로 불가능하여 각 공연자의 시각적인 위치와 청각적인 위치에 대한 이질감이 심해진다. 따라서, 공연 몰입에 방해가 되는 시각 정보와 청각 정보 전달 사이의 이질감을 줄이기 위해 공연자의 움직임에 대한 청각적인 정보를 실시간으로 자동 제어할 수 있는 시스템에 대한 개발 및 실증 적용이 필요하다. 이 시스템의 도입을 통해, 공연자의 움직임을 시각적인 요소만으로 사용하던 기존의 공연과는 차별적으로, 소리의 위치를 실시간으로 제공하여 음향효과의 기술적 전환을 통해 청각적인 몰입을 극대화하고자 한다. 최종적으로 넓은 무대에서의 움직임에 시청각을 결합하여 극의 전개에 대한 관객의 이해를 높이고자 한다.

본 연구에서는 사람을 추적할 수 있는 많은 기술 중에 공연장이라는 특수한 공간 내에서 공연자의 위치를 효과적으로 추적할 수 있는 기술을 조사하였다. 유망 기술 중 공연장에서 공연자의 소리를 입체적으로 표현할 수 있는 기술을 선별하였다. 또한 선별된 기술의 적용을 통해 시청각적 몰입도를 향상할 수 있는 시스템 적용 가능성을 검토하였다.


Ⅱ. 분류 및 설계
2-1 위치 추적 시스템 분류

공연장에서 공연자의 실제 위치를 알아내기 위해서는 위치 추적 시스템의 도입이 필요하다. 위치 추적 시스템은 실시간으로 사람 혹은 사물의 위치 정보를 좌표 데이터로 전송하는 기술이다. 이 시스템을 통해 획득한 위치 정보를 활용하여 소리의 방향을 전환하고자 한다.

실시간으로 위치를 추적할 수 있는 방법은 크게 두 가지로 분류할 수 있다.

첫 번째로는 센서 기반의 위치 추적 방식이다. 열화상 카메라, 적외선 카메라(FLIR), TOF Sensor 등을 이용한 기술로써, 장치의 시야각 내에 있는 모든 물체를 추적하는 방식이다. 추적 정밀도는 매우 높으며 추적하는 대상은 별도의 장치를 필요로 하지 않지만, 오로지 정해진 시야각 내의 물체만 식별하는 단점이 존재한다.

두 번째로는 GPS(Global Positioning System), Wi-Fi 위치 시스템, RFID(Radio Frequency IDentification), IR-UWB(Ultra Wide Broadband) 등으로 대표되는 장치 기반의 위치 추적 방식이다. 위 기술은 컴퓨터나 스마트폰과 같은 장치나 별도의 태그(tag)의 형태를 활용하는 기술로써 센서 기반의 위치 추적 방식과 다르게 AP의 배치에 따라 음영 공간이 존재하지 않는 기술적 장점이 있다. 현재 다양한 종류의 측위 기술들이 존재하며, 기술, 비용, 용도에 따라 다양한 측위 정밀도를 가지는 기술을 선택하여 활용할 수 있다.

2-2 위치 추적 시스템 구현을 위한 전제조건

다양한 위치 추적 시스템 중, 공연자의 움직임 추종성, 공연 실내 환경, 측위 정밀도 등을 고려하여 활용 가능한 위치 추적 시스템을 선정한다. 이를 위해 실내 공연의 위치 추적 시스템 구성을 위한 세 가지 필수 전제조건을 제안한다.

1) 실내에서 구동이 되어야 한다.

무대 공연의 특성상 소극장, 공연장, 콘서트홀 등의 실내 공간에서 이루어지기 때문에 실내에서 구동되어야 한다. 예를 들어 GPS는 위성을 통해서 위치를 추적하는 시스템으로 휴대폰과 같은 개인 단말기만 가지고 있더라도 활용할 수 있는 기술적 편의성을 가진다. 하지만 실내에서는 GPS 수신 장치가 제대로 작동하지 않고, 정확도가 매우 낮으므로 실내 사용에 어려움이 있다[3].

2) 위치 추적하는 대상을 개별 인식해야 한다.

카메라 등의 영상장치를 이용한 위치 추적 기술은 무대를 시야각 내로 설치하면, 손쉽게 공연자의 위치 정보를 얻을 수 있다. 하지만 본 연구에서 제안하는 시스템이 궁극적으로 목표를 하는 무대 내의 위치 정보 출력 방식을 고려해볼 때, 공연자 인식의 문제가 발생한다. 단순히 위치 정보만을 필요로 하는 것이 아닌, 공연자를 개별 인식하여 오디오 믹싱 콘솔(audio mixing console)에 맵핑(mapping)할 수 있어야 다수의 공연자가 존재하더라도 동시다발적인 인식이 가능하기 때문이다. 또한 공연자가 무대 밖에서 안으로 들어오는 연출 방법을 고려해볼 때, 카메라의 경우 무대의 시야 내에 공연자의 정보가 존재하지 않다가 갑자기 발생하기 때문에 마이크 소리의 실시간 방향 전환이 불안정하게 된다.

3) 인식할 수 있는 오차 범위가 최대 80cm 미만이어야 한다.

성인 기준 보폭이 60cm에서 80cm 정도임을 고려하면 인식할 수 있는 오차 범위가 80cm를 넘지 않아야 정확한 위치 추적이 가능하며, 마이크 소리의 방향 전환에 있어 더욱 정확한 표현이 가능하다.

언급한 세 가지 전제조건에 부합하는 기술을 고려해볼 때, RTLS(Real-Time Locating System, 실시간 위치 추적 시스템)이 모든 전제조건을 부합할 수 있었다.

2-3 RTLS(Real-Time Locating System)

RTLS는 능동형(Active) RFID 태그가 부착된 사람이나 사물의 위치를 실시간으로 확인하거나 추적하기도 하며, 주로 제한된 실내 혹은 근거리에서의 위치 확인 및 추적 서비스를 지칭한다. 현재 이 기술은 병원, 국방, 물류, 항공, 제조 분야 등에서 활발히 사용 중에 있으며, 정확한 위치 추적 및 이동 경로가 필수적인 고가의 자산 혹은 사람의 위치 확인 및 출입자 관리 등에 활용된다[4].

1) RFID(Radio Frequency IDentification)

자동 식별(automatic identification) 기술 중 한 종류인 RFID는 마이크로칩을 내장한 태그에 저장된 데이터를 무선주파수를 이용해 비접촉으로 인식하는 기술이다. 이 기술은 태그에 기록된 정보를 무선으로 수 m에서 수십 m까지 보낼 수 있다[5]. RFID의 구성요소 및 원리는 다음 < 표 1 >과 같으며, 태그를 사용함으로써 모든 사물 및 사람에 ID를 부여하게 되어 자동인식이 가능해진다.

Table 1. 
Components and mechanism of RFID
구성요소 원리
태그 사람 및 사물에 부착되어 데이터가 기록된 IC칩과 전파를 송수신하는 안테나로 구성
안테나 태그로부터 보내온 신호를 수신하여 리더기로 전달함
리더기 태그와 정보를 송/수신하며 태그에서 수집된 정보를 시스템으로 전송

2) 능동형 RFID

RFID 기술은 태그의 배터리 내장 유무에 따라 능동형과 수동형으로 나뉜다. 능동형 RFID는 태그에 배터리가 내장되어 자체적으로 RF 신호를 송신할 수 있다. 내장 배터리로 인해 가격이 고가라는 단점이 존재하지만 수십 미터까지 전송 가능하다는 장점이 있다. 반면, 수동형 RFID는 태그에 배터리가 내장되어있지 않고 리더기의 전파 신호로 전원공급을 하게 된다[5]. 가격이 저렴하다는 장점이 존재하지만, 가용 통신 거리가 10m의 한계를 가진다. 본 연구에서 고려 중인 공연자의 경우 소극장부터 시작해서 큰 규모인 콘서트홀까지 최소 10m에서, 많게는 30m까지의 너비를 가지고 있으므로 능동형 RFID 태그의 사용이 적합하다.

3) IR-UWB

Impulse Response-Ultra WideBand의 명칭을 가지고 있으며 단거리 구간에서 낮은 전력으로 넓은 스펙트럼 주파수를 통해 많은 양의 디지털 데이터를 전송하는 무선 기술이다. 명칭 그대로 매우 넓은 대역폭을 가지며 투과성이 좋아 건물 내의 벽이나 비금속 칸막이 등을 통과할 수 있고 음영지역에서도 사람이나 사물의 위치를 파악할 수 있으며, 정확도 또한 매우 뛰어나다[6].

따라서 RTLS에 속해있는 기술은 Active RFID, BLE Beacon, Wi-Fi, IR-UWB, Zigbee 등이 있지만 공연자의 평균 보폭을 고려하였을 때, 측위 정밀도가 30cm 내외인 IR-UWB가 가장 적합함을 알 수 있었다. 또한 투과성이 좋아 무대 위의 많은 공연자들이 존재하더라도 오차범위가 크지 않은 장점이 있다.

이러한 기술적 장점을 통해, 공연자의 실시간 실내 위치 추적에 적합한 기술로는 IR-UWB가 최적의 기술임을 확인하였다. IR-UWB 기술을 이용하여 자동으로 공연장에서 공연자의 위치를 추적하는 시스템을 구성하고자 한다.

2-4 무대에서의 실시간 방향 전환을 위한 설계 및 연구

선행 연구 및 분류에 따라 무대 공연에서 적합한 위치 추적 기술은 UWB 기술로 채택되었다. 현재 UWB 기술은 표준화가 이루어지지 않아 업체별로 기준 및 가격이 상이한 점이 특징이다. 본 연구에서 요구하는 기술 수준을 고려하여, UWB 기반의 위치 추적 기술 업체 중 하나인 Decawave사의 MDEK-1001 Development kit을 사용하였다. 이 장비는 설치 및 구현이 복잡한 방식인 UWB 기술을 사용자가 손쉽게 설치하고 구현하기 쉽게 제작된 것이 특징이다.

1) MDEK-1001 Development kit

이 장비는 Decawave사의 DW1000 Radio ic를 내장하여 만들어진 DWM1001 모듈로 구성되어 있다[7]. 각 모듈은 사용자의 선택에 따라 앵커(anchor), 태그 역할을 개별 지정할 수 있어 하드웨어의 구분이 필요하지 않다. 스마트폰을 사용해 앵커의 위치를 구성하거나 태그의 위치를 간편하게 설정 및 위치 측정이 가능하다. 이러한 작동 편의성을 통해 손쉽게 RTLS를 구현할 수 있는 기술적 장점이 있다< 그림 1 >.


Fig. 1. 
MDEK-1001 Development kit module and mode selection

2) UWB와 PC의 연동

MDEK-1001 Developement kit과 PC의 연동을 위해서는 하나의 DWM-1001 모듈이 Listener 역할을 하여 태그로부터 수집된 데이터를 USB 연결을 통해 전송해야 한다. DWM-1001 모듈은 ARM Coretex-M 기반의 MCU가 탑재된 보드이기 때문에 계산된 데이터를 해석할 수 있는 외부 라이브러리와 프로그램이 필요하다. GNU Arm Embedded Toolchain은 DWM-1001의 데이터를 분석하는데 필요한 라이브러리로써, 데이터 분석과 타 프로그램 간의 맵핑을 용이하게 할 수 있는 Segger사의 J-Link 소프트웨어에 적용하여 센서 처리 및 데이터 로깅을 할 수 있다< 그림 2 >.


Fig. 2. 
Data extracted via J-Link software

3) 위치 정보와 음향 정보의 연동

수집된 공연자의 위치 정보를 음향 정보와 연동시키기 위해서는 실시간 공간 정보와 오디오 믹싱 콘솔 데이터 정보 간의 교류가 필요하다. 이를 위해 GUI 방식의 손쉽게 데이터를 제어할 수 있는 Max 프로그램[8]을 사용하였으며, J-Link 소프트웨어를 통해 전송된 데이터를 OSC 프로토콜[9]을 사용하여 전송하였다< 그림 3 >.


Fig. 3. 
Location data processed via Max program

공연장에서 완성된 소리를 전달하기 위해서는 오디오 믹싱 콘솔의 존재가 필수적이다. 공연자, 악기 등의 소리를 관객에게 효과적으로 전달하기 위해서는 마이크(mic), 라인(line) 등을 통한 입력과 스피커를 통해 전달하는 출력 과정까지의 기능을 관리하고 음량, 위치, 음색 등을 조절하여 전체적인 균형을 제어할 수 있는 기기가 필요하다. 무대 음향 시장이 생성된 초창기에는 아날로그 콘솔을 사용했지만, 기술이 발전함에 따라 디지털 방식의 콘솔들이 생겨나기 시작했다. 아날로그 콘솔에서는 오로지 전기적 신호를 통해 물리적 제어밖에 할 수 없었지만, 디지털 콘솔이 생겨난 이후로는 컴퓨터와 통신 및 제어를 할 수 있어 원격조종이 가능한 장점을 통해 사용자의 편의성이 커졌다. 컴퓨터와 디지털 콘솔과의 통신은 랜(LAN) 케이블의 연결을 통해 가능하다. 본 연구에서는 마이다스(Midas)사의 제품 M32를 사용하여 원격으로 통신하였다. M32는 OSC 프로토콜을 지원하는 장점이 있다. 이 기능을 통하여 Max에서 정제된 위치 데이터를 OSC 프로토콜을 통해 M32에서 지원하는 위치 데이터로 치환하여 전송하였다. 전송된 위치 데이터를 통해 마이크 소리의 실시간 방향 전환이 가능하다. Max와 M32 EDIT의 데이터를 전송하는 과정에서는 별도의 포트 넘버(Port number)를 사용하여 두 프로그램의 공유번호로 활용하였고, 그로 인해 데이터가 오전송되는 것을 방지하였다< 그림 4 >.


Fig. 4. 
Data transmission of the processed-location data

최종적으로 UWB에서 나온 위치 데이터를 컴퓨터로 전송받았고, 전송된 데이터를 정제하여 오디오 믹싱 콘솔로 전송되는 것을 확인하였다. 본 연구에서 구현한 배치도는 다음과 같다< 그림 5 >.


Fig. 5. 
Schematic diagram for linking UWB, PC, and data transmission

2-5 연구된 시스템 구현
1) 공연장에서의 설치 및 연동

무대 공연에서 공연자의 위치에 따른 실시간 방향 전환 시스템의 작동 검증을 위해 동국대학교 이해랑 예술극장에서 RTLS 구축 및 음향 설계를 진행하였다 < 그림 6 >.


Fig 6. 
Floor map of Haerang.Lee Art Theater at Dongguk University and anchor location

실제 공연이 이루어지는 공간인 주 무대(main stage)는 너비가 약 15m, 폭은 약 7.7m의 크기를 가지며, 각 꼭짓점에 앵커를 설치하였다. 태그는 관객에게 보이지 않게 하며, 배우들의 안무와 연기에 방해되지 않게끔 몸에 밀착하여 body-pack 형태로 장착하였다. 그 결과, 관객석에서 바라보았을 때 앵커와 태그의 존재를 인지하지 못하게 설치할 수 있었으며, 앵커의 위치가 15m의 거리를 두어 설치하였을 때 작동 범위 또한 양호함을 확인했다.

2) 공연장에서의 x축 구현

공연장에서의 x축이란 관객이 무대를 보는 방향에서의 상수(stage right)와 하수(stage left)를 나눌 수 있는 척도이다. x축의 음향적인 표현은 스피커로 출력하여 나오는 소리의 좌측과 우측을 조절할 수 있게 하는 panning data로 표현할 수 있으며, 공연자의 동선이 x축을 따라 하수에서 상수로 움직이게 된다면 다음과 같은 위치 정보를 얻을 수 있다< 그림 7 >.


Fig. 7. 
Location data along the performer’s movement (left to right)

공연자의 움직임에 따라 변화한 x축의 데이터는 Max를 통해 전송받았으며, 실시간으로 정제하였을 때 출력된 데이터는 시간 차이 및 오차가 존재하지 않았음을 확인하였다< 그림 8 >.


Fig. 8. 
Data processed via Max program (x-axis)

공연자로부터 출력된 위치 데이터의 구성을 보았을 때 좌측에서 우측으로 움직임을 확인하였다. 이 정보는 본 연구에서 구현한 시스템을 통해 오디오 믹싱 콘솔로 전달되었다. 최종적으로 오디오 믹싱 콘솔의 panning data가 자동으로 좌측에서 우측으로 움직임을 확인할 수 있다< 그림 9 >.

3) 공연장에서의 y축 구현

공연장에서의 y축은 관객이 무대를 보는 방향에서의 전면 무대(down stage)와 후면 무대(up stage)로 나눌 수 있다. 효과적인 입체감을 표현하기 위해서는 관객이 공연자에게서 거리감을 인지하여야 하며, 이는 곧 x축만을 구현하는 것만이 아닌 y축 또한 구현하여야 한다. < 그림 10 >은 공연자의 동선이 y축을 따라 후면 무대에서 전면 무대로 움직인 데이터이다.


Fig. 10. 
Data change along the performer’s movement (up stage to down stage)

y축의 데이터 또한 x축의 데이터와 같이 시간 차이 및 거리 감지에 대한 오차가 존재하지 않았음을 확인하였으며, Max로부터 정제된 데이터는 다음 < 그림 11 >과 같다.


Fig. 11. 
Data processed via Max program (y-axis)

본 연구에서 최종적으로 구현하고자 하는 공연자의 실시간 위치 변화에 대한 음향효과의 표현 방식을 고려해봤을 때, y축의 구현 또한 x축의 구현만큼 중요하게 표현이 되어야 한다. x축은 소리를 좌·우로 조절하여 직관적으로 표현할 수 있지만, y축은 무대 특성상 폭이 좁아 효과적으로 표현할 수 있는 방식에 대한 적용사항이 한계적이다. 거리감을 표현할 수 있는 방식으로 잔향감, 소리 크기, 저음역 감쇠(bass loss) 현상 등이 있지만, 잔향감은 극의 전개를 구성하는 데 중요한 역할을 하여 자동화를 시키는 것에 배제하였다.

y축의 데이터를 표현하기 위한 첫 번째 방법으로는 저음역 감쇠 현상을 활용하였다. 음원(sound source)으로부터 거리가 멀어지게 되면 소리의 음압 레벨이 감소함과 동시에 저음역 감쇠 현상이 생겨 저음에 대한 청력 감도가 줄어들게 된다[10]. 이에 착안하여 이퀄라이저(equalizer)를 사용하여 공연자의 목소리를 전면 무대와 후면 무대로의 움직임에 따라 200Hz 대역을 증폭하거나 감쇠를 하였다< 그림 12 >.


Fig. 12. 
Frequency adjustment (200Hz band) of the performer’s voice

두 번째 방법으로 y축 데이터를 활용하여 소리 크기 조절에 대한 자동화를 진행했다. 하지만 소리 크기 조절을 자동화할 때, 크기 변화의 편차를 크게 지정한다면 다른 위치에 있는 공연자와 목소리 크기가 과도하게 차이 나게 되어 음향의 전체적인 균형이 맞지 않게 되며, 이는 곧 관객이 이질감을 느끼게 된다. 공연장마다 폭이 다르므로 폭이 약 7.7m인 동국대학교 이해랑 예술극장을 기준으로 소리 크기의 편차를 3dB 단위로 측정하였다< 표 2 >.

Table 2. 
Effects of deviations in loudness
편차 효과
3 dB 차이가 미약하여 느껴지지 않음
6 dB 차이가 구별되며 큰 이질감이 느껴지지 않음
9 dB 차이가 확연하며 이질감이 느껴짐

소리 크기의 편차를 측정한 결과 6dB의 차이가 가장 적합함을 확인하였고, 이 수치를 동국대학교 이해랑 예술극장에 적용하였다. 소리 크기의 편차 정도는 각 공연장의 폭, 좌석 수, 천장의 높이라는 변수에 따라 달라질 수 있으므로 청취를 통해 공연장의 적용 수치를 필수적으로 조정해야 한다.

최종적으로 x축의 좌우 방향 전환과 y축의 200Hz 조절 및 소리 크기 조절의 자동화를 통해 공연자의 위치 변화에 따른 음향효과의 전환을 구현하였고, 오차 범위가 작아 공연장에서 공연자의 정확한 위치 추적이 가능하였다.


Ⅳ. 결 론

현대 음향 기술의 발전을 통해, 사용자의 편리성 향상 및 소리의 생생한 전달과 같은 음향 전달성 향상을 위한 연구가 주를 이루고 있다. 하지만 아직도 공연자의 위치, 음량, 잔향감에 대한 음향효과는 사운드 오퍼레이터에 의해 수동적으로 제어되고 있다. 이는 필연적으로 수동 제어의 물리적인 한계로 인해 공연장의 객관적인 정보를 전달하는 것에는 제한점을 가지게 된다.

본 연구는 자동 위치 측위 시스템을 활용하여 다수 공연자의 위치를 한 번에 제어하며, 공연자의 소리 위치를 자동화하는 시스템을 구축하여 관객으로 하여금 작품에 더욱 집중할 수 있게 하는 새로운 요소를 제안하였다. 이를 활용하여 공연장이라는 공간에서 단순히 공연자의 소리를 전달하는 것이 아닌, 새로운 창작 표현 방식의 활용을 기대해 볼 수 있다. 이는 곧 청각적인 효과를 연출 효과에 더할 수 있어 새로운 양상의 연출 의도를 표현할 수 있게 된다. 이 기술은 공연자의 움직임에 따라 즉각적으로 소리의 위치를 실시간으로 변화시켜 공연 중의 몰입도를 증가시키는 효과를 가진다. 나아가 다수 공연자의 목소리를 개별 공연자의 위치에 따라 자동으로 소리의 위치를 분산시켜, 각 공연자의 위치별로 목소리를 구별할 수 있게 된다. 이를 통해 청취자는 더욱더 넓은 현장감을 느낄 수 있게 된다.

또한 공연장이라는 특수 실내 공간의 기능과 역할을 고려하여, 다양한 실내 측위 기술 중 적용 가능한 기술을 조사하였다. 선별된 최적 기술을 적용하여, 넓은 무대에서 공연자의 위치를 정확하게 추적하였다. 추적된 위치 정보는 자동으로 데이터 정제 시스템으로 전송되었고, 전송된 위치 정보는 음향 정보 제어 시스템으로 자동 전송되었다. 이 과정을 통해, 시각 정보를 음향 공간의 자동 전환을 위해 활용되었다. 본 연구에서 제안한 시스템을 이용할 때, 보다 효율적이고 생동감 있는 공연의 구성을 확인하였다. 나아가 이 시스템은 안무와 같이 위치별 시각 정보의 전달을 극대화할 수 있는 분야로의 기술 확장을 기대해 볼 수 있다.

본 연구에서 제안한 시스템의 기술 확장을 위해서는 다음과 같은 후속 연구 및 기술 개량을 제안하고자 한다. 첫 번째로는 태그의 크기를 더 소형화시키는 것이다. 현재 사용한 모델 MDEK-1001은 가로 3cm, 세로 7cm의 소형화된 태그를 사용하고 있지만, 칩 형태의 크기로 제작하게 된다면 공연자의 신체 부위 어디에서나 착용할 수 있어, 실제 현장 적용 시 편의성 향상을 크게 기대할 수 있다. 두 번째는 구축하는 시스템의 간소화이다. 본 장치의 하드웨어 측면에서는 앵커를 각 꼭짓점에 설치하여 바로 구동을 할 수 있게 하는 간편한 점이 있지만, 소프트웨어의 측면에서는 세 가지 프로그램이 필요하다. 새로운 통합 소프트웨어 구축을 통해 프로그램 사용 개수를 줄일 수 있다면 사용자의 편의성 및 접근성이 더욱 향상될 것이다.


References
1. A. S. Ahn, “A Study on Variable spatial composition of Musical stage,” The Journal of Korean Institute of Spatial Design, Vol. 3, No. 2, pp. 21-34, 2008.
2. Y. C. Choi, Glossary of Performing Arts, Kungnip Chungand Kŭkchang, 2010.
3. S. J. Park and M. K. Kim, “Implementation of Indoor Location Aware System using 802.11 Wireless Signal Learning Algorithm,” The Journal of Korean Institute of Information Scientists and Engineers, Vol. 34, No. 1C, pp. 361-365, October 2007.
4. H. Choi, Efficient communication method for scalable real time locating system, Ph.D. Pusan University, 2013.
5. C. H. Lee, Research on Position Tracking Using Passive RFID Tags, Master thesis, Dankook University, 2012.
6. S. W. Kim, A study on the increasing the effectiveness of UWB, Master thesis, Chung-ang University, 2008.
7. Decawave [Internet] Available: https://www.decawave.com/
8. Max [Internet] Available: https://www.cycling74.com/
9. OSC [Internet] Available: https://www.opensoundcontrol.org/
10. S. J. Oh, Psychoacoustics, sigmapress, pp. 245-247, 2013.

저자소개

조환희(Hwan-Hee Jo)

2019년 : 동국대학교 영상대학원 (컴퓨터음악석사)

2020년 : 동국대학교 영상대학원 (컴퓨터음악박사과정)

2013년~2017년: 영남대학교 클래식 작곡과 전공

2017년~2019년: 동국대학교 영상대학원 멀티미디어학과 컴퓨터음악전공 석사

2019년~현 재: 동국대학교 영상대학원 멀티미디어학과 컴퓨터음악전공 박사과정

※ 관심분야: 입체음향, 소리시각화, 컴퓨터음악, 실시간 사운드 프로세싱

김준(Jun Kim)

1989년 : 경희대학교(음악학사)

1994년 : Boston University(음악석사)

1999년 : Stanford University(음악박사)

2001년~현 재: 동국대학교 영상대학원 멀티미디어학과 교수

※ 관심분야: 멀티미디어컨텐츠, 컴퓨터음악, 인터렉티브 퍼포먼스