Korea Digital Contents Society

Journal Archive

Journal of Digital Contents Society - Vol. 21 , No. 9

[ Article ]
Journal of Digital Contents SocietyVol. 21, No. 9, pp.1599-1606
Abbreviation: J. DCS
ISSN: 1598-2009 (Print) 2287-738X (Online)
Print publication date 30 Sep 2020
Received 31 Aug 2020 Revised 18 Sep 2020 Accepted 18 Sep 2020
DOI: https://doi.org/10.9728/dcs.2020.21.9.1599

몰입형 가상현실 콘텐츠의 확장된 인터페이스에 대한 연구
강지영1 ; 최상일2, *
1부교수, 단국대학교 SW융합학부 SW융합콘텐츠학과
2부교수, 단국대학교 컴퓨터학과

Study on the Expanded Interface in Immersive Virtual Reality Content
Ji young Kang1 ; Sang-Il Choi2, *
1Associate Professor, College of Software Convergence, Department of SW Convergence Contents, Dankook University, 152, Jukjeon-ro, Yongin-si, Gyeonggi-do 16890, Korea
2Associate Professor, Department of Computer Science and Engineering, Dankook University, 152, Jukjeon-ro, Yongin-si, Gyeonggi-do, 16890, Korea
Correspondence to : *Sang-Il Choi Tel: +82-31-8005-3657 E-mail: choisi@dankook.ac.kr


Copyright ⓒ 2020 The Digital Contents Society
This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-CommercialLicense(http://creativecommons.org/licenses/by-nc/3.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.
Funding Information ▼

초록

4차 산업혁명시대의 핵심 기술 중 하나인 가상현실은 다양한 콘텐츠와 융합 가능한 융합기술로서 주목받고 있다. 최근에는 가상현실의 시청각적인 몰입을 위한 디스플레이 기술뿐만이 아니라 사용자의 오감 및 감성을 통한 확장된 인터페이스 기술들이 도입되고 있다. 가상현실의 확장된 인터페이스는 사용자에게 가상환경에서 실제와 같은 경험을 하게 하여 현존감을 느끼고 이를 통해 콘텐츠에 몰입하게 하는데 그 목적이 있다. 본 연구에서는 몰입형 가상현실 콘텐츠의 확장된 인터페이스 기술을 체감형 인터페이스, 소셜 인터페이스, 감성 인터페이스로 분류하고 그 특징을 알아보고자 하였다. 또한 사용자의 뇌파를 활용하여 사용자의 몰입을 중심으로 한 가상현실 시네마틱 게임 ‘Lucy'를 제작 하였다. 사용자의 몰입정도를 인터랙션 요소로 한 인터페이스 개발과 사용자 평가를 통해 가상현실 환경에서의 감성인터페이스의 몰입효과를 알아보고 새로운 형식의 가상현실 감성 인터페이스의 가능성을 살펴보았다.

Abstract

Virtual Reality, one of the key technologies in the era of the fourth industrial revolution, is drawing attention as a convergence technology that can be conversed with various contents. Recently, extended interface technologies through five senses and sensibility of users as well as display technologies for visual and immersion of Virtual Reality have been introduced. The purpose of the extended interface of Virtual Reality is to give users a realistic experience in a virtual environment, thereby making them feel existing and immerse themselves in content. In this study, the extended interface technology of immersive Virtual Reality content was classified as sensory interface, social interface, and emotional interface and we investigated its characteristics. We also used the brain waves of the user to produce a VR Cinematic game called 'Lucy' that focuses on the user's immersion. Through the development of interfaces with the degree of user immersion as the interaction element and user evaluation, we explored the effect of the emotional interface and examined the possibility of the new type of emotional interface for in the Virtual Reality environment.


Keywords: virtual reality, expanded interface, presence, immersion, brain waves
키워드: 가상현실, 확장된 인터페이스, 현존감, 몰입, 뇌파

Ⅰ. 서 론
1-1 연구의 배경

현재 가상현실 콘텐츠는 관련 하드웨어와 소프트웨어의 눈부신 발전과 함께 다양한 형태로 진화하고 있다. 몰입형 가상현실 기기인 HMD(Head-Mounted Display) 시장의 성장과 함께 도래한 가상현실 콘텐츠 시장은 360도의 시각적 몰입을 제공하는 영상과 몰입형 사운드와 함께 게임, 영화, 교육. 훈련 등 다양한 몰입형 콘텐츠에 적용되어 빠르게 성장하고 있다. 초창기 하드웨어들의 해상도 문제와 멀미 등은 관련 기술들이 빠르게 발전하면서 점점 사라지고 있으며 단순한 체험 중심의 스토리텔링에 의존하던 체험형 콘텐츠들은 사용자의 마음을 움직일 수 있는 다양한 콘텐츠로의 진화를 위해 다양한 시도를 하고 있다.

기존의 가상현실 게임과 영화들이 단순히 짧은 시간동안의 플레이 동안 자극적인 경험을 통해 순간적인 재미를 전달하였다면, 현재의 가상현실 콘텐츠는 더욱 강한 몰입감과 자유로운 상호작용성을 형성하기 위하여 관련기술들이 발전하고 있다. 더욱 깊은 몰입을 이끌어내기 위하여 고품질의 영상을 제작하고 이를 송출할 수 있는 하드웨어 및 소프트웨어들이 빠르게 발전하고 있으며, 사용자의 오감을 활용한 인터페이스의 개발이 박차를 가하고 있다. 이는 가상공간의 사용자들이 현존감을 느껴 가상환경에 몰입하게 만들기 위해서이다.

몰입형 가상현실 환경에서 사용자가 실제와 같은 경험을 체험하는 데 필요한 핵심 요인은 현존감이다. 현존감은 사용자가 실제 환경, 상황에 존재하지 않음에도 가상으로 만들어진 환경에 자신이 존재하고 있는 듯 한 심리적 경험을 갖게 하는 것이다.[1] 이를 위해 많은 가상현실 콘텐츠 제작자들은 사용자의 시청각을 속일 수 있는 가상 환경을 제공하기 위해 높은 해상도와 정밀하게 표현된 가상 환경과 캐릭터, 고개를 돌리는 방향과 움직임에 따라 공간 사운드 등을 제공해왔다. 최근에는 사용자의 HMD 인터페이스에서 제공하는 시각과 청각을 넘어선 확장된 인터페이스의 발달로 인하여 새로운 형태의 가상현실 콘텐츠들이 개발되고 있다. 이러한 확장된 인터페이스는 사용자의 손부터 몸 전체까지를 포함하는 체감형 인터페이스, 사용자와 사용자간의 사회적 상호작용을 통한 소셜 인터페이스, 사용자의 감성정보를 통한 감성 인터페이스 등 진화된 형태의 인터페이스를 통해 사용자에게 궁극의 몰입을 제공하고자 하고 있다.

본 연구에서는 시청각적인 몰입을 넘어 사용자에게 확장된 인터페이스를 제공하고 있는 몰입형 가상현실 콘텐츠의 확장된 인터랙션 방법을 사용자 상호작용을 중심으로 분류하고, 사용자의 뇌파를 활용한 감성 인터랙션 사례로 시네마틱 뉴로 VR 게임 ‘Lucy'를 소개 한다. 이를 통해 향후 가상현실 콘텐츠가 나아갈 다양한 상호작용 인터페이스의 방향을 제시하고자 한다.

1-2 연구의 방법

HMD를 기반으로 한 몰입형 가상현실 콘텐츠의 인터페이스는 양안 디스플레이를 통한 360도 입체의 영상과 공간 사운드 그리고 사용자의 손에 들고 있는 형태(Hand-held)의 콘트롤러를 통해 핸드 제스처나 별도의 센서를 통해 움직임을 감지할 수 있는 인터랙션을 제공한다. 오큘러스 리프트, HTC의 VIVE, 소니의 플레이스테이션 VR 등의 하이엔드 가상현실 디바이스들은 이러한 다양한 형태의 인터랙션을 모두 제공하는 VR 인터페이스라고 할 수 있다. 그러나 기존의 가상현실 콘텐츠들은 몇몇 게임을 제외하고는 다양한 형태의 인터랙션을 제공하는 사례가 많지 않았다. 이는 기존의 TV나 웹, 모바일 같은 매체들에서 사용자들이 소비하는 콘텐츠의 형태가 시청각적인 것에 머무르는 경우가 대부분이었기 때문에 새롭게 등장한 확장된 인터페이스에 적합한 방법의 스토리텔링 방법을 찾지 못했기 때문이다. 이제 가상현실 콘텐츠 시장이 점차 확장됨으로써 제작사들은 더욱 몰입감 있는 새로운 콘텐츠를 원하는 사용자들을 위한 다양한 가상현실 콘텐츠들이 개발에 박차를 가하고 있다.

최근에 출시되고 있는 다양한 가상현실 콘텐츠들은 다양한 형태의 상호작용 인터페이스를 제공함으로써 사용자들의 몰입 효과를 높이고자 하고 있다. 여기에서 사용자의 몰입은 가상현실의 필수 요소이며, 다른 여러 학자들이 연구해 온 주제이다. 본래 몰입의 개념은 칙센트미하이(Csikswentmihalyi, Mihaly)에 의해서 시작되었는데, 그는 몰입(flow)이란 온 힘을 다 쏟은 행동을 하게 될 때 사람들이 느끼는 총체적인 감정 상태라고 설명하였다[2]. 머레이(Janet H. Murray)는 정교하게 가공된 환상의 세계로 들어가는 유쾌한 경험을 ‘몰입(Immersion)’ 이라고 말하였다[3]. 올리버 그루(Oliver Grau)는 디지털 기술을 이용한 매체의 목표가 가능한 최고의 현존감, 즉 비록 가상공간에서 생생한 환경과 실시간 상호 작용을 통해가상공간에 실재 존재하는 것과 같이 느끼게 하는 것이며, 이것이 바로 몰입의 경험이라고 말했다[4].

기존의 영상매체들이 시청각적인 환경을 통해 사용자를 몰입하게 해왔던 것과는 다르게 급속도록 발전하고 있는 가상현실 기술은 사용자에게 더욱 확장된 인터페이스를 제공하여 몰입도를 높이고자 하고 있다. 기존의 가상현실 인터페이스 연구는 주로 사용자의 신체적 상호작용인 시선[5]이나 제스처 인터랙션[6]에 대한 연구나 손 인터페이스의 햅틱 시스템[7]의 연구 등의 신체적 상호작용에 대한 연구가 주류를 이루었으나 최근에는 다양한 관련 기술의 발달과 함께 신체적 상호작용 이상의 상호작용을 가능하게 하는 가상현실 인터페이스들이 개발되고 있다. 본 연구에서는 몰입형 가상 환경에서 사용자의 현존감을 통한 몰입을 중심으로 하여 확장된 인터페이스를 분류하고 특징을 살펴보고자 한다. 또한 진화하고 있는 가상현실 인터페이스 중 하나인 감성 인터페이스를 활용한 제작 사례를 소개함으로써 향후 가상현실 콘텐츠의 인터페이스의 발전 방향 및 가능성을 시사하다 한다.


Ⅱ. 본 론
2-1 체감형 인터페이스

최근 인터페이스 기술의 눈부신 발달과 함께 사용자의 모든 신체 감각들을 활용하여 현실에서 경험하는 것과 같은 신체적 경험을 할 수 있도록 하는 인터페이스들이 가상현실 콘텐츠에도 적용되고 있다. 체감형 인터페이스는 가상공간의 사용자가 실제와 가장 유사한 신체적 인터랙션을 경험하게 함으로써 가상공간에 몰입하게 하는데, 이를 위해 실제와 같은 바라보는 방향에 따라 변화하는 360도의 그래픽 정보, 사용자의 움직임과 위치에 따라 변화하는 공간 사운드, 현실과 같이 자유롭게 움직이는 몸과 손, 그리고 함께 주어지는 촉감들이 사용자가 가상공간을 현실과 같이 몰입하게 하는 현존감(Presence)을 느끼게 한다. 가상현실에서의 존재감 또는 현존감(Sense of Presence)은 사용자에게 가상 환경에 대한 참여와 몰입을 가능하게 함으로써, 사용자의 활동 및 감각에 영향을 미치는 중요한 요소이다[8]. 현존감은 사용자가 실제 환경과 상황에 존재하지 않음에도 마치 그 장소에 자신이 존재하고 있는 듯한 심리적 경험과 몰입 상태를 갖게 하는 것이다[9]. 인간의 오감을 활용하여 사용자가 가상의 환경을 경험하고 상호작용하는 것들이 이러한 현존감을 향상시키는 중요한 요소들이다. 즉 사용자들은 현실 세계에 실재하는 그들의 신체가 가상공간에서도 동일시되는 경험을 통해 마치 그곳에 존재하고 있는 것처럼 느끼고 몰입하게 되는 것이다. 현존감에 기여할 수 있는 요소인 가상 신체의 표현은 가상현실 콘텐츠의 개발에서 매우 중요한 이슈 중 하나이며, 가상 환경 내에서 몸을 소유하고 제어하는 것과 그에 따라, 발생되는 감각의 조화를 체화감(Sense of Embodiment)이라 한다[10].

특히 최근의 가상현실 게임들은 다양한 체감형 인터페이스를 제공하며 사용자의 몰입을 극대화하고자 하고 있다. 2019년 공개된 ‘Bone Works' [11] VR 게임은 물리엔진을 기반으로 한 VR 어드벤처 게임으로 물리 엔진을 기반으로 등장하는 모든 사물에 상호 작용이 가능한 게임이다. 사용자가 가상공간에 있는 물체를 만지거나 잡거나 부수는 행동을 할 수 있으며, 이 때 힘에 따라 부서지지 않거나, 조금만 부서지거나, 완전히 부서지는 등 행동에 대한 결과도 다양하게 나타난다. 콘트롤러를 손에 들고 현실세계와 같은 다양한 동작을 취했을 때 그 힘이나 방향 등에 따라 다양한 결과를 제공하여 기존의 제한된 물리적 상호작용을 보완한 게임이라고 할 수 있다.


Fig. 1. 
Sensory Interface of VR Game 'Bone Works'

가상현실 콘트롤러 외에도 Virtuix사의 Omni 트레드밀[12]은 사용자가 직접 걷고 뛰는 동작을 현실과 같이 취하여 현존감을 극대화하고자 하였으며, 더 나아가 Teslasuit[13]은 사용자의 전신에 착용하는 슈트로 가상공간에서 상호작용하는 모든 감각을 전신에 전달할 수 있도록 개발되었다.


Fig. 2. 
Omni Treadmill(left), Teslasuit(right)

이러한 직접적인 신체감각을 통해 이용하는 체감형 게임들은 일반게임과 다르게 사용자의 만족감을 극대화 시켜준다[14]. 이러한 신체적 인터페이스를 적용한 콘텐츠들은 1인용 콘텐츠 형식으로 제한되어 있어 기존의 모바일이나 웹 콘텐츠에서 사용자들이 다양한 사회적 활동을 통하여 얻을 수 있는 소셜 인터랙션을 통한 몰입 효과를 주지는 못한다는 단점이 있다.

2-2 소셜 인터페이스

가상현실 콘텐츠에서 사용자에게 주어지는 인터랙션은 단지 신체적 상호작용만을 말하지는 않는다. 네트워크 기술이 발전하면서 사용자의 1차적인 신체적 인터랙션에 한정되었던 인터페이스 기술의 범위가 다수의 다른 사용자들 사이에 벌어지는 소셜 페이스까지 확장되고 있다. 5G 시대의 통신 속도를 맞이하게 된 현재의 가상현실 콘텐츠 시장은 다수의 사용자들이 가상공간에서 만나 상호작용할 수 있는 여러 형태의 서비스와 콘텐츠들을 제공하고 있다. 기존의 혼자 즐기는 가상현실 콘텐츠의 단점을 보완한 함께 즐기며 소통할 수 있는 소셜 VR콘텐츠들에 대한 관심이 뜨거운 것이다. 가장 빠르게 성장하고 있는 분야는 소셜 VR 플랫폼으로 VR 콘텐츠와 소셜 커뮤니티(Social Community)기능을 결합한 서비스를 제공하는 플랫폼이다[15]. 최근 전 세계적으로 코로나19로 인한 오프라인 미팅이나 모임이 제한되고 있는 시점에 소셜 VR 플랫폼은 더욱 주목받고 있다.


Fig. 3. 
Altspace VR


Fig. 4. 
VRChat

2017년 마이크로 소프트가 인수한 AltspaceVR[16]는 자신만의 아바타를 설정하고 방을 가질 수 있으며, 이미 만들어진 가상 공용공간 안에서 다수의 사람들과 대화나 게임을 즐기고 무료 라이브 이벤트에 참가하거나 강연을 들을 수도 있다. 150여 개국 사용자가 함께 영상을 보거나 음악을 함께 즐기는 것도 가능하다. VRChat[17]도 역시 다수의 사용자들이 모여 대화를 즐기고 콘텐츠를 즐길 수 있는 플랫폼으로 Altspace보다 사용자의 창조성이 강조된 유형이라고 볼 수 있다. VRChat에서는 유니티 게임 엔진을 통해 사용자가 자신만의 아바타나 월드를 등록할 수 있다는 점이 가장 강점이라고 할 수 있다.

국내에서도 통신사들을 중심으로 하여 이러한 소셜 VR 플랫폼들 출시하고 있는데 SKT는 5G 고객을 위해 Jump VR을 통해 다양한 실감형 콘텐츠와 각종 생중계, 소셜 VR(가상현실 속 미디어 단체 관람) 등을 제공하는 통합 VR 플랫폼을 서비스하고 있으며 KT도 슈퍼 VR을 통해 소셜 게임이나 언어교육 서비스를 제공하고 있다.

이러한 소셜 VR 플랫폼을 통한 다수 사용자간의 상호작용은 사용자들이 가상현실 환경에서 공동의 목적을 달성하기 위해 각자 독립적인 행동을 수행하는 방식이 아닌 서로 소통과 협업을 통해 함께 목적을 달성해 나가는데 필요한 구조를 가지고 있으며, 이를 통해 사회적 상호작용에 기반을 두어 사용자들이 더욱 향상된 현존감을 느낄 수 있는 체험환경을 제공하는 것이 중요한 목표이다[18]. 즉 각자의 아바타를 통해 가상공간에서 만나 게임을 함께 즐기고 노래를 함께 작곡하고 그림을 같이 환성하는 등의 협업 활동과 상호작용을 하며 기존의 개인 VR 콘텐츠에서는 충족시키지 못했던 사회적 상호작용을 가능하게 하여 사용자들이 가상공간에 더욱 몰입하고 존재하게 만드는 현존감을 배가시키는 것이다.

2-3 감성 인터페이스

HMD를 끼고 체험하는 가상현실 환경은 사용자의 머리와 다양한 신체 부위의 착용형 디바이스들을 통해 가장 자연스럽고 직관적인 인터페이스 개발이 가능한 장점을 가진다. 이러한 장점 때문에 최근에는 사용자의 감성 상태를 사용하여 콘텐츠 및 시스템과 상호작용하게 하려는 시도들이 지속되고 있다. 감성은 인간이 가진 본질적인 특성으로 감성을 이해하고 표현하는 것은 사람간의 상호작용뿐만이 아니라 사람과 컴퓨터간의 상호작용에도 중요한 요소이기 때문이다. 사람의 얼굴표정이나 몸짓 등으로 감성을 추측하려는 관련 연구들이 있었으나, 최근에는 다양한 센서들의 발달로 인해 뇌파, 피부전도율 등의 생체신호 정보를 통한 감성의 측정이 가능하게 되었다. 감성의 측정은 감성으로부터 일어나는 중추신경계와 자율신경계의 반응인 생체신호의 특징으로부터 판별이 가능하며[19], 생체신호를 통하면 사람의 연속적인 감성의 변화를 알 수 있다[20]. 이러한 생체 신호의 활용은 기존의 신체적 상호작용 인터페이스와는 다르게 콘트롤러나 시뮬레이터로 사용자가 적극적인 인터랙션을 취하는 것이 아니라 자연스러운 상호작용 인터페이스를 제공하기 때문에 HMD를 착용한 사용자에게 사용자의 감정 상태를 반영한 최적의 콘텐츠를 제공할 수 있다는 장점을 가진다. 이에 본 연구자는 기존의 가상현실 콘텐츠들이 주로 사용한 신체적 인터랙션이나 소셜 인터랙션이 아닌 감성 인터페이스를 적용한 가상현실 콘텐츠인 ‘Lucy'를 제작하였다.


Ⅲ. VR 뉴로 시네마틱 게임 ‘Lucy'
3-1 게임 설명

VR 뉴로 시네마틱 게임 ‘Lucy’는 기존의 VR게임들이 단순한 스토리와 반복적인 인터랙션으로 구성된 것과는 다르게 ‘Lucy’라고 하는 평범한 소녀가 초능력 트레이닝을 통해 성장하게 되는 롤플레이 게임의 스토리를 적용하여 더욱 캐릭터에 몰입하도록 하였다. 이를 위해 본 게임은 크게 2가지 파트로 나뉘게 되며 첫 번째 파트는 게임을 시작하기 전 게임의 세계관을 파악할 수 있는 인트로 애니메이션이며 두번째 파트는 뇌파를 사용하여 직접 게임을 즐기는 파트로 나뉜다.


Fig. 5. 
Neuro Cinematic Game 'Lucy’

첫 번째 인트로 애니메이션은 루시가 화자가 되어 자신을 소개하고 지하 트레이닝 공간에서 인공지능 비서 ‘크리스’와 만나고 트레이닝을 시작하기 전까지를 3인칭 시점으로 보여준다. 두번째 게임 파트에서는 사용자가 직접 루시의 시점이 되어 1인칭으로 자신들의 집중도를 활용하여 물건을 움직이는 미션을 단계별로 수행하도록 하였다. 기존 대부분의 VR 게임들이 1인칭 시점만을 사용하여 게임의 몰입도를 높이고자 한 것과는 다르게 본 게임에서는 이야기 전달 부분의 애니메이션에서는 사용자에게 익숙한 3인칭 시점과 나래이션등을 활용하여 감정 이입효과를 높이고자 하였고 사용자의 뇌파를 직접 활용하여 게임을 진행하는 부분에서는 1인칭 시점을 사용하여 게임의 몰입효과를 극대화 하였다. 콘텐츠 제작을 위하여 실시간 게임 엔진인 유니티(Unity3D)를 사용하여 개발하였으며 유니티와 연동이 가능한 Look link를 통해 사용자의 실시간 뇌파 정보가 가상현실 게임에 즉각 반영될 수 있도록 하였다.

3-2 VR 뉴로 시네마틱 게임 ‘Lucy'의 감성 인터페이스

뇌에서 발생하는 전기적인 신호를 뇌파(EEG, Electroencephalogram)라고 한다. 뇌파는 일종의 전기 흐름으로 신경계와 뇌신경 사이에 신호가 전달될 때 생기며 주로 측두엽과 전두엽에서 측정된다[21]. 뇌파는 사람의 생각이나 감정을 뇌파 장비를 활용하여 취득하고 분석할 수 있으며, 그로 인해 다양한 분야에서 연구되고 있다. Musha 등은 10 채널 뇌파의 FFT 스펙트럼에서 θ, α, β 대역의 상호상관계수를 4가지 감정으로 매핑하여 감정을 정향화한 연구를 하였고[22], Yoshida는2채널 뇌파의 α파 파동을 이용하여 쾌적성과 각성도와의 상관관계를 연구하였다[23]. Davidson은 사람의 긍정 감정과 부정 감정에 따라 앞쪽 좌우 뇌파가 비대칭적으로 나타남을 입증하는 등[24] 뇌파 데이터를 활용하여 감정을 분석하려고 하는 연구들이 지속되고 있다. 최근에는 이 중 비침습적으로 EEG를 측정할 수 있는 간편한 기기들이 개발되면서 다양한 분야에 활용하려고 하는 노력들이 지속되고 있다. 특히 가상현실 시장의 빠른 성장과 함께 HMD 하드웨어들이 상용화 되면서 가상현실 공간의 사용자의 감정 상태를 뇌파를 활용하여 분석하려고 하는 시도들도 생겨나고 있다. 그러나 두피에서 측정한 가공하지 않은 원본의 뇌파 신호는 해석하기가 어려우며, 뇌파의 파형을 시각적으로 분석하는 것은 대부분 유용하지 않았다.

본 연구에서는 2018년 CES에서 혁신상을 수상하며 주목받은 EEG 센서인 Lookid Link를 사용하여 가상현실 공간의 사용자의 뇌파를 통해 실시간으로 상호작용이 가능한 뇌파 기반 가상현실 콘텐츠를 개발하였다.


Fig. 6. 
Lookid Link and Vive HMD

Lookid Link는 현재 HTC VIVE와 오큘러스 리프트 등의 HMD에 부착하여 사용할 수 있으며 본 콘텐츠에서는 HTC VIVE 기기를 사용하였다. Looxid Link는 위 그림과 같이 사용자의 전두엽 부분에 닿는 6개의 센서를 통해 뇌파의 수집이 가능하며 이를 실시간으로 분석하여 사용자의 감정상태를 분류할 수 있다. ‘Lucy' 에서는 사용자의 감정 상태에서 뇌파의 변화가 가장 명확하게 나타나는 집중도를 활용하여 게임을 개발하였다.

기존의 뇌파 기반 콘텐츠 연구들이 주로 콘텐츠에 대한 집중도나 몰입도를 뇌파를 통하여 측정한 것과는 다르게 본 콘텐츠에서는 뇌파 데이터를 인터랙션 요소로 하여 사용자의 감성 상태에 따라 게임콘텐츠가 상호작용하도록 하였다. 즉 감성의 측정이나 평가가 아닌 감성을 인터랙션 요소로 한 가상현실 콘텐츠를 개발한 것이다. 사용자는 초능력을 가진 소녀 루시가 되어 뇌파 기반의 집중도를 통하여 가상공간의 물체들을 움직이는 초능력을 경험하게 되고 이를 통해 마치 자신이 초능력을 발휘하고 있는 듯 한 프레즌스(presence)를 느끼게 된다. 즉 내가 생각하고 느끼는 감성의 정도를 가상현실 공간에서 직접 보고 느끼고 체험할 수 있게 함으로서 정신과 신체의 일치를 느끼게 하는 것이다.


Ⅳ. 감성 인터페이스 실험
4-1 실험의 설계

뇌파 데이터를 기반으로 한 인터랙티브 가상현실 게임에서의 감성 인터페이스의 몰입 효과를 관찰하기 위하여 본 연구에서 간단한 실험을 진행하였다. 그림 7처럼 룩시드 링크는 실시간으로 사용자의 뇌파 데이터를 분석하여 집중의 정도를 알 수 있도록 API를 제공하고 있어 이를 통해 사용자의 집중도를 측정할 수 있었다. 실험을 위해 먼저 20대에서 40대 사이의 가상현실콘텐츠를 체험한 경험이 있는 20명의 남녀 사용자들을 2개의 그룹으로 나누어 실험을 진행하였다. 한 그룹은 뇌파를 활용하여 집중도를 기반으로 가상환경 속의 물건을 움직이게 하고 다른 한 그룹은 기존의 다른 콘텐츠들처럼 콘트롤러를 들어 물건을 잡아서 움직이게 하였다. 총 3단계의 실험을 진행하면서 사용자들이 초능력을 사용하여 물건을 모두 옮기는데 걸린 플레이 시간과 뇌파 데이터를 통해 집중도의 차이를 분석하였다. 집중도를 사용한 A그룹은 뇌파를 기반으로 한 감성인터페이스를 체험하게 하였고, 다른 B그룹은 콘트롤러를 활용하여 물건을 옮기게 하는 단순 인터랙션을 사용하도록 설계하여 비교하였다.


Fig. 7. 
Measuring Attention Level Utilizing Lookid Link

4-2 실험결과

뇌파 데이터 중 집중도를 기반으로 한 감성 인터랙션을 사용한 그룹 A와 기존 콘트롤러를 기반으로 하여 인터랙션하게 한 그룹 B는 가상현실 공간 안에서 총 3단계의 게임 스테이지를 험하였고 이에 따른 사용자들의 평균 집중도를 룩시드 링크가 제공한 API를 통하여 측정하였다. 1-3단계의 실험 미션은 사용자가 초능력 소녀가 되어 물체를 움직이는 실험으로 작은 물건부터 큰 물건까지 집중도가 점점 커져야 움직일 수 있도록 설계되어 있었으며 각 30%, 60%, 90% 이상의 집중도가 되어야 미션을 수행할 수 있었다.

각 단계별 플레이 시간을 비교한 결과는 뇌파 기반 감성 인터랙션을 사용한 그룹 A는 집중도의 향상에 따라 물건을 움직일 수 있었기 때문에 플레이 시간이 점차적으로 길어지는 것을 볼 수 있었다. 반면 단순한 컨트롤러 조작을 한 그룹 A의 플레이 시간은 약간의 증가는 있었으나 큰 변화는 없는 것으로 보였다.


Fig. 8. 
Measuring Play Time for Each Stage

각 단계별 집중도를 비교하여 보았을 때 감성 인터랙션을 사용한 그룹 A는 스테이지별로 집중도가 높아져야 다음 단계로 갈 수 있기 때문에 집중도가 점차적으로 높아지는 것을 볼 수 있었다. 그러나 콘트롤러를 기반으로 한 제스처 인터랙션을 취한 그룹 B는 집중도가 높아지는 듯하다 3단계에서 집중도가 급격리 감소하는 것을 볼 수 있었다. 즉 제스쳐 인터랙션을 취한 사용자들이 단순 반복되는 인터랙션에 흥미를 잃어 집중도가 급격히 감소하는 현상을 보여주었다.


Fig. 9. 
Measuring Attention Level Utilizing Lookid Link

종합적으로 뇌파를 기반으로 한 집중도를 인터랙션 요소로 한 감성 인터페이스를 체험한 사용자 A 그룹은 플레이 시간의 증가와 함께 집중도도 함께 증가한 것을 관찰할 수 있었고, 단순 제스처 인터랙션을 취한 그룹 B는 플레이 시간이 약간 증가하나 단순 인터랙션의 반복으로 인한 집중도가 떨어지는 것을 알 수 있었다. 이는 즉 집중도와 같은 감성 인터랙션을 잘 적용한 감성 인터페이스가 사용자가 가상 환경에 더욱 집중하고 몰입할 수 있게 해 준 것을 알 수 있었다.

아직 감성 인터페이스는 게임 및 영화 같은 엔터테인먼트 분야에서 시작하는 단계이지만 몰입형 가상현실 게임과 같이 사용자가 HMD를 착용하는 환경에 매우 적합한 인터페이스라고 할 수 있다. 기존의 조이 스틱이나 신체적인 움직임 등에 익숙한 사용자들에게 뇌파라고 하는 새로운 감성 인터랙션을 제공한 것은 본 게임이 가진 가장 큰 장점이라고 할 수 있다. 가상현실 게임은 앞으로 더욱 다양한 형식과 인터랙션의 연구가 필요한 분야이다. 본 게임도 아직 사용자의 뇌파 중 집중도만을 활용하고 있어 추후 더욱 확장된 사용자의 심리상태를 게임에 적용하는 것이 필요할 것이다.


Ⅴ. 결 론

가상현실 분야는 그 동안 시각, 청각 중심의 기술을 중심으로 연구되어 왔으나, 본 연구에서는 사용자의 확장된 인터페이스를 사용자의 현존감을 중심으로 분류하였다. 사용자의 신체적 상호작용을 활용한 신체적 인터페이스, 사용자간의 사회적 상호작용을 중심으로 한 소셜 인터페이스, 사용자의 감성상태를 활용한 감성 인터페이스로 분류하여 그 특징과 사례들을 살펴보았다. 신체적 인터페이스는 사용자가 몸을 통한 체화된 경험을 통한 몰입을 하게하며 소셜 인터페이스는 소통과 협업을 기반으로 한 가상현실 공간에서의 사회적 활동을 통해 몰입을 하게 한다. 마지막으로 감성 인터페이스는 사용자의 생체 신호 정보를 기반으로 하여 가장 자연스러운 방식으로 사용자의 정신과 신체의 일치를 통한 몰입 효과를 가지도록 한다. 본 연구에서는 이 중 사용자의 감성 인터랙션 기반의 가상현실 시네마틱 게임 ‘Lucy'를 개발하여 뇌파 데이터를 기반으로 한 가상현실 콘텐츠의 개발을 통해 향후 가상현실 콘텐츠가 나아가야 할 다양한 상호작용 인터페이스의 방향을 제시하였다. 뇌파를 기반으로 한 감성 인터페이스를 적용한 감성인터페이스와 기존의 제스처 인터랙션을 비교하는 실험을 통하여 사용자들이 감성 인터페이스를 통해 더욱 높은 집중도, 즉 몰입을 할 수 있다는 것을 알 수 있었다. 뇌파를 활용한 감성 인터랙션은 본 연구와 같은 게임 분야뿐만이 아니라 향후 교육이나 훈련 등 집중도를 필요로 하는 가상현실 콘텐츠 분야에 적용한다면 유용한 인터페이스가 될 것이다.

본 연구에서는 집중도만을 기반으로 하여 콘텐츠를 개발하였지만 향후에는 다양한 감성 상태 및 생체신호 등 신체에 내재된 신호와 감각을 매개로 컴퓨터와 효과적으로 상호작용하는 다양한 가상현실 콘텐츠의 개발이 가능할 것이다. 가상현실 콘텐츠는 가상현실 기술을 활용하여 사용자에게 더욱 확장된 경험을 통해 현존감을 느끼게 하는 것을 목표로 하는 콘텐츠이며 이를 위해서 더욱 다양한 형태의 상호작용 인터페이스의 연구와 개발이 지속되어야 할 것이다.


Acknowledgments

본 연구는 2018년도 단국대학교 대학연구비 지원으로 이루어진 연구로서, 관계부처에 감사드립니다.


참고문헌
1. S. J. Park, W. J. Park and etc. A Study on Presence of Collaboration based Multi-user Interaction in Immersive Virtual Reality, Journal of the Korea Computer Graphics Society, vol.24,no.3, p. 12, 2018. pp. 11-20.
2. M. Csikszentmihalyi. Flow: The psychology of optimal experience. Vol. 1990. New York: Harper & Row, 1990.
3. J. H. Murray. Hamlet on the holodeck: The future of narrative in cyberspace. MIT press, 2017.
4. H. Joo, T. Simon, and Y. Sheikh, Total capture: A 3d defor-mation model for tracking faces, hands, and bodies, CoRR, vol. abs/1801.01615, 2018.
5. G. Torre, Haptic interfaces and devices, Sen- environment, Symmetry, vol. 9, no. 9, p. 189, 2017.
6. M. Kim, C. Jeon, and J. Kim, A study on immersion and presence of a portable hand haptic system for immersive virtual reality, Sensors, vol. 17, no. 5, p. 1141, 2017
7. J. E. Kwon, A study on the Characteristics and Expression Methods of Digital Game Art, Journal of information process, Vol.18, No. 4, 2011.
8. B. G. Witmer, M. J. Singer, M.J. Measuring Presence in Virtual Environments: A Presence Questionnaire (PQ)., Presence, Vol. 7, 225-240, 1998.
9. S. J. Park, W. J. Park and etc. A Study on Presence of Collaboration based Multi-user Interaction in Immersive Virtual Reality, Journal of the Korea Computer Graphics Society, vol.24,no.3, p. 12, 2018.
10. J. W. Lee, A Sense of Presence with Virtual Embodiments, Master's degree dissertation, Konkuk University, Graduate School, p.1 , 2019.
11. Bone Works [Internet]. Available: https://store.steampowered.com
12. Omni [Internet]. Available: https://www.virtuix.com/
13. Teslasuit [Internet]. Available: https://teslasuit.io/
14. J. H. Lee, A Study on Sensory Type Development of the Game for Learning a Cultural Heritage, Journal of the Korean society for computer game, 19(1), 2009
15. Sciencetimes. When Social media meets VR and AR [Internet].Available: https://www.sciencetimes.co.kr
16. AltVR [Internet]. Available: http://altvr.com
17. VRChat [Internet]. Available:http://vrchat.com
18. S. J. Park, W. J. Park and etc. A Study on Presence of Collaboration based Multi-user Interaction in Immersive Virtual Reality, Journal of the Korea Computer Graphics Society, vol.24,no.3, p. 13, 2018.
19. G. Y. Liu and M. Hao, Emotion Recognition of Physiological Signals Based on Adaptive Hierarchical Genetic Algorithm, 2009 World Congress on Computer Science and Information Engineering, pp.670-674, 2009.
20. X. Niu, L. Chen and etc. Research on Genetic Algorithm based on Emotionrecognition using physiological signals, ICCP Proceedings, pp.614-618, 2011.
21. E. S. Kim and H. J. Kim. Petrified Expression: Bio Art Using Brain Sensor Interface, Journal of Digital Contents Society, 20.1, p. 24, 2019.
22. T. Musha, Y. Terasaki and etc. Feature extraction from EEGs associated with emotions, Insl. Sympo. Artif. Life Robotics(Invited Paper), vol. 1, pp.15-19, 1997.
23. T.Yoshida. The estimation of mental stress by 1/f frequency fluctuation of EEG, Brain topography, pp.771-777, 1998.
24. R. J. Davidson, Anterior cerebral asymmetry and the nature of emotion, Brain and Cognition, vol. 20, pp. 125-151, 1992.

저자소개

강지영(Jiyoung Kang)

2004년 : Pratt Institute 컴퓨터 그래픽스 (학사)

2006년 : New York University, 인터랙티브 텔레커뮤니케이션 (석사)

2013 : 한국과학기술원 (공학박사-인터랙션 디자인)

2012년~현 재: 단국대학교 SW융합학부 SW융합콘텐츠학과 부교수

※관심분야:가상현실(VR), 증강현실(AR), 인터랙션 디자인 등

최상일(Sang-Il Choi))

2005년 : 서강대학교 전자공학과 (학사)

2010년 : 서울대학교 전기ㆍ컴퓨터공학부 기계학습및지식처리(공학박사)

2011년~현 재: 단국대학교 응용컴퓨터공학과 부교수

※관심분야:얼굴 검출 및 인식, 영상 처리, 컴퓨터 비전. 기계 학습 등