Korea Digital Contents Society
[ Article ]
Journal of Digital Contents Society - Vol. 25, No. 10, pp.3041-3052
ISSN: 1598-2009 (Print) 2287-738X (Online)
Print publication date 31 Oct 2024
Received 15 Aug 2024 Revised 06 Sep 2024 Accepted 26 Sep 2024
DOI: https://doi.org/10.9728/dcs.2024.25.10.3041

영화 제작에서 생성형 인공지능의 주체적 역할 연구

강지영*
이화여자대학교 커뮤니케이션·미디어학부 교수
Generative AI in Film Production: Analyzing the Active Role of AI in Creative and Decision-Making Processes
Jiyoung Kang*
Professor, Division of Communication & Media, Ewha Womans University, Seoul 03760, Korea

Correspondence to: *Jiyoung Kang Tel: +82-2-3277-2266 E-mail: kangjiyoung@ewha.ac.kr

Copyright ⓒ 2024 The Digital Contents Society
This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-CommercialLicense(http://creativecommons.org/licenses/by-nc/3.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

초록

본 연구는 생성형 인공지능 기술이 영화 제작에서 어떻게 주체적인 역할을 수행하는지를 분석하는 데 중점을 둔다. 특히, 딥러닝, 자연어 처리(NLP), 컴퓨터 비전 기술이 영화의 창의적 과정과 의사 결정에 어떻게 깊이 관여하며, 단순한 보조 도구를 넘어 창의적 콘텐츠를 직접 생성하는 주체적 역할을 하는지를 탐구한다. 이를 통해 AI 기술이 영화 제작의 전반적인 창의성과 효율성을 어떻게 향상시키는지에 대한 심층적인 논의를 제공하며, AI와 인간의 협업이 영화 산업의 미래에 미칠 수 있는 영향을 제시한다. 본 연구는 생성형 인공지능이 영화 제작의 주요 주체로서 창작 과정을 혁신할 수 있는 가능성을 조망하며, AI의 효과적인 통합을 통해 영화 제작에서 창의적 시너지를 극대화하는 방법을 제안하는 데 초점을 맞춘다.

Abstract

This study focuses on analyzing the proactive role that generative artificial intelligence (AI) technologies play in the film production process. Specifically, it explores how deep learning, natural language processing (NLP), and computer vision technologies deeply influence creative decisions and processes, going beyond merely assisting humans. The research highlights how these AI technologies actively contribute to the generation of creative content, demonstrating their ability to shape the narrative and visual components of films. By critically examining films where AI has played a central role in production, the study evaluates the strengths and limitations of generative AI in filmmaking. Additionally, it proposes strategies for maximizing the synergy between AI and human creativity, with the ultimate aim of illustrating how the integration of generative AI can drive innovative transformation in the film industry.

Keywords:

Generative AI, Filmmaking, Deep Learning, Natural Language Processing, Computer Vision

키워드:

생성형 인공지능, 영화 제작, 딥러닝, 자연어 처리, 컴퓨터 비전

Ⅰ. 서 론

1-1 연구 배경

인공지능(AI) 기술은 최근 급격한 발전을 이루며 다양한 분야에서 혁신을 제시하고 있다. 특히 AI는 미술, 음악, 문학 등 예술 분야에서 창작의 도구로 활용되며 예술가의 역할을 일부 대체하기도 한다. 딥러닝 기반의 AI는 이미지를 생성하거나 음악을 작곡하는 등 인간의 창의적 프로세스를 모방하여 새로운 결과물을 만들어내고 있으며, 이러한 AI의 창작물이 높은 예술적 가치를 인정받는 사례도 증가하고 있다.

음악 분야에서 AI는 작곡의 주체적인 역할을 수행하며 새로운 음악적 가능성을 제시하고 있다. 예를 들어, OpenAI의 MuseNet은 최대 10개 악기를 사용하여 다양한 음악 스타일을 모방할 수 있는 AI 모델이다. MuseNet은 클래식에서 재즈, 팝에 이르기까지 다양한 장르의 음악을 생성하며, 인간 작곡가가 창작한 것과 유사한 고품질의 음악을 만들어내고 있다[1]. 이 AI가 작곡한 음악은 영화, 광고, 비디오 게임 등 다양한 매체에서 활용되었으며, 인간 작곡가의 작업을 보완하거나 대체하는 역할을 수행하고 있다.

또한, AIVA(Artificial Intelligence Virtual Artist)[2]는 계속해서 음악 제작에 혁신을 도입하고 있으며, AI 작곡가로서 여러 공식 앨범을 출시하고 있다. AIVA는 인간과의 협업을 통해 새로운 작곡 방법을 탐구하고 있으며, 이는 AI가 음악 창작 과정에서 어떻게 독창적이고 창의적인 역할을 할 수 있는지를 보여준다.

미술 분야에서도 AI는 창작의 주체로서 활발히 활동하고 있다. Refik Anadol은 AI를 활용하여 데이터 기반 미술 작품을 제작하는 현대 미술가로, 그의 작품은 대규모 데이터 세트를 활용한 몰입형 설치 예술로 유명하다. 예를 들어, 그의 작품 “Machine Hallucination”는 뉴욕 맨해튼의 1억 장 이상의 사진 데이터 세트를 AI로 분석하고 재구성하여 시각적 경험을 창조하였다[3]. 이 작품은 예술과 인공기술의 결합을 통해 새로운 형태의 창의적 표현을 제시하며, 관객에게 색다른 경험을 제공하고 있다.

또한, AI Art Collective의 DALL-E 2는 텍스트 설명을 기반으로 이미지를 생성하는 AI 모델로, 창의적인 비주얼 아트를 제작하는 데 사용되고 있다. DALL-E 2는 인간의 상상력과 결합하여 독창적이고 새로운 스타일의 이미지를 생성하며, AI와 예술 창작의 새로운 가능성을 탐구하고 있다[4].

AI의 창의적 활용이 영화 제작 전반에 확대되면서, 영화 산업에도 중요한 변화가 일어나고 있다. 생성형 인공지능(Generative AI)기술을 활용해 영화의 시각적 요소나 대사 작성, 편집까지 다양한 제작 단계에서 창의성과 효율성을 극대화하고 있다. 예를 들어, AI 기술은 배우의 젊은 모습을 재현하는 디에이징 기술이나 복잡한 시각 효과를 자동으로 구현하는 데 사용되며, 제작 시간을 획기적으로 단축하고 있다. 이러한 변화는 AI가 단순한 보조 역할을 넘어 독자적인 창작자로서의 역량을 갖추게 되었음을 보여준다.

영화계에서는 ‘AI 영화’라는 새로운 장르가 주목받고 있으며, 국내외 여러 영화제에서 AI 영화에 대한 관심이 높아지고 있다. 예를 들어, 제28회 부천국제판타스틱영화제(BIFAN)에서는 한국 영화제 중 최초로 ‘AI 영화 경쟁 부문’이 도입되었으며, 부산국제인공지능영화제와 같은 새로운 영화제도 개최되고 있다. 이는 AI가 영화 산업에서 잠재적인 위협이 아닌 창작 도구로서 받아들여지고 있음을 보여주는 중요한 변화이다.

그러나 생성형 AI의 발전에도 불구하고, 여전히 몇 가지 한계와 문제점이 존재한다. AI가 생성한 콘텐츠는 종종 인간의 감성과 직관을 충분히 반영하지 못하며, 기존 데이터에 의존한 반복적인 패턴을 생성할 가능성이 높다[5]. 이러한 창의성의 한계는 AI가 진정으로 혁신적인 창작 방식을 제안하는 데 있어 장애가 될 수 있다. 또한, AI의 사용은 저작권과 윤리적 문제를 야기할 수 있으며, 이는 기술의 사회적 수용성에 부정적인 영향을 미칠 수 있다[6].

본 연구는 생성형 AI가 영화 제작의 주요 의사 결정 과정과 창의적 절차에 어떻게 관여하여 새로운 콘텐츠를 창출하는지에 대해 심층적으로 탐구한다. 이를 위해, 생성형 AI가 주체적으로 영화 제작에 참여한 사례들을 면밀히 분석하고, 이러한 기술이 영화 제작에 미치는 실질적인 영향과 잠재력을 평가한다. 동시에, 이러한 기술의 적용에서 발생할 수 있는 문제점을 분석함으로써 생성형 AI가 영화 산업에서 혁신적 변화를 도모할 수 있는 방안을 제시하고자 한다.

1-2 연구 목적

본 연구의 주요 연구 질문은 다음과 같다: 생성형 AI는 영화 제작 과정에서 어떻게 주체적인 역할을 수행하고 있는가? 이러한 기술의 활용이 영화 제작에 미치는 영향은 무엇이며, 그 한계는 무엇인가? 이 연구는 생성형 AI 기술의 역할과 한계를 명확히 규명함으로써, AI와 인간의 협업을 통해 영화 산업에서 창의성과 효율성을 동시에 달성할 수 있는 새로운 방법을 제시하는 데 기여하고자 한다. 이를 통해, AI 기술이 영화 제작의 필수적인 요소로 자리 잡을 수 있는 가능성을 탐구하고, 영화 산업의 미래를 조망하는 데 중요한 기초 자료를 제공하고자 한다.

1-3 선행연구

최근 인공지능(AI)이 영화 제작에 미치는 영향에 대한 연구가 활발히 진행되고 있다. 김종국[7]의 "영화산업의 생성형 인공지능(Generative AI) 활용 현황과 문제점"에서는 Generative AI 도구들이 영화 제작 전반에 미치는 영향을 분석하며, 특히 할리우드와 한국 영화 산업에서의 적용 사례와 문제점을 중점적으로 다루었다. 이 연구는 AI 기술이 영화 제작 과정에서 제작비 절감과 효율성 제고에 기여하지만, 동시에 윤리적, 법적 문제를 야기할 수 있음을 지적하며, 기술의 사회적 수용성에 대한 논의를 제기한다.

전병원[8]의 “인공지능과 영화영상제작: 영화영상제작 도구로서 인공지능의 활용사례”는 AI가 영화 제작 도구로서의 역할을 수행하는 구체적인 사례를 탐구하였다. 그는 AI가 시각 효과 생성, 편집 자동화 등 영화 제작의 여러 측면에서 창의성과 효율성을 극대화하는 데 기여하고 있음을 보여주었다. 이 연구는 AI가 기존의 영화 제작 도구를 어떻게 보완하고 있는지를 중점적으로 다루었다.

정인선[9]은 “생성형 인공지능을 이용한 영화제작과 그 미학적 가능성”에서 AI가 영화의 미학적 측면에 어떻게 기여할 수 있는지를 고찰하였다. 그녀는 AI가 영화 스토리텔링과 시각적 표현에 미치는 영향을 분석하고, AI의 창작물이 가져올 수 있는 새로운 미학적 가능성을 탐구하였다. 이 연구는 AI의 미학적 잠재력을 중점적으로 다루며, 영화 제작의 새로운 예술적 경로를 모색하였다.

Huang et al.[10]은 AI가 영화 제작에서 시나리오 작성과 영상 편집에 어떻게 활용되고 있는지를 실증적으로 분석하였다. 이 연구는 AI가 스토리텔링의 창의적 과정에 어떻게 기여할 수 있는지를 설명하며, AI의 도구적 역할에 중점을 두었다. 또한, Smith et al.[11]은 AI가 영화 제작의 전반적인 워크플로우를 어떻게 혁신하고 있는지를 분석하였다. 이 연구는 AI가 제작비 절감과 제작 시간 단축에 미치는 영향을 평가하였다.

기존 연구들은 주로 AI가 영화 제작에서 보조적 역할을 수행하는 것에 초점을 맞추고 있으며, AI 기술의 한계에 대한 논의가 충분히 심도 있게 이루어지지 않았다. 또한, 생성형 AI의 주체적 역할에 대한 연구는 상대적으로 부족하여, 생성형 AI가 영화 제작의 핵심 프로세스에 어떻게 통합되어 창의적 과정에 직접적으로 기여하는지에 대한 실질적인 분석이 결여되어 있다.

본 연구는 이러한 한계를 보완하기 위해, 생성형 AI가 영화 제작에서 주체적으로 역할을 수행한 사례들을 중심으로 연구를 진행하였다. 여기서 주체적인 역할이란, 생성형 AI가 영화 제작의 필수적이고 핵심적인 부분을 담당하며, 인간의 창의적 프로세스를 직접적으로 대체하거나 혁신적으로 지원하는 것을 의미한다.

이를 통해, 본 연구는 생성형 AI의 주체적 활용이 영화 제작 과정의 효율성과 창의성을 어떻게 향상시키는지를 구체적으로 분석하고자 한다. 특히, 생성형 AI가 영화 제작의 주요 의사 결정과 창의적 과정에 어떻게 관여하여 새로운 콘텐츠를 창출하는지를 심층적으로 탐구한다. 이를 위해, 생성형 AI가 주도적으로 영화 제작에 참여한 사례들을 심도 있게 분석하여, 이러한 기술이 영화 제작에 미치는 실질적인 영향과 문제점을 명확히 규명하고, 영화 산업에서 혁신적인 변화를 촉진할 수 있는 방안을 제시하고자 한다.


Ⅱ. 이론적 배경

2-1 영화 제작에서 생성형 인공지능의 주체적 역할

인공지능(AI) 기술은 영화 제작에서 주로 보조적 역할을 수행해 왔으며, 인간 창작자의 의사 결정을 지원하거나 특정 작업을 자동화하는 데 중점을 두었다. 인공지능은 인간의 인지 능력을 모방하여 복잡한 데이터를 처리하고, 패턴을 인식하며, 규칙에 기반을 둔 결정을 내릴 수 있는 기술로 정의된다[12]. 이러한 기술은 영화 편집, 시각 효과 생성, 시나리오 분석 등의 작업에서 효율성을 높이고 오류를 줄이는 도구로 활용되었다. 예를 들어, 기존의 AI 기술은 방대한 양의 데이터를 분석해 최적의 촬영 각도를 제안하거나, 시각 효과를 자동으로 생성함으로써 영화 제작 과정에서 반복적이고 시간 소모적인 작업을 자동화해왔다. 그러나 이 과정에서 AI는 인간의 창의적 결정을 단순히 보조하는 기능에 그쳤으며, 창작 과정에서 주도적인 역할을 맡지는 않았다.

반면, 생성형 인공지능은 기존 AI 기술의 범위를 확장하여, 영화 제작에서 주체적인 역할을 수행할 수 있는 잠재력을 지니고 있다. 생성형 인공지능은 인간이 제시한 입력 데이터나 조건을 바탕으로 새로운 콘텐츠를 생성할 수 있는 AI 기술로 정의된다[13]. 이 기술은 단순히 인간의 결정을 지원하는 것을 넘어, 직접적으로 창의적 콘텐츠를 생성하고, 영화 제작의 핵심적인 의사 결정을 주도할 수 있다. 예를 들어, 생성형 인공지능은 시나리오 작성, 캐릭터 디자인, 시각적 표현의 창출 등 영화의 주요 창작 과정에 깊이 관여하며, 이전에는 인간 창작자만이 수행할 수 있었던 작업들을 독자적으로 수행한다[14]. 이는 영화 제작의 기존 프로세스를 혁신적으로 변화시키고, 창의성의 새로운 영역을 탐구할 수 있는 가능성을 열어준다.

이와 같이, 기존 인공지능 기술이 보조적 역할에 머물렀다면, 생성형 인공지능 기술은 영화 제작에서 주체적인 역할을 수행하며, 영화 제작의 패러다임을 근본적으로 변화시킬 수 있는 능력을 가지고 있다. 이러한 차이는 영화 산업 전반에 걸쳐 중요한 영향을 미칠 것으로 예상되며, 본 연구에서는 이러한 기술적 전환이 영화 제작의 창의성과 효율성에 미치는 영향을 심층적으로 분석하고자 한다.

1) 딥러닝의 주체적 역할

딥러닝은 인공신경망을 기반으로 하는 기계 학습의 한 분야로, 대량의 데이터를 통해 복잡한 패턴을 학습하고 예측할 수 있는 능력을 갖춘 기술이다[13]. 딥러닝 모델은 여러 층의 신경망으로 구성되어 있어 데이터의 특징을 자동으로 학습할 수 있으며, 이는 이미지 인식, 음성 인식, 자연어 처리 등 다양한 분야에 적용될 수 있다. 특히, 생성적 적대 신경망(GAN)과 같은 딥러닝 모델은 영화의 시각적 표현에서 중요한 역할을 하며, 완전히 새로운 가상 환경을 창출하거나 디지털 캐릭터를 생성하는 데 있어 핵심적이다[15].

Utilization of GAN (Generative Adversarial Networks) in film production

딥러닝은 영화 제작의 다양한 단계에서 주체적으로 기여하며, 가상 환경 생성, 디지털 휴먼 제작, 스타일 전이, 물리적 효과 시뮬레이션, 얼굴 및 감정 변환 등에서 중요한 역할을 수행한다. 예를 들어, GAN을 기반으로 한 알고리즘은 기존 이미지를 학습하여 독창적이고 현실감 있는 가상 환경을 자동으로 생성할 수 있다[16]. 이러한 기술은 물리적 촬영이 불가능하거나 제약이 있는 환경에서도 창의적 배경을 제공하는 데 있어 주도적인 역할을 한다. 이러한 가상 환경 생성은 특히 판타지 또는 SF 영화에서 주목받으며, 영화 제작 비용을 절감하면서도 높은 수준의 시각적 몰입을 제공할 수 있는 방법으로 떠오르고 있다.

딥러닝은 또한 디지털 휴먼 생성에서도 주체적인 역할을 한다. 이는 배우의 얼굴과 몸짓을 디지털로 복제하거나 전혀 새로운 가상 캐릭터를 창조할 수 있게 한다. 특히, 딥러닝 기술은 배우의 움직임을 캡처하고 이를 디지털 휴먼에 적용함으로써, 배우의 실제 출연 없이도 그들의 디지털화된 모습이 영화 속에서 완벽하게 구현되도록 돕는다. 이는 SF나 액션 영화와 같은 장르에서 디지털 캐릭터가 중요한 역할을 할 때 필수적인 기술이다.

또한, 스타일 전이(Style Transfer) 기술을 통해 딥러닝은 기존 이미지나 장면의 시각적 스타일을 다른 장면에 창의적으로 적용할 수 있다. 이는 영화의 특정 장면에 독특한 미학적 효과를 부여하며, 예를 들어 화가의 스타일을 영화의 장면에 적용함으로써 고유한 시각적 미학을 창출하는 것이 가능하다[17].

딥러닝은 물리적 효과 시뮬레이션에서도 뛰어난 성능을 보인다. 딥러닝을 활용하면 폭발, 화재, 연기, 물 등 복잡한 물리적 효과를 시뮬레이션하여 물리적 촬영 없이도 사실적인 장면을 구현할 수 있으며, 이는 제작 비용을 절감하고 안전성을 높인다[16]. 예를 들어, 딥러닝 기반의 CGI로 구현된 화재 장면은 촬영의 안전성을 보장하면서도 시각적 효과를 극대화하는 데 기여할 수 있다.

마지막으로, 얼굴 및 감정 변환 기술을 통해 딥러닝은 배우의 얼굴 표정을 변환하거나 감정을 조정할 수 있다. 이러한 기술은 장면의 감정적 깊이를 추가하고, 배우의 연기를 향상시키는 데 기여할 수 있다. 예를 들어, 배우의 표정을 미세하게 조정하여 캐릭터의 감정을 더 강하게 전달할 수 있다.

이처럼 딥러닝은 영화 제작 과정에서 주체적인 역할을 수행하며, 단순히 보조적 역할을 넘어서 창의적인 시각적 경험을 직접적으로 제공하는 데 기여하고 있다. GAN과 같은 딥러닝 기술은 영화의 시각적 복잡성을 높이고, 관객에게 더욱 몰입감 있는 경험을 선사하는 데 중요한 역할을 한다. 이를 통해 영화 제작 과정에서 AI가 주도적인 창작 도구로서 자리 잡고 있음을 확인할 수 있다.

2) 자연어 처리(NLP)의 주체적 역학

자연어 처리(NLP)는 생성형 AI의 핵심 기술 중 하나로, 영화 제작에서 단순한 보조 도구를 넘어 주체적인 역할을 수행할 수 있는 잠재력을 가지고 있다. NLP 기반 알고리즘은 영화 제작의 여러 단계에서 창의적 콘텐츠를 직접 생성하고, 다양한 언어 및 문맥을 이해하고 해석하여 스토리라인을 발전시키는 데 핵심적이다. 특히, 시나리오 작성, 대사 생성, 감정 분석과 같은 핵심 작업에서 인간 창작자의 의사결정을 지원하는 것을 넘어, 콘텐츠 제작을 독자적으로 주도할 수 있다.

NLP 기술은 시나리오 작성 및 편집 과정에서 주체적 역할을 수행할 수 있다. 기존에는 작가가 시나리오 초안을 작성한 후 이를 편집하는 데 상당한 시간이 소요되었으나, 생성형 AI의 NLP 기술은 시나리오의 흐름을 분석하고, 일관성을 유지하면서도 창의적인 대사를 자동으로 생성할 수 있다[18]. 이는 초기 초안 작성부터 완성된 시나리오에 이르기까지 자율적인 콘텐츠 생성을 가능하게 하며, 작가의 창의적 결정을 보조하는 것에서 나아가, 창작 과정 전반을 주도할 수 있다.

Utilization of Natural Language Processing(NLP) in film production

또한, NLP는 다국어 대사 생성과 자동 번역을 통해 영화의 국제적 확장성을 높이는 데 중요한 역할을 한다. 생성형 AI는 여러 언어로 대사를 자동 생성하고 번역할 수 있으며, 다양한 문화권에 맞는 현지화된 콘텐츠를 제공할 수 있다. 이러한 기능은 특히 글로벌 영화 시장에서 국제적 접근성을 높이는 데 기여하며, 더 넓은 관객층에게 도달할 수 있게 한다.

캐릭터 개발 및 상호작용에서도 NLP는 중요한 역할을 한다. 애니메이션 영화나 비디오 게임에서 NLP 기반 알고리즘은 자연스러운 대화와 상호작용을 생성하여 캐릭터 간의 관계를 더욱 풍부하게 만들 수 있다. 특히, 생성형 AI는 실시간 대사 생성을 통해 즉흥적인 캐릭터 상호작용을 구현할 수 있으며, 이는 관객이나 플레이어의 선택에 따라 즉각적인 변화를 제공할 수 있다. 이는 전통적인 시나리오 구조와는 다른 동적 스토리텔링을 가능하게 한다.

NLP는 감정 분석을 통해 관객의 피드백을 분석하고, 영화 제작자에게 향후 전략을 수립할 수 있는 통찰력을 제공한다. 소셜 미디어, 리뷰 등 대량의 텍스트를 분석해 관객의 감정적 반응을 평가할 수 있으며, 이를 바탕으로 제작자가 더 나은 결정을 내릴 수 있도록 돕는다. 이는 영화가 관객의 취향과 기대를 실시간으로 반영하는 방향으로 발전하는 데 기여할 수 있다[19].

마지막으로, 자막 생성 및 폐쇄 자막에서는 NLP가 청각 장애인이나 다양한 언어 사용자를 위한 접근성을 높인다. AI는 자동으로 대사를 텍스트로 변환하여, 자막의 품질을 높이고 다양한 언어의 자막을 동시에 제공함으로써 관객의 영화 경험을 포괄적으로 만든다. 이는 영화의 접근성을 크게 향상시키며, 더 많은 관객에게 영화를 전달하는 중요한 역할을 한다.

결론적으로, 자연어 처리 기술은 영화 제작에서 주체적인 역할을 수행하며, 기존의 단순 보조 도구를 넘어, 자동화된 창작과 실시간 스토리텔링을 가능하게 한다. 이는 영화 제작의 효율성을 높이는 동시에, 새로운 형태의 동적 내러티브와 글로벌 콘텐츠를 제작하는 데 중요한 기여를 할 수 있다.

3) 컴퓨터 비전의 주체적 역할

컴퓨터 비전은 생성형 인공지능(Generative AI)의 핵심 기술로, 영화 제작 과정에서 주체적인 역할을 수행하며 시각적 데이터를 해석하고, 새로운 콘텐츠를 독립적으로 생성하는 데 중요한 기여를 한다. 컴퓨터 비전은 단순히 데이터를 분석하는 기술을 넘어, 영화 제작 전반에 걸쳐 시각적 의사결정을 자동화하고, 창의적인 비주얼 콘텐츠를 창출하는 데 기여할 수 있다. 특히 물체 인식, 얼굴 인식, 동작 추적 등의 기술을 통해 영화의 시각적 복잡성을 극대화할 수 있으며[20], 이를 통해 인간 감독을 보조하는 도구에서 나아가 주체적 창작자로서의 역할을 수행할 수 있다.

Utilization of computer vision in film production

첫째, 컴퓨터 비전 기술은 장면 분석과 편집에서 주체적 역할을 수행한다. 생성형 AI는 각 장면의 색상, 조명, 프레임 구성을 자동으로 조정하고, 시각적 일관성을 유지하는 데 기여한다. 예를 들어, 영화의 장면 간 전환을 부드럽게 자동화하여 창의적인 시각적 표현을 극대화할 수 있다[21]. 이는 단순히 감독의 지시를 따르는 것이 아닌, AI가 직접적으로 시각적 선택을 할 수 있음을 의미한다.

둘째, 모션 캡처와 동작 추적에서 컴퓨터 비전 기술은 배우의 움직임을 실시간으로 분석하고, 디지털 캐릭터에 적용할 수 있다. 생성형 AI는 이러한 데이터를 활용해 더욱 자연스러운 애니메이션 캐릭터를 구현하며, 복잡한 동작을 정확하게 재현한다. 이는 디지털 휴먼이나 가상 캐릭터의 움직임을 현실적으로 표현하는 데 중요한 역할을 하며, 영화 제작의 효율성을 크게 향상시킨다[22].

셋째, 컴퓨터 비전 기술은 실시간 특수 효과 적용에 주도적으로 활용된다. 생성형 AI는 배우가 특정 동작을 취할 때, 예를 들어 화염이나 연기 효과를 실시간으로 생성할 수 있으며, 이는 라이브 퍼포먼스나 실시간 방송에서도 적용 가능하다. 이러한 동적 효과는 관객에게 몰입감 있는 경험을 제공하며, AI가 실시간으로 영화의 시각적 스타일을 주도하는 역할을 한다[23].

넷째, 컴퓨터 비전 기술은 객체 인식 및 추적을 통해 복잡한 액션 장면에서 여러 객체의 움직임을 효과적으로 관리할 수 있다. 이를 통해 복잡한 시각적 구도를 설계하고, 장면에서 객체의 위치와 움직임을 자동으로 최적화할 수 있다. 이러한 기술은 영화의 시각적 복잡성을 증가시키는 데 중요한 역할을 하며, 액션 영화나 대규모 전투 장면에서 특히 유용하다[24].

다섯째, 컴퓨터 비전 기술은 증강 현실(AR) 및 가상 현실(VR) 콘텐츠 생성에서 핵심적인 역할을 수행한다. 생성형 AI는 이 기술을 활용하여 시청자에게 몰입형 경험을 제공할 수 있는 환경과 캐릭터를 독립적으로 생성하며, 영화의 프로모션이나 특별한 관객 경험을 위해 AR 앱을 개발할 수 있다. 이는 인터랙티브 영화나 VR 시네마에서 새로운 차원의 상호작용을 가능하게 하며, 관객에게 더 깊은 몰입감을 제공한다[25].

마지막으로, 컴퓨터 비전은 얼굴 분석과 표정 변환을 통해 배우의 감정을 정교하게 표현할 수 있다. 생성형 AI는 배우의 실제 표정을 분석하여, 디지털 아바타에 이를 적용하고, 감정 표현을 자동으로 생성한다. 이를 통해 관객은 더욱 감동적인 스토리텔링을 경험할 수 있으며, 애니메이션 영화나 게임 캐릭터의 생동감을 한층 높일 수 있다[26].

결론적으로, 컴퓨터 비전 기술은 영화 제작에서 생성형 인공지능의 주체적인 역할을 보여주는 대표적인 사례로, 단순한 도구적 사용을 넘어 영화의 시각적 창의성과 효율성을 독자적으로 주도할 수 있다.


Ⅲ. 영화 제작에서 생성형 인공지능의 혁신적 활용 사례

3-1 “세이프 존(The Safe Zone)”

1) AI 기반 영화 제작 사례: 세이프 존

“세이프 존(The Safe Zone)”은 2023년에 28 Squared Studios와 Moon Ventures에 의해 제작된 세계 최초의 AI 각본 및 연출 영화로 생성형 AI 기술이 영호 제작에서 주체적으로 활용된 대표적인 사례이다. 특히, 그림 1과 같이 챗GPT와 같은 생성형 인공지능 기술을 사용해 각본 작성 및 연출이 이루어졌으며, 두바이 국제 AI 영화제에서 그랑프리를 수상하며, AI의 영화 제작 과정에서 주도적인 역할을 입증했다. 영화는 AI가 지배하는 디스토피아적 미래를 배경으로, 주인공인 남매가 제한된 인원만 들어갈 수 있는 '세이프 존'으로 피신하기 위해 벌이는 갈등을 다룬다[28]."세이프 존"은 딥러닝, 자연어 처리, 컴퓨터 비전 기술이 영화 제작에서 주체적으로 작용한 대표적인 사례이다. 이 영화는 AI가 창의적이고 혁신적인 결정을 내릴 수 있음을 입증하며, 전통적인 영화 제작 방식에 새로운 가능성을 제시하였다. AI의 이러한 역할은 단순한 도구를 넘어, 영화 제작의 모든 단계에서 중요한 의사결정을 주도하며, 새로운 형태의 영화 예술을 창출하는 데 핵심적인 기여를 하고 있다.

Fig. 1.

Script of "Safe Zone" written by ChatGPT[27]

2) 생성형 인공지능 기술의 주체적 역할 분석

• 딥러닝(Deep Learning)

“세이프 존”에서 딥러닝은 이미지 생성 AI 도구인 DALL-E와 MidJourney를 통해 스토리보드를 생성하는 데 핵심적인 역할을 했습니다. 딥러닝 알고리즘은 방대한 데이터를 학습하여, 감독의 지시에 따른 시각적 스타일을 자동으로 생성하고 적용할 수 있었습니다. 이는 전통적인 인간의 창의적 결정을 AI가 직접 수행했음을 보여주는 대표적인 사례입니다. 또한, 스토리보드 작업이 딥러닝을 통해 신속하게 이루어짐으로써, 비용 절감과 작업 효율성을 동시에 달성할 수 있었습니다. 이러한 자동화된 비주얼 창출은 영화 제작의 주요 시각적 요소를 구현하는 데 있어 딥러닝이 창의적 주체로서 기능하는 방식을 잘 보여줍니다.

“세이프 존”의 제작에서 딥러닝 기술은 영화의 시각적 요소를 자동화하고 효율적으로 창출하는 데 핵심적인 역할을 했다. 특히, DALL-E와 MidJourney 같은 이미지 생성 AI 도구를 통해 영화의 스토리보드를 생성하는 과정이 매우 혁신적이었다[29]. 딥러닝 알고리즘은 방대한 데이터를 학습하여, 감독의 지시에 따른 시각적 스타일을 자동으로 생성하고 적용할 수 있었다. 이는 전통적인 인간의 창의적 결정을 AI가 직접 수행했음을 보여주는 대표적인 사례이다. 또한, 스토리보드 작업이 딥러닝을 통해 신속하게 이루어짐으로써, 비용 절감과 작업 효율성을 동시에 달성할 수 있었다. 이러한 자동화된 비주얼 창출은 영화 제작의 주요 시각적 요소를 구현하는 데 있어 딥러닝이 창의적 주체로서 기능하는 방식을 잘 보여 주었다.

• 자연어 처리(NLP)

자연어 처리(NLP) 기술은 “세이프 존”의 각본 작성 및 연출 과정에서 중추적인 역할을 했다. 챗GPT는 단순히 스크립트를 작성하는 데 그치지 않고, 영화 제작의 모든 단계에서 지시를 내리는 역할을 맡았다[29]. 예를 들어, 촬영 목록 작성, 카메라와 조명의 위치 설정, 배우의 의상과 소품 선택까지 챗GPT가 상세히 지시했다. 이 과정에서 챗GPT는 감독의 의도를 반영하여 대사를 생성하고, 인물의 감정을 표현하는 방식까지도 제안했다. 이러한 방식은 AI가 영화 제작의 주도적 역할을 수행할 수 있음을 잘 보여준다. 또한, AI는 촬영 현장에서 발생하는 예측 불가능한 상황에 대처하기 위해 실시간으로 조언을 제공하며, 감독의 결정을 지원했다. 이러한 방식은 AI가 단순한 보조도구에서 벗어나 영화 제작의 주체적 역할을 수행할 수 있음을 증명한다.

• 컴퓨터 비전(Computer Vision)

컴퓨터 비전 기술은 “세이프 존”의 시각적 품질을 높이는 데 기여했다. AI는 촬영 시 카메라 위치와 조명 설정을 최적화하고, 인물의 동작을 정밀하게 추적하여 장면의 일관성을 유지하는 역할을 수행했다[29]. 예를 들어, AI는 특정 장면에서 인물의 표정과 자세를 분석하여 시각적으로 가장 효과적인 연출을 제안했다. AI는 촬영 현장에서의 실시간 의사결정을 도와 감독이 미처 인지하지 못한 시각적 최적화를 제시했으며, 이러한 작업은 AI가 영화 제작의 중요한 창작자로서의 역할을 담당했음을 보여준다. 또한 후반 작업에서도 장면 전환과 시각적 효과를 자동으로 처리하여, 영화의 전체적인 시각적 완성도를 높였다. AI의 실시간 조정을 통한 이러한 작업은 인간 감독의 감각적인 의사결정을 보조하는 동시에, 독립적인 시각적 창출을 가능하게 했다.

3-2 "원 모어 펌킨(One More Pumpkin)"

1) AI 기반 영화 제작 사례: 원 모어 펌킨

“원 모어 펌킨”은 한국의 노부부가 호박 농사를 지으며 겪는 기이한 사건을 다룬 공포 영화로, 감독 권한슬이 순수 생성형 인공지능(Generative AI) 기술을 활용하여 제작한 단편 영화다. 이 영화는 2023년 2월 아랍에미리트에서 개최된 제1회 두바이 국제 AI 영화제(AIFF)에서 대상과 관객상을 수상하며 두각을 나타냈다. 이 3분짜리 영화는 AI 기술을 통해 순수하게 제작되었으며, 제작 비용은 전기 요금을 제외하고 ‘0원’이었고, 3~4명이 5일 만에 완성한 작품이다[30]. “원 모어 펌킨”은 그로테스크한 공포 장르를 통해 AI 기술의 한계를 예술적 장점으로 승화시켜 높은 평가를 받았으며, "탐욕은 또 다른 탐욕을 부르고, 결국 파멸을 부른다"는 메시지를 효과적으로 전달했다.

2) 생성형 인공지능 기술의 주체적 역할 분석

• 딥러닝 (Deep Learning)

“원 모어 펌킨”의 시각적 요소들은 딥러닝 기술을 통해 구현되었다. 특히, 이 영화는 TTI(Text to Image) 모델인 ‘스테이블 디퓨전 XL(Stable Diffusion XL)’을 활용하여 초기 이미지를 생성했다[31]. 이러한 AI 모델들은 기존의 데이터셋을 학습하여 영화의 상징적 요소, 예를 들어 사신과 호박 귀신과 같은 인물의 외형을 독창적이고 무시무시하게 디자인할 수 있었다.

그림 23에서 보여지듯, GAN 알고리즘은 인간이 이전에 제시한 데이터와 이미지 스타일을 기반으로 새로운 형태와 패턴을 생성해냈으며, 이를 통해 영화 속 등장인물의 외형은 기존의 공포 장르에서 보지 못했던 새로운 시각적 스타일을 제시했다. 이 과정에서 생성형 인공지능은 비주얼 디자인을 담당하며, 인간이 필요로 했던 시간과 비용을 크게 절감했다. 이 영화에서 딥러닝은 영화의 비주얼 스타일을 혁신적으로 변화시키며, AI가 주체적으로 창의적인 비전을 구현하는 데 중요한 역할을 했다.

Fig. 2.

The grim reaper in “One More Pumpkin”[32]

Fig. 3.

The pumpkin ghost (below) in “One More Pumpkin”[32]

• 자연어 처리 (NLP)

자연어 처리(NLP) 기술은 “원 모어 펌킨”의 시나리오 작성과 대사 생성에서 주체적인 역할을 했다. 영화의 스토리라인은 기존의 다양한 호러 및 판타지 장르의 시나리오 데이터를 학습한 AI에 의해 창출되었다. AI는 ‘탐욕’과 ‘파멸’이라는 주제 의식을 중심으로 한 스토리를 구성하며, 일관성 있는 서사 구조를 유지하면서도 예측할 수 없는 전개를 제공했다. 또한, NLP 기술은 각 캐릭터의 대사를 자동으로 생성하여, 인물 간의 대화가 자연스럽게 이어지도록 했다. 이는 시나리오 작성 과정에서 인간 작가의 개입 없이도 고유한 문체와 감정을 반영한 대사를 생성할 수 있음을 보여준다.

• 컴퓨터 비전 (Computer Vision)

컴퓨터 비전 기술은 “원 모어 펌킨”의 장면 분석 및 특수 효과 적용에서 핵심적인 역할을 수행했다. AI는 ‘피카(Pika)’라는 ITV(Image to Video) 모델을 활용하여 정적 이미지를 동적 비디오로 변환했으며[33], 캐릭터의 자연스러운 움직임과 장면 전환을 구현하는 데 주도적인 역할을 했다. AI는 각 장면의 조명과 색상을 분석하고 조정하여 영화의 시각적 일관성을 유지했다. AI는 단순히 배경에서 보조하는 도구가 아니라, 배우의 움직임을 실시간으로 추적하고 특수 효과를 자동으로 생성하는 등 영화의 시각적 효과를 이끌어 가는 능동적인 주체였다. 이는 AI가 단순히 데이터를 처리하는 도구를 넘어, 실제로 영화의 연출과 시각적 표현에서 주도적인 역할을 했음을 입증했다.

3-3 “겟 미 아웃(Get Me Out)”

1) AI 기반 영화 제작 사례: 겟 미 아웃

영화 “겟 미 아웃(Get Me Out)”은 다니엘 안테비 감독이 제작한 6분 30초 가량의 단편 영화로 할리우드와 로스앤젤레스에서 활동하는 젊은 영화 제작자들과 함께 인공지능 기술을 활용해 제작한 공포 영화이다. 이 영화는 주인공이 어릴 적 미국으로 이주한 후 겪는 심리적 고통을 AI 기술을 통해 표현한 작품이다. 이 영화는 현실과 환상을 넘나드는 기이한 장면들을 표현하며, 2024년 2회 AI 국제 영화제에서 대상을 수상했다. 영화 “겟 미 아웃”에서는 생성형 인공지능 기술이 시각적 및 서사적 측면에서 중요한 주체적 역할을 수행하였다. 딥러닝, 자연어 처리(NLP), 컴퓨터 비전과 같은 주요 기술들이 영화 제작 과정 전반에 걸쳐 적용되었으며, 각 기술이 독창적이고 새로운 경험을 창출하는 데 크게 기여했다.

2) 생성형 인공지능 기술의 주체적 역할 분석

• 딥러닝 (Deep Learning)

딥러닝 알고리즘, 특히 Runway AI의 Gen-2와 Luma AI는 주인공의 심리적 상태를 시각적으로 표현하는 데 필수적인 도구였습다. 예를 들어 그림 4와 같이 공황 발작을 상징하는 빨간색의 액체로 된 근육 인간이 주인공을 덮치고 공격하는 장면은 생성형 AI 기술의 응용을 통해 창조되었다. 이 장면은 주인공의 내부적 불안과 고통을 극적으로 시각화하며, 관객에게 강렬한 심리적 경험을 전달하였는데, 이 공포스러운 빨간색 액체 인간의 생성은 ComfyUI를 통해 배우의 피부를 제거하고 근육 조직만으로 이루어진 모습을 표현한 것으로, 딥러닝을 통한 정교한 그래픽 처리가 필요했다. 이러한 생성형 인공지능 기술은 전통적인 시각적 디자인과 같이 높은 수준의 그래픽을 유지하면서도 제작비용을 절감하는 데 기여했다[34],[35].

Fig. 4.

A scene from “Get Me Out”[36]

• 자연어 처리 (NLP)

자연어 처리(NLP) 기술은 “겟 미 아웃”에서 영화의 내러티브 구성과 대사 생성에서 핵심적인 역할을 했다. AI는 공포와 심리적 고통을 주제로 한 기존 스크립트를 학습하여, 주인공의 대사와 내러티브를 자동으로 생성하였다. 이를 통해 AI는 주인공의 심리적 상태와 상황을 더욱 생생하게 전달하며, 인간 작가의 개입 없이도 일관성 있는 스토리라인을 유지할 수 있음을 입증했다[33]. 또한, NLP 기술은 특정 장면에서 주인공의 감정을 반영한 대사를 생성하여, 긴장감과 몰입감을 극대화하는 데 기여했다. 특히, AI는 주인공의 내면 갈등과 심리적 압박감을 강화하는 방향으로 대사를 구성하여, 관객이 주인공의 공포와 불안을 더욱 깊이 공감할 수 있도록 하였다. 이러한 NLP 기술의 활용은 영화 내러티브의 복잡성을 높이고, 인간 작가와 같이 어렵고 복잡한 심리적 깊이를 효과적으로 전달하는 데 기여했다.

• 컴퓨터 비전 (Computer Vision)

컴퓨터 비전 기술은 “겟 미 아웃”에서 시각적 일관성을 유지하고, 실시간 특수 효과를 구현하는 데 중요한 역할을 했다. 그림 5에서 AI는 Runway의 비디오-투-비디오 도구는 주인공의 불안정한 심리 상태를 표현하기 위해 불안정한 초점과 다이나믹한 카메라 움직임을 구현했다. 이 기술은 또한 장면의 조명과 색상을 조정하여 영화의 시각적 일관성을 유지하고, 관객이 주인공의 심리적 고통을 더욱 깊이 느낄 수 있도록 도왔다. 이와 같은 AI 기반의 시각적 표현은 공포 영화에서 중요한 긴장감과 몰입감을 극대화하는 데 기여했다[33].

Fig. 5.

Unstable focus and dynamic camera movements in “Get Me Out”[37]

3-4 영화 제작에서 생성형 인공지능의 주체적 역할

이와 같이 세이프 존, 원 모어 펌킨, 겟 미 아웃 이 세 작품은 생성형 인공지능이 영화 제작에서 단순한 도구 이상의 주체적 역할을 어떻게 수행할 수 있는지를 분명하게 보여주었다. 각 영화는 딥러닝, 자연어 처리(NLP), 컴퓨터 비전 기술을 활용하여 독창적이고 강렬한 시각적 및 서사적 요소를 만들어냈으며, 이는 영화 제작의 모든 단계에서 AI가 주도적인 역할을 맡고 있음을 입증한다.

딥러닝 기술은 기존의 시각적 디자인 한계를 뛰어넘어, 인간의 상상력을 구현하고 이를 AI 주도의 창의적 비전으로 확장하는 데 중요한 역할을 했다. 예를 들어, 복잡한 시각적 효과와 독창적인 가상 환경 생성에서 AI는 인간 감독이 상상하기 어려운 수준의 디테일과 정교함을 구현함으로써 전통적인 영화 제작 방식에서는 불가능했던 새로운 시각적 세계를 창출할 수 있었다.

자연어 처리(NLP)는 인간 작가가 제시할 수 있는 다양한 가능성을 넘어서 AI가 직접 스토리의 흐름과 대사 생성에서 주도적 역할을 수행할 수 있도록 지원했다. 이를 통해 더 풍부하고 다층적인 스토리텔링이 가능해졌으며, AI는 스토리의 일관성을 유지하면서도 예측할 수 없는 전개를 제공하여 인간이 상상하기 어려운 수준의 복잡한 내러티브 구조를 구축할 수 있었다.

컴퓨터 비전 기술은 영화 제작 과정에서 시각적 일관성을 유지하고, AI가 실시간으로 장면을 분석하고 최적화하는 데 중요한 역할을 했다. 이를 통해 최상의 시각적 결과물을 실현하고, 복잡한 장면을 AI가 스스로 처리하며 영화 제작에서 시각적 품질을 극대화할 수 있었다.

결론적으로, 생성형 인공지능 기술은 단순히 보조적인 도구로 머무는 것이 아니라, 영화 제작의 핵심 의사결정을 주도하고 창의적인 비전을 실현하는 데 필수적인 역할을 수행하며, 영화 산업의 패러다임을 근본적으로 변화시키고 있다.


Ⅳ. 영화 제작에서 생성형 인공지능의 한계

4-1 딥러닝의 시각적 표현에서의 한계

딥러닝은 영화에서 복잡한 시각적 요소를 생성하는 데 중요한 역할을 하지만, 이 기술에는 여전히 몇 가지 한계가 존재한다. 딥러닝 기반 시각적 표현은 데이터 학습을 통해 창의적이고 독창적인 이미지를 생성할 수 있지만, 예측 오류나 훈련 데이터의 한계로 인해 일관성이 부족하거나 톤이 어긋나는 문제가 발생할 수 있다.

영화 “겟 미 아웃”에서는 딥러닝 기술을 사용하여 빨간색 액체 인간을 표현했으나, 특정 장면에서 이 그래픽이 부자연스럽게 느껴져 관객의 몰입을 방해할 수 있다. 예를 들어, 그림 6과 같이 빨간색 액체 인간이 갑자기 상체만 존재하는 모습으로 표현되는 장면은 시각적 표현의 한계를 드러낸다. 이러한 불일치는 딥러닝이 다양한 시각적 스타일을 통합하거나 일관된 시각적 언어를 유지하는 데 어려움을 겪을 수 있음을 보여준다.

Fig. 6.

A scene from “Get Me Out”[34]

또한, 딥러닝은 주어진 데이터를 기반으로 학습하기 때문에, 훈련 데이터의 편향이나 불완전성이 결과물에 영향을 미칠 수 있다. 이로 인해 생성된 시각적 요소가 영화의 내러티브나 감정적 톤과 불일치할 위험이 있다. 이러한 한계는 딥러닝 기술을 사용하는 과정에서 반드시 고려해야 할 요소로, 영화 제작자는 이러한 문제를 해결하기 위해 여전히 인간의 창의적 감독이 필요하다. 이러한 상황은 특히 공포 영화와 같이 시각적 일관성이 몰입감을 유지하는 데 중요한 장르에서 더욱 두드러지며, 영화 제작의 성공 여부에 직접적인 영향을 미칠 수 있다.

4-2 자연어 처리 기반 스토리텔링의 한계

자연어 처리(NLP) 기술은 영화의 시나리오 작성과 대사 생성에서 강력한 도구로 활용되지만, 이 기술에는 몇 가지 중요한 한계가 존재한다. NLP는 대규모 데이터를 학습하여 자동으로 대사를 생성하고 내러티브 구조를 구축할 수 있는 능력을 가지고 있지만, 감정적 깊이 부족과 스토리 일관성 유지의 어려움이라는 도전 과제를 안고 있다.

영화 “세이프 존”의 제작 과정에서, 제작진은 AI에게 직접적인 프롬프트를 제공하는 대신, 이야기 아이디어를 생성하도록 요청했다. AI가 제안한 다양한 이야기 아이디어 중 상위 다섯 가지를 선택하고, 이를 바탕으로 AI가 대본을 작성하도록 하였다. 그러나 이 과정에서 AI는 주요 주제에서 벗어나 다른 주제를 다루기 시작하는 경향을 보였다. 이로 인해 제작진은 AI가 줄거리의 일관성을 유지할 수 있도록 지속적으로 개입해야 했다. 결국, 대본의 세부 사항을 완성하기 위해 AI에게 추가적인 세부 정보를 요청하고, 인간 감독이 주도적으로 수정 작업을 진행할 수밖에 없었다[29].

이와 같은 사례는 NLP 기반 스토리텔링이 기술적으로는 강력하지만, 창의적이고 감정적인 표현을 완전히 자동화하기에는 여전히 한계가 있음을 보여준다. 특히, 스토리의 일관성 유지와 주제의 집중력 강화가 요구되는 영화 제작 과정에서는 인간의 창의적 개입이 필수적이다. 이러한 한계는 현재의 NLP 기술이 영화 제작에서 지원적 역할에 머무를 수밖에 없다는 것을 의미하며, 향후 기술 발전에 따라 이러한 문제들이 어느 정도 해결될 수 있을 것으로 기대된다.

4-3 컴퓨터 비전 기술의 시각적 일관성 한계

컴퓨터 비전 기술은 영화 제작 과정에서 시각적 요소의 자동화를 가능하게 하지만, 시각적 일관성을 유지하는 데 있어서 중요한 한계를 지닌다. 예를 들어, 영화 “원 모어 펌킨”에서는 컴퓨터 비전 기술을 활용하여 공포감을 극대화하는 시각적 디테일을 생성하려 했으나, 특정 장면에서 이미지 품질이 저하되어 관객의 몰입을 방해하는 결과를 초래했다. 그림 7과 같이 호박 귀신의 입 모양이 대사와 어긋나거나, 그림 8과 같이 아이의 눈동자가 부자연스럽게 움직이는 장면에서 이러한 한계가 두드러졌다. 이는 컴퓨터 비전 기술이 장면 전환이나 다양한 시각적 요소의 통합에 있어서 일관성을 유지하는 데 어려움을 겪을 수 있음을 시사한다.

Fig. 7.

The pumpkin ghost in “One More Pumpkin”[34]

Fig. 8.

The girl in “One More Pumpkin”[34]

또한, AI가 생성한 이미지가 기존 저작물과 유사할 경우, 저작권 문제가 발생할 가능성이 있으며, 이는 영화 제작자들에게 법적 리스크를 초래할 수 있다. 이러한 법적 이슈는 특히 공포 영화와 같은 장르에서 중요한 시각적 몰입감을 해치고, 결과적으로 영화의 전체적인 품질에 부정적인 영향을 미칠 수 있다. 따라서 컴퓨터 비전 기술의 이러한 한계를 보완하기 위해서는 인간 감독의 감독과 창의적 개입이 필수적이다. 이는 AI와 인간의 협업이 영화 제작에서 여전히 중요한 이유 중 하나로 작용한다.


Ⅴ. 생성형 인공지능과 인간의 협업

5-1 영화 제작에서 생성형 인공지능과 인간의 협업 전략

생성형 인공지능의 기술적 한계는 시간이 지남에 따라 개선될 가능성이 있으나, 현재의 기술 수준에서는 이러한 한계를 완전히 극복하기 어렵다. 따라서 인간의 창의성과 감정적 판단이 필요한 부분에서의 협업이 필수적이다.

딥러닝 기술은 복잡한 시각적 요소를 생성할 수 있지만, 시각적 일관성 부족이나 예측 오류로 인해 부자연스러운 표현이 발생할 수 있다. 이를 보완하기 위해, 인간 감독은 AI가 생성한 시각적 요소를 검토하고, 필요한 경우 수정하여 전체적인 톤과 일치시킬 수 있다. 예를 들어, AI가 생성한 장면에서 톤이 어긋나는 경우, 인간 감독이 시각적 스타일을 조정하여 일관성을 유지할 수 있다. 또한, 인간 감독은 딥러닝 모델이 학습하는 데이터셋을 선정하고 구성하여, 편향성을 줄이고 결과물의 품질을 향상시킬 수 있다.

자연어 처리(NLP) 기술은 대사 생성과 내러티브 구축에서 강력한 도구로 활용될 수 있지만, 감정적 깊이와 일관성 문제를 해결하는 데 한계가 있다. 이를 보완하기 위해, 인간 작가는 AI가 생성한 대사를 검토하고, 감정적 뉘앙스를 강화하거나 수정할 수 있다. 예를 들어, AI가 생성한 대사가 기계적이거나 감정적 깊이가 부족할 경우, 인간 작가가 이를 보완하여 더 풍부하고 공감할 수 있는 대사로 다듬을 수 있다. 또한, AI가 생성한 내러티브의 전개를 감독하여 스토리의 일관성을 유지하고, 예측 가능성을 줄일 수 있다.

컴퓨터 비전 기술은 시각적 요소의 자동화를 가능하게 하지만, 시각적 일관성을 유지하는 데 어려움이 있다. 이를 보완하기 위해, 인간 감독은 AI가 생성한 장면 전환과 시각적 요소를 면밀히 검토하여 필요할 경우 수동으로 수정하거나 재구성할 수 있다. 예를 들어, 특정 장면에서 시각적 일관성이 부족하거나 이미지 품질이 적합하지 않은 경우, 인간 감독이 이를 조정하여 관객의 몰입감을 유지할 수 있다. 또한, AI가 생성한 이미지에 대한 저작권 문제는 인간 감독이 사전에 법적 검토를 통해 대응할 수 있다.

결론적으로, 영화 제작 과정에서 인간과 AI의 역할을 명확히 구분하고 협업할 수 있는 구조를 설계하는 것이 중요하다. 인간은 창의적이고 감정적인 판단이 필요한 부분에서 주도적인 역할을 수행하고, AI는 반복적이고 기술적인 작업을 지원하는 방식으로 협업이 이루어져야 한다. 이러한 협업 전략을 통해 AI의 기술적 강점을 극대화하면서도 인간의 창의성을 보완하는 방식으로 영화 제작의 효율성과 품질을 동시에 높일 수 있다. 이를 통해 AI와 인간은 각각의 강점을 활용하여 영화 제작 과정에서 발생할 수 있는 단점을 효과적으로 보완할 수 있으며, 영화 산업의 혁신적 발전을 도모할 수 있을 것이다.


Ⅵ. 결 론

본 연구는 생성형 AI가 영화 제작에서 주체적으로 관여하는 방식을 분석하고, 딥러닝, 자연어 처리(NLP), 컴퓨터 비전 기술이 영화 제작의 창의성과 효율성을 어떻게 높일 수 있는지를 탐구하였다. 특히, AI 기술이 단순한 보조 도구를 넘어서, 영화 제작의 전 과정에서 중요한 의사결정과 창의적 절차를 주도할 수 있음을 확인했다. 사례 연구를 통해 AI 기술이 영화의 시각적, 서사적 요소를 어떻게 혁신적으로 창출했는지를 구체적으로 설명하였으며, AI가 인간 감독과 협업하여 창의적인 비전을 구현하는 역할을 강조하였다.

그러나 본 연구에는 몇 가지 한계점이 존재한다. 첫째, 특정 영화 사례에 초점을 맞추었기 때문에, 다양한 장르에서 생성형 AI 기술이 어떻게 활용되는지를 충분히 다루지 못했다. 둘째, 기술의 발전 속도가 빠른 상황에서, 현재 분석된 기술의 한계가 미래 AI 발전에 따라 변화할 가능성을 충분히 고려하지 못했다. 셋째, AI와 인간의 협업 과정에서 발생할 수 있는 윤리적 문제와 저작권 문제에 대한 심도 있는 논의가 부족했다.

향후 연구에서는 다양한 장르와 규모의 영화에서 생성형 AI 기술이 어떻게 활용되고 있는지를 폭넓게 분석할 필요가 있다. 또한, AI와 인간의 협업 과정에서 발생할 수 있는 윤리적, 법적 문제를 심층적으로 탐구하여, AI 기술이 영화 산업에 미치는 영향에 대한 종합적인 이해를 도모해야 한다.

본 연구는 생성형 AI 기술이 영화 산업에 가져올 수 있는 혁신적 변화를 조망하고, AI가 단순한 도구가 아닌 창의적 파트너로서 자리 잡을 수 있는 방법을 제시했다. 앞으로의 영화 제작 과정에서 AI와 인간의 협력은 영화의 창의성과 효율성을 더욱 향상시킬 수 있는 중요한 기초를 제공할 것이다.

References

  • OpenAI. MuseNet [Internet]. Available: https://openai.com/research/musenet, .
  • AIVA. AIVA: Music Composed by Artificial Intelligence [Internet]. Available: https://www.aiva.ai, .
  • Refik Anadol. Machine Hallucination [Internet]. Available: https://refikanadol.com/works/machine-hallucination, .
  • A. Ramesh, P. Dhariwal, A. Nichol, C. Chu, and M. Chen, “Hierarchical Text-Conditional Image Generation with CLIP Latents,” arXiv:2204.06125, , April 2022. [https://doi.org/10.48550/arXiv.2204.06125]
  • M. A. Boden, AI: Its Nature and Future, Oxford, UK: Oxford University Press, 2016.
  • L. Floridi, J. Cowls, T. C. King, and M. Taddeo, “How to Design AI for Social Good: Seven Essential Factors," Science and Engineering Ethics, Vol. 26, pp. 1771-1796, April 2020. [https://doi.org/10.1007/s11948-020-00213-5]
  • J.-G. Kim, “Current Use and Issues of Generative AI in the Film Industry,” Journal of Information Technology Applications & Management, Vol. 31, No. 3, pp. 181-192, June 2024. [https://doi.org/10.21219/jitam.2024.31.3.181]
  • B. Jeon, “Artificial Intelligence and Film & Video Production: Through the Cases of the Use of Artificial Intelligence as a Film & Video Production Tool,” PREVIEW: The Korean Journal of Digital Moving Image, Vol. 20, No. 1, pp. 133-162, 2023. [https://doi.org/10.23120/kadmi.2023.20.1.006]
  • J. S. Chung, “Film Production Using Generative AI and Its Aesthetic Potential,” Journal of Media Art Research, Vol. 27, No. 3, pp. 23-46, July 2020. [https://doi.org/10.23120/kadmi.2024.21.1.005]
  • Y. Huang, S. Lv, K. Tseng, P. J. Tseng, X. Xie, and R. F. Y. Lin, “Recent advances in artificial intelligence for video production system,” Enterprise Information Systems, Vol. 17, No. 11, 2023. [https://doi.org/10.1080/17517575.2023.2246188]
  • U. Patkachar​, “The Role of Artificial Intelligence on Work in Film Industry,” Journal of Arts Management, Vol. 8, No. 2, pp. 445-458, 2024.
  • S. Russell and P. Norvig, Artificial Intelligence: A Modern Approach, 3rd ed., Pearson, 2016.
  • I. Goodfellow, Y. Bengio, and A. Courville, Deep Learning, MIT Press, 2016.
  • S. Bender, “Generative-AI, the Media Industries, and the Disappearance of Human Creative Labour,” Media Practice and Education, pp. 1-18, 2024. [https://doi.org/10.1080/25741136.2024.2355597]
  • Y. LeCun, Y. Bengio, and G. Hinton, “Deep Learning,” Nature, Vol. 521, pp. 436-444, 2015. [https://doi.org/10.1038/nature14539]
  • I. Goodfellow, J. Pouget-Abadie, M. Mirza, B. Xu, D. Warde-Farley, S. Ozair, ... and Y. Bengio, “Generative Adversarial Nets,” in Advances in Neural Information Processing Systems 27 (NIPS 2014), pp. 2672-2680, 2014.
  • J. Devlin, M.-W. Chang, K. Lee, and K. Toutanova, “BERT: Pre-Training of Deep Bidirectional Transformers for Language Understanding,” in Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Vol. 1, pp. 4171-4186, June 2019. [https://doi.org/10.18653/v1/N19-1423]
  • L. A. Gatys, A. S. Ecker, and M. Bethge, “Image Style Transfer Using Convolutional Neural Networks,” in Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition, 2016. [https://doi.org/10.1109/CVPR.2016.265]
  • A. Radford, J. Wu, R. Child, D. Luan, D. Amodei, and I. Sutskever, “Language Models Are Unsupervised Multitask Learners,” OpenAI Blog, Vol. 1, No. 8, 2019.
  • K. He, X. Zhang, S. Ren, and J. Sun, “Deep Residual Learning for Image Recognition,” in Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, 2016. [https://doi.org/10.1109/CVPR.2016.90]
  • B. Zhou, A. Khosla, A. Lapedriza, A. Oliva, and A. Torralba, “Learning Deep Features for Discriminative Localization,” in Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition, 2016. [https://doi.org/10.1109/CVPR.2016.319]
  • J. Shotton, A. Fitzgibbon, M. Cook, T. Sharp, M. Finocchio, and R. Moore, “Real-Time Human Pose Recognition in Parts from Single Depth Images,” in Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, 2011. [https://doi.org/10.1109/CVPR.2011.5995316]
  • R. A. Newcombe, S. J. Lovegrove, and A. J. Davison, “DTAM: Dense Tracking and Mapping in Real-Time,” in Proceedings of 2011 IEEE International Conference on Computer Vision, 2011. [https://doi.org/10.1109/ICCV.2011.6126513]
  • L. Bertinetto, J. Valmadre, J. F. Henriques, A. Vedaldi, and P. H. S. Torr, “Fully-Convolutional Siamese Networks for Object Tracking,” in Proceedings of the European Conference on Computer Vision, pp. 850-865, 2016. [https://doi.org/10.1007/978-3-319-48881-3_56]
  • M. Billinghurst, A. Clark, and G. Lee, “A Survey of Augmented Reality,” Foundations and Trends® in Human–Computer Interaction, Vol. 8, No. 2-3, pp. 73-272, 2015. [https://doi.org/10.1561/1100000049]
  • P. Ekman and W. V. Friesen, Facial Action Coding System, APA PsycTests, 1978. [https://doi.org/10.1037/t27734-000]
  • Esquire Philippines. The Safe Zone: The Short Film Written and Directed by AI [Internet]. Available: https://www.esquiremag.ph/culture/movies-and-tv/safe-zone-short-film-written-and-directed-by-ai-a00203-20230207, .
  • Inquirer.net. ‘The Safe Zone’: The First Film Written and Directed by Artificial Intelligence [Internet]. Available: https://entertainment.inquirer.net/477117/the-safe-zone-the-first-film-written-and-directed-by-artificial-intelligence, .
  • AI Times. ChatGPT Debuts as a Film Director: Takes on Screenplay and Direction of The Safe Zone [Internet]. Available: https://www.aitimes.com/news/articleView.html?idxno=148793, .
  • MK News. The Impact of AI on the Film Industry [Internet]. Available: https://www.mk.co.kr/news/it/11063534, .
  • SK Hynix Newsroom. AI and the Future of Movie Production: How AI Is Changing the Film Industry [Internet]. Available: https://news.skhynix.co.kr/post/ai-and-movie, .
  • Studio Freewilliusion Inc. A.I Works Show Reel / One More Pumpkin [Internet]. Available: https://www.youtube.com/watch?app=desktop&v=ezZ-8F_dQpo, .
  • Dataconomy. Rise of Artificial Intelligence in Cinema [Internet]. Available: https://dataconomy.com/2024/05/10/rise-of-artificial-intelligence-in-cinema/, .
  • Forbes. AI Meets Art at Runway Film Festival [Internet]. Available: https://www.forbes.com/sites/lesliekatz/2024/05/12/runway-festival-creators-of-stunning-top-films-on-ai-as-art-partner/, .
  • TechCrunch. At the AI Film Festival, Humanity Triumphed Over Tech [Internet]. Available: https://techcrunch.com/2024/05/11/at-the-ai-film-festival-humanity-triumphed-over-tech/, .
  • Jumpstart. First Film Ever Written and Directed by AI: The Safe Zone [Internet]. Available: https://www.jumpstartmag.com/first-film-ever-written-and-directed-by-ai-the-safe-zone/, .

저자소개

강지영(Jiyoung Kang)

2004년:Pratt Institute 컴퓨터 그래픽스 (학사)

2006년:New York University, 인터랙티브 텔레커뮤니케이션 (석사)

2013년:한국과학기술원 (공학박사-인터랙션 디자인)

2022년∼현 재: 이화여자대학교 커뮤니케이션·미디어학부 교수

※관심분야:가상현실(VR), 증강현실(AR), 인터랙션 디자인 등

Fig. 1.

Fig. 1.
Script of "Safe Zone" written by ChatGPT[27]

Fig. 2.

Fig. 2.
The grim reaper in “One More Pumpkin”[32]

Fig. 3.

Fig. 3.
The pumpkin ghost (below) in “One More Pumpkin”[32]

Fig. 4.

Fig. 4.
A scene from “Get Me Out”[36]

Fig. 5.

Fig. 5.
Unstable focus and dynamic camera movements in “Get Me Out”[37]

Fig. 6.

Fig. 6.
A scene from “Get Me Out”[34]

Fig. 7.

Fig. 7.
The pumpkin ghost in “One More Pumpkin”[34]

Fig. 8.

Fig. 8.
The girl in “One More Pumpkin”[34]

Table 1.

Utilization of GAN (Generative Adversarial Networks) in film production

Applications Description
Virtual Environment Generation Create various environments such as natural landscapes, urban scenes, and fantasy worlds.
Digital Human Creation Digitally replicate actors' faces and movements to create virtual characters.
Style Transfer Apply the style of one image to another image.
Physical Effects Simulation Simulate complex physical effects such as explosions, fire, smoke, and water.
Facial and Emotion Transformation Transform actors' facial expressions or adjust their emotions.

Table 2.

Utilization of Natural Language Processing(NLP) in film production

Applications Description
Script Writing and Editing Analyzes scripts to generate original dialogue while maintaining story flow, supporting writers in developing and refining narratives.
Automated Dialogue Generation and Translation Generates dialogues in various languages, increasing accessibility for international audiences and providing tailored content for different cultural contexts.
Character Development and Interaction Creates dynamic character interactions and complex narratives with believable dialogue, especially useful in animated films and video games for real-time audience/player interaction.
Sentiment Analysis for Audience Feedback Analyzes audience feedback, reviews, and social media to gauge public sentiment, providing insights into preferences and trends for filmmakers.
Enhanced Subtitling and Closed Captioning Improves accuracy and efficiency of subtitles and captions by generating text from spoken dialogue, enhancing accessibility for audiences with hearing impairments.

Table 3.

Utilization of computer vision in film production

Applications Description
Scene Analysis and Editing Analyzes scripts to generate original dialogue while maintaining story flow, supporting writers in developing and refining narratives.
Motion Capture and Tracking Generates dialogues in various languages, increasing accessibility for international audiences and providing tailored content for different cultural contexts.
Real-Time Special Effects Creates dynamic character interactions and complex narratives with believable dialogue, especially useful in animated films and video games for real-time audience/player interaction.
Object Recognition and Tracking Analyzes audience feedback, reviews, and social media to gauge public sentiment, providing insights into preferences and trends for filmmakers.
AR and VR Content Creation Creates immersive environments and characters for augmented reality (AR) and virtual reality (VR) experiences.