인간-AI 커뮤니케이션 연구주제 탐색: 챗GPT와 SMCRE 모형을 중심으로
Copyright ⓒ 2023 The Digital Contents Society
This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-CommercialLicense(http://creativecommons.org/licenses/by-nc/3.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.
초록
이 연구는 챗GPT의 기술 특성과 SMCRE 모형을 활용하여 인간-AI 커뮤니케이션 관련 연구주제를 탐색하고자 하였다. 선행 연구를 통해 인간-AI 커뮤니케이션은 인간-AI 관계 형성, 개인화 맞춤형 심층 지식정보 공유와 생산 가능성을 확인할 수 있었다. 특히 챗GPT가 가진 인간 이용자의 질문 이해, 적절한 답변, 상호작용 등 맥락성과 지속가능성을 고려하여, SMCRE 모형에 따라 인간과 AI 간의 커뮤니케이션 관련 연구주제를 탐색적으로 제안한 결과를 종합하면 다음과 같다. 송신자(S) 관점에서는 인간과 AI의 화자·청자 역할의 상호 교차 가능성, 메시지(M) 차원에서는 인간의 AI 생성 콘텐츠 수용의 역동성, 채널(C) 차원에서는 AI 구현의 다채널 특성(시각, 청각, 가상 공간의 메타휴먼 등), 수용자(R) 차원에서는 인간의 인지, 태도, 행동 반응 특성, 그리고 효과(E) 차원에서는 AI 커뮤니케이션에 따른 개인적, 사회적, 문화적 변화를 커뮤니케이션 연구자들이 주목해야 함을 확인할 수 있다. 이 연구는 SMCRE 모형의 요소별로 인간-AI 커뮤니케이션 연구주제를 제안함으로써 후속 연구를 촉진한다는 데 의의가 있다.
Abstract
This study aims to explore research topics related to human–AI communication using the technological characteristics of ChatGPT and the SMCRE model. Previous studies have suggested the potential for human-AI relationship formation, personalized and in-depth knowledge sharing, and production. Considering the capabilities of ChatGPT in terms of understanding user questions, generating appropriate responses, and facilitating interactive and contextually relevant communication, this study proposes exploratory research topics on human–AI communication within the framework of the SMCRE model. From the perspective of the sender (S), it involves the potential interplay of roles between humans and AI as speakers and listeners. In terms of the message (M), it examines the dynamic nature of human reception of AI-generated content. With regard to the channel (C), it explores the multi-channel characteristics of AI implementation including visual, auditory, and virtual spaces. From the receiver's (R) perspective, it analyzes human cognition, attitudes, and behavioral responses. Finally in terms of effects (E), it considers the individual, social, and cultural changes resulting from AI communication. This study's proposal of research topics on human–AI communication, in accordance with the elements of the SMCRE model, is significant in stimulating future research in the field.
Keywords:
Human-AI Communication, ChatGPT, SMCRE Model, AI Relationships, AI Communicators키워드:
인간-AI 커뮤니케이션, 챗GPT, SMCRE 모형, AI 관계, AI 커뮤니케이터Ⅰ. 서 론
2023년 현재 세계적인 광풍(狂風)이라 할 만큼 인공지능 기반의 대규모 언어모델(LLM: Large Language Models)인 챗GPT(Chat Generative Pre-trained Transformer) 서비스가 우리 사회의 커뮤니케이션 형태를 빠르게 변모시키고 있다[1],[2]. 챗GPT는 OpenAI가 개발한 대화형 AI 시스템(a conversational Artificial Intelligent system)이다[3]. 한마디로, 챗GPT는 인간의 언어를 이해하고 이를 분석하여 새로운 정보를 생성하며 상호작용하는 대화형 인공지능(AI: Artificial Intelligence), 즉 커뮤니케이션 시스템이다[4]. 2007년 아이폰(iPhone)의 등장이 인간 사회 전반을 스마트폰을 중심으로 재편한 것처럼, 챗GPT가 미치는 영향력도 막강하다[1]. 실제 2022년 11월, 챗GPT-3.5 공개 이후 2개월 만에 1억 명의 월간 활성 사용자(MAU)가 나타났다. 챗GPT의 인기 이유는 단순 정보 검색 결과 링크 정도를 보여주던 기존 검색과 달리, 이용자와의 커뮤니케이션 맥락에 부합하는 고유한 스토리텔링 서비스를 제공하고 있기 때문이다[5]. 챗GPT가 생성하는 커뮤니케이션 메시지의 질적 수준도 높다. 컴퓨터 프로그래밍을 대체하거나 시와 논문을 쓰기도 하고, 의과학 등 다양한 분야의 전문 교육을 대체할 가능성도 커지고 있다[6]. 물론 이러한 챗GPT의 장점에도 불구하고, AI가 제공하는 정보의 신뢰성, 편향성, 도덕적 윤리성 문제 부각 등 다양한 한계도 노정하고 있다[7],[8].
그럼에도 챗GPT 등 인공지능 서비스의 보편화 추세와 맞물려 인간-AI 커뮤니케이션의 확산과 사회변화는 불가피해 보인다[9]. 미국 펜실베이니아대의 몰릭(Ethan Mollick)은 우리 사회가 AI가 가져올 변화에 적응할 필요성을 강조했다. 그는 우리가 계산기가 있는 세상에서 학생들에게 수학을 가르치는 것처럼, AI와 함께 인간이 공존하는 방법을 배워야 한다고 주장한다[10]. 이처럼 지금은 바야흐로 AI 시대라고 해도 과언이 아니다. 이제 미디어 커뮤니케이션 연구자들은 인간-AI 커뮤니케이션 활성화가 가져오는 인간 사회의 변화를 미리 예측하고 대비할 수 있는 연구에 집중해야 한다.
이러한 필요성에도 불구하고, AI와 챗GPT 구현 원리를 밑바닥부터 훑어보면서 미디어 커뮤니케이션 학문의 관점에서 인간-AI 상호작용 활성화와 대인·조직·사회 변화 관련 연구주제를 입체적으로 제시한 연구를 찾기란 쉽지 않다. 물론 AI의 등장으로 미국(미디어 효과)과 유럽(미디어 문화) 중심의 전통적인 커뮤니케이션 연구에 위기가 찾아올 것이라는 전망[11], 챗봇과 이용자 간의 관계성[12], 챗봇 디자인과 이용[13], 챗GPT가 Human–Computer Interaction 연구의 도구로 활용 가능하다고 제안한 연구[14] 등이 있지만, 앞선 연구들은 주로 AI 구현 원리에 대한 기술적 해석을 누락한 채, 지능형 알고리즘의 외연만을 바라보는 경향이 크다. 다시 말해 AI 기술의 무엇이, 왜, 어떻게 인간과 AI 기계 간의 상호작용에 영향을 미치고 있는지를 근원적으로 살피고 있지 못하다. 즉 AI 기술의 구체적인 구현 원리 체계를 토대로 챗GPT가 커뮤니케이션과 사회 전반에 가져다줄 변동을 뿌리부터 검토하고 연구과제를 논리적으로 제안한 연구는 부족한 실정이다. 따라서 이 연구는 챗GPT 서비스 등 HMC(Human-Machine Communication)가 대인·조직·사회에 미치는 영향을 예견하면서, 커뮤니케이션 연구자들이 집중적으로 학습하고 탐색해야 할 연구과제와 방향을 제안해 보고자 한다.
이를 위해 이 연구는 우선 AI를 바라보는 관점의 전환을 제안하면서 연구문제를 제기하고자 한다. 엘레나 에스포지토(Elena Esposito)는 거대한 파고로 다가온 AI 시대를 다르게 바라본다. 그녀는 AI를 지적인(intelligent) 존재가 아닌, 커뮤니케이션 파트너로 볼 필요가 있음을 강조한다[15]. 즉 AI는 매우 객관적이고 독립적으로 존재하는 지적인 기계가 아니라, 인간의 커뮤니케이션 파트너로 역할을 할 수 있는 커뮤니케이션 능력이 독특한 존재라는 것이다. 원래 튜링 테스트(Turing Test)가 인간이 대화하는 상대가 기계라는 사실을 모르게 어느 정도 커뮤니케이션했는지로 평가했듯이[16], 독립적인 객체로 존재하는 컴퓨터 기계의 능력이 아니라, 인간과 상호작용할 수 있는 인위적인 커뮤니케이션(Artificial Communication) 능력이 핵심이라는 의미이다[15].
최근 등장하는 AI 기술의 수용과 활용에 접근하기 위해서는 먼저, 컴퓨터의 객체화된 지능에서 커뮤니케이션 관점(from intelligence to communication)으로 전환이 필요하다. 즉 인간과 별개의 독립적인 주체로서 컴퓨터 알고리즘이 존재하기보다는, 인간이 만들어낸 빅데이터를 가공하여 인간의 질문에 맞게 컴퓨터가 인간과 인위적인 커뮤니케이션을 하는 것이다[17]. 이러한 인위적인 커뮤니케이션 과정은 인간이 기존에 만들었던 빅데이터를 토대로 이루어지기 때문에, 사회적 편견과 차별의 맥락이 그대로 녹아 들어있음을 인정할 수밖에 없다[18]. 이러한 관점에서 보면, 우리 사회의 불공정한 단면을 그대로 노출할 수밖에 없는 인공적인 커뮤니케이션은 윤리적 관점에서 제재의 대상일 수밖에 없다는 논리를 제공한다.
따라서 AI 기술의 보편화 시대에서 우리가 주목해야 하는 것은 컴퓨터 기계의 지능 자체가 아니라, 인간과 커뮤니케이션 양상이 무엇이며, 우리에게 시사하는 바가 무엇인지, 어떠한 주제를 연구자들이 탐색해야 하는가에 대한 논의이다. 다시 말해, 인간과 AI의 상호작용을 커뮤니케이션의 한 유형으로 보면서 인간 중심적인 생각과 판단, 활용의 여지와 이용자 중심의 커뮤니케이션 연구주제를 식별할 필요가 있다. 따라서 이 연구는 챗GPT 등 AI 기술에 관한 이해와 더불어, 커뮤니케이션 연구자가 주목해야 할 주제를 탐색하는 연구문제를 아래와 같이 설정하였다.
[연구문제] 인간과 AI 커뮤니케이션에 대해 커뮤니케이션 연구자가 탐색해야 할 주제는 무엇인가?
Ⅱ. AI 이해와 선행 연구 동향
AI 알고리즘은 ANN(Artificial Neural Networks), CNN(Convolutional Neural Networks), RNN(Recurrent Neural Networks), GAN(Generative Adversarial Networks), Transformer, BERT(Bidirectional Encoder Representations from Transformers), GPT(Generative Pretrained Transformer) 등 다양한 형태로 발전해 왔다. 이를 간략히 살펴보면, 인공 신경망(ANN)은 뇌의 신경 세포인 뉴런을 모방한 모델이다. 입력층, 은닉층, 출력층으로 구성되며, 뉴런 간의 연결과 활성화 함수를 통해 정보 처리를 수행한다. 미디어 커뮤니케이션 연구에서는 이미지, 음성, 텍스트 등 다양한 형태의 미디어 데이터를 처리하는 데 활용한다[19].
GPT의 모체인 트랜스포머(Transformer)는 자연어 처리에서 기계 번역 등에 많이 사용되는 모델이다. 어텐션 메커니즘(self-attention mechanism)을 기반으로 문장의 단어 간 상관 관계를 파악하여 번역이나 요약과 같은 작업을 수행할 수 있다[20]. 인코딩 분야를 토대로 발전한 모형이 구글의 BERT이고, 디코딩 분야를 보강하여 발전한 알고리즘이 OpenAI의 GPT이다. 먼저 BERT는 언어 이해를 위해 사전에 훈련된 언어모형으로 양방향 Transformer를 사용하여 문장의 문맥을 파악하고 단어의 의미를 이해하기 때문에 자연어 이해, 질의응답, 문장 분류 등 다양한 자연어 처리 작업에 활용된다[21]. GPT는 생성적(generative) 언어모형으로서, Transformer 아키텍처를 기반으로 한다. 대규모 텍스트 데이터를 학습하여 텍스트 생성, 요약, 대화 등에 활용된다. 이러한 AI 알고리즘들은 미디어 커뮤니케이션 분야에서 다양한 작업과 응용이 이루어질 수 있으며, 이를 통해 인간과 AI 기계 간의 상호작용과 커뮤니케이션을 발전시킬 수 있다.
이러한 맥락에서 최근에 등장한 챗GPT 4.0을 중심으로 한 연구는 이제 막 태동 단계에 있다. 하지만 지능형 알고리즘을 기반으로 한 커뮤니케이션 연구는 이미 활성화한 상태이다. 예를 들면 방법론적 응용과 정교화 가능성[22], 또는 인간과 기계의 사회적 관계 형성 및 커뮤니케이션 가능성을 논하거나[23], AI 시대를 맞아 커뮤니케이션학의 현황을 경험적 전통의 커뮤니케이션 연구와 비판적 전통의 미디어 연구 영역에서 리뷰한 연구[11] 등을 찾아볼 수 있다. 특히 일부 선행 연구들은 AI 관련 커뮤니케이션 학계의 연구가 절대적으로 빈약한 상태에서 지능형 알고리즘을 방법론적으로 응용함으로써 미디어 연구의 선도적 역할을 했다[21],[22]. 또한 이재현[11]과 오세욱 등[23]의 연구들은 전통적인 커뮤니케이션 연구의 관점, 즉 [커뮤니케이터 = 인간]이라는 공식을 깨는 시각을 마련해 주었다. 다시 말해, 일부 지엽적이지만 [커뮤니케이터 = 기계]도 가능하다는 관점을 제시하고 있기에, 이 연구가 접근하려는 HMC 분야의 열린 탐색에 유용한 토대를 제공한다.
사실, 앞서 제시한 [커뮤니케이터 = 기계/인간] 관점의 변화는 군켈[24] 등이 제안한 인간-기계 커뮤니케이션 관련 연구에서 확인할 수 있다. 군켈은 2012년에 ‘Communication and artificial intelligence: Opportunities and challenges for the 21st century’이라는 논문을 발표하면서 AI의 등장으로 커뮤니케이션에 도전과 기회를 제시한다고 주장했다. 특히 AI 기반의 기계/시스템이 인간과 유사한 커뮤니케이션(human-like communication)을 수행함으로써 부상하는 다양한 과제들을 커뮤니케이션 학자들이 연구해야 한다고 주장했다. 이외에도 AI의 사회적 역할을 탐색한 연구[25], AI가 인간 커뮤니케이션에 미치는 영향을 AI 챗봇을 활용하여 실험적으로 검증한 연구[26], 인간화 속성을 가미한 AI 에이전트가 얼마나 소비자의 반응을 촉진하는지 탐색한 연구[27],[28], AI 관련 커뮤니케이션 연구의 도덕적, 윤리적 기준을 논한 연구[29] 등이 있다. 이들 국외 연구자들은 AI 기술의 등장으로 휴먼 커뮤니케이션의 양상과 사회 변화의 흐름을 한 목소리로 예견한다. 이는 챗GPT와 같은 대규모 언어모델의 등장으로 인한 HMC 연구의 기회와 도전을 강조하는 것이며, 특히 미디어와 커뮤니케이션 측면에서 사회변화에 미치는 영향을 이해하기 위한 지속적인 연구의 필요성을 제기하고 있다.
앞선 AI와 커뮤니케이션 관련 국내·외 연구 동향을 종합해 보면, 우리 사회에 챗GPT 등 AI 기반의 인간-AI 커뮤니케이션의 보편화는 불가역적이다. 또한, 인간-AI 커뮤니케이션과 사회변동에 대한 커뮤니케이션 학계의 적극적인 연구 동참을 요청한다. 인간의 지능을 모사하거나 유사한 수준의 커뮤니케이션 능력을 실제적 또는 잠재적으로 갖출 수 있는 AI 기술의 고도화만큼 인간은 기계와 소통하고 공존해야만 하는 시대로 진입하고 있기 때문이다.
관련한 HMC 분야의 기회와 도전 과제를 제시한 국외 연구자의 연구[24]와 AI가 어떻게 전통적인 미디어 효과나 문화 연구에 영향을 미치는지 조망한 국내 연구[11]가 있지만, 대부분의 국내·외 연구는 AI 등 지능형 알고리즘을 이용하는 인간의 경험적 반응과 산업적 효과성[28], 혹은 미디어 콘텐츠 분석에 응용 가능한 AI 알고리즘 소개 및 활용[30]에 초점을 맞추고 있다. 비록 AI 관련 연구의 태동 단계를 고려하더라도, 챗GPT 서비스 등 AI를 커뮤니케이션 연구 관점에서 재해석할 뿐만 아니라, 인간-AI 상호작용을 커뮤니케이션 이론이나 모형에 따라 연구방향과 주제를 제언하는 연구를 찾기란 쉽지 않다. 따라서 챗GPT 서비스 등 AI 기술과 이용 맥락을 CMC와 소셜 미디어 이용 관점, 특히 SMCRE 모형 체계에 대입하여 단계적으로 인간-AI 커뮤니케이션 연구의 방향과 과제를 제안하는 연구가 필요하다.
Ⅲ. 인간-AI 커뮤니케이션 연구주제 탐색
3-1 CMC와 소셜 미디어 관점
컴퓨터 매개 커뮤니케이션(CMC: Computer-Mediated Communication) 관련 선행 연구는 인간과 AI 커뮤니케이션 연구의 주제를 찾는데 유용한 프레임을 제공한다. CMC는 사실 웹 디지털 공간의 상호작용 증가, 1인 미디어, 소셜 미디어 등장과 궤를 같이해 왔다. 최근의 인공적인 지능을 가진 파트너와 인간이 커뮤니케이션한다는 관점[14]은 CMC 맥락과 유사한 면이 있다.
대표적으로 맥나이트(McKnight) 등의 연구자들[31]은 CMC 환경에서 이용자의 온라인 상호작용이 비개인적인 조직체에 대한 초기 신뢰 형성에 영향을 미치는 요인을 식별한 바 있다. 이들 연구자는 컴퓨터를 매개로 한 이용자들의 긍정적 경험이 기업과 같은 조직체에 대해 지각하는 초기 신뢰 형성에 긍정적인 영향을 미친다는 것을 발견했다. 이 연구는 CMC 환경의 상호작용과 신뢰 형성에 대한 이해를 높여주며, 컴퓨터를 매개로 한 온라인 상호작용이 비인간적 객체인 조직체와도 대인적 관계성을 형성할 수 있다는 관점을 제시한다.
이외에 웰먼(Wellman)과 굴리아(Gulia)는 ‘Networked Individualism’이라는 개념을 제시하며, 소셜 미디어 등장에 따라 인간관계와 커뮤니케이션 패턴이 과거 집단 중심적 관계에서 개인적이며 독립적인 다양한 관계 형성과 자원 공유의 네트워크로 변동했음을 보여준다[32]. 또한, ‘Cues Filtered Out, Cues Filtered In’ 연구도 CMC에서 비언어적인 단서가 인간과 대상자 간의 인식과 관계형성에 중요한 역할을 할 수 있음을 제시한다[33]. 즉 CMC 맥락에서 비언어적인 단서가 커뮤니케이션 효과에 중요한 역할을 하는 것은 이모티콘이나 풍부한 맥락적 단서나 신호가 대화의 의미를 해석하는 데 도움을 주고, 원활하고 지속적인 상호작용을 촉진한다는 것이다. 이러한 결과는 컴퓨터 매개 커뮤니케이션 분야에서 비언어적인 신호의 중요성을 강조하며, 이후의 연구와 실무 응용에 큰 영향을 미쳤다. 이는 다양한 AI 서비스가 인간 이용자에게 보내는 비언어적 신호나 단서의 의미를 되새기게 하는 대목이다.
정리하면, 먼저 CMC의 관점에서 온라인 커뮤니케이션이 무생물 객체인 회사나 특정 기업, 브랜드에 대한 신뢰를 높여줄 수 있고[31], 특정 단서에 의해 커뮤니케이션 대상자에 대한 감정적 관여[33], 그리고 개인화된 매체에 따른 독립적인 세상에 관한 인식과 인간 혹은 커뮤니케이션 파트너에 대한 관계성을 형성할 수 있다[32]. 이러한 관점에서 보면, 첫 번째로 챗GPT와 같은 AI 기술은 인간과 기계 간의 상호작용을 촉진하고 새로운 형태의 커뮤니케이션을 제공할 것이라고 유추할 수 있다. 즉 인간과 AI의 상호작용으로 인간과 AI 간의 새로운 신뢰적 관계가 나타날 수 있다[34],[35]. CMC 연구에서의 신뢰 형성과 마찬가지로, 인간과 AI 간의 상호작용에서도 신뢰의 역할이 중요해질 것이다. 두 번째는 인간-AI 간의 비언어적 신호를 주목할 필요가 있다. 일부 선행 연구에서 비언어적 신호가 CMC에서 중요한 역할을 한다는 것을 보여주었듯이[33], 인간과 AI 간의 커뮤니케이션에서도 비언어적인 신호가 중요할 것이다. 챗GPT 대화에서 실수를 지적받았을 때, “죄송합니다”라는 말을 하거나 가벼운 잡답이나 무의미한 질문에도 인간처럼 호응하는 맥락을 제공하고 있기 때문이다[36]. 이러한 비언어적 신호의 역할과 의미를 탐구함으로써 인간과 AI의 상호작용을 더욱 원활하게 촉진할 수 있다.
세 번째는 소셜 미디어에 따른 개인화 네트워크나 새로운 메타버스 공간의 사회자본 관련 선행 연구들이 밝혔듯이[37], 소셜 미디어와 네트워크 개념을 AI에 적용해 보면 사회 속의 개인의 존재적 위치, 그리고 지식정보 자원 공유와 생산 양상이 변화할 수 있음을 유추할 수 있다. 네트워크 관점에서 보면 인간은 고등한 지적 대행자인 AI와의 커뮤니케이션을 통해 보편적인 정보 공유와 문제 해결에 필요한 사회적 자본을 소유할 잠재적 가능성을 가질 수 있기 때문이다[38].
아울러 인간과 AI 간의 관계는 단순한 상호작용 이상의 네트워크로 이해해야 함을 알 수 있다. 인간과 AI의 상호작용은 매우 동적인 네트워크로 발전하며, 인간과 AI 간의 커뮤니케이션은 역동적인 파트너 인식, 접촉 채널의 다양화, 개인과 세상 혹은 지능을 가진 인간에 대한 인식 변화, 그에 따른 사회문화적 가치 변화 양상이 다양하게 나타날 것으로 보인다. 따라서 커뮤니케이션 연구자들은 인간과 AI의 관계 형성과 변화에 영향을 미치는 요인들을 세부적인 이론적 틀에서 체계적으로 파악하고, 이를 기반으로 더 효과적인 인간-AI 관계 형성 요인이 무엇인지 탐색할 필요가 있다. 과거 CMC, 소셜미디어, 실감 미디어 기술 기반의 커뮤니케이션이 가져다준 지리적 제약을 넘어선 개인의 독립성과 개방성, 사회적 자본형성의 확장성과 같이, 인간과 AI 간의 커뮤니케이션은 인간이 오프라인의 공간적 한계뿐만 아니라 지식 경계를 넘어서 개별 사안에 대한 심층적인 안목이나 혜안과 힘(자본)을 가질 수 있음을 시사한다.
3-2 챗GPT 기술 관점: 인간 의도 이해, 맥락적 대응, 지속성
챗GPT는 자연어 처리 기술과 기계 학습 알고리즘을 통해 인간이 말하는(또는 입력한) 바를 이해할 수 있는 능력을 갖추고 있다[36]. 인간의 의미를 이해하고 답변하며 상호작용할 수 있는 지속성의 강점을 가진다. 챗GPT가 인간의 의도를 이해한다는 것은 자연어 처리(Natural Language Processing, NLP) 기술을 토대를 두고 있기 때문이다. 대규모 언어모형(Large Language Model)으로서 챗GPT는 인간의 언어를 마치 대화하는 커뮤니케이션 파트너처럼 인간 이용자의 의도를 인코딩하고 디코딩할 수 있는 지능형 알고리즘을 활용한다. 구체적으로 챗GPT는 NLP 기반의 대규모 언어모형으로서 인간이 요청하는 메시지의 문장 구조, 단어의 의미, 문맥 등을 맥락적으로 이해하고 해석할 수 있다. 즉, NLP 기술 기반의 챗GPT는 문장의 문법적인 구조를 파악하고 문장 내 단어들의 관계를 파악할 수 있는 구문 분석(syntactic analysis), 단어의 사전적 의미뿐만 아니라 문맥과 관련된 의미를 파악하여 문장 전체의 의미를 이해할 수 있는 의미 분석(semantic analysis)을 통해 인간이 의도한 바를 해석할 수 있다. 이러한 능력을 갖추기 위해 챗GPT는 대규모 텍스트 데이터를 학습하여 단어의 사용 패턴, 문장 구조, 의미적 관계 등을 학습하여 인간의 메시지를 정확히 해석할 수 있다[20].
두 번째로 챗GPT의 맥락적 대응, 즉 출중한 답변 능력이다. 온라인 공간에 존재하는 다양한 웹 문서, 책 등 많은 양의 데이터를 사전 학습한 대규모 언어 모형이기 때문에[36], 챗GPT는 다양한 주제와 상황에 대한 이해와 대응 능력을 보여준다. 무수히 많은 온라인 데이터를 학습했기 때문에 챗GPT 알고리즘은 실제 인간 이용자와 소통하는 과정에서 발생하는 다양한 주제 특성과 맥락을 반영한 상호작용을 할 수 있다는 말이다. 즉 챗GPT는 일상 대화, 질문과 답변, 문제 해결 등 다양한 상황에서 사용자와 자연스럽게 대화하며 상호작용할 수 있다. 예를 들어 인간 이용자가 음식에 대한 추천을 요청하거나 여행 계획을 물어보면, 챗GPT는 해당 주제에 대한 이해와 관련 정보를 기반으로 사용자에게 적절한 응답을 제공할 수 있다. 물론 챗GPT는 웹 문서나 책과 같은 다양한 정보 출처를 요청하거나 엉뚱한 질문에도 그럴듯한 이야기를 지어내는 환각(hallucination) 현상이 나타나기도 하지만[8], 많은 경우 챗GPT는 학습한 지식을 활용하여 정확하고 유용한 답변을 제공할 수 있다. 이렇듯 인간이 다양한 질문을 던지고 다양한 주제를 토론하며, 챗GPT가 그에 대한 적절한 답변을 제공할 수 있다는 것은 인간이 커뮤니케이션하는 지적인 대상이 사람만이 아닐 수 있음을 시사한다.
세 번째, 인간과 챗GPT 대화의 지속성이다. 챗GPT가 인간의 의도를 파악하고 적절한 응답을 생성할 수 있다는 것은 단기적인 의사소통뿐만 아니라, 장기적인 상호작용을 가능하게 하는 기술적인 특성이 있다는 것이다[36]. 챗GPT는 트랜스포머(Transformer) 아키텍처를 토대로 인간이 질문하는 메시지(문장) 내의 단어 간의 관계를 동시에 고려하고[20], 입력 문장의 전체적인 의미를 파악하여 출력을 생성한다. 이를 통해 챗GPT는 문장 내의 문맥과 의도를 이해하고 상황에 맞는 응답을 생성할 뿐만 아니라 다양한 주제와 상황에 대한 이해와 대응 능력을 갖춤으로써, 인간과 AI가 단기적인 의사소통에만 국한되지 않고 장기적인 상호작용을 가능하게 한다. 이렇게 챗GPT가 인간과 대화의 맥락을 잃지 않고 지속적으로 이어나갈 수 있으며, 이를 통해 이용자와의 상호작용이 더욱 의미 있는 경험으로 이어질 수 있다.
인간과 AI 간의 상호작용 지속성은 다양한 커뮤니케이션 상황에 적용할 수 있다. 예를 들어, 챗GPT가 상품에 대한 정보를 제공하거나 문제를 해결하는 데 도움을 주는 경우, 사용자는 계속해서 새로운 질문이나 요청을 할 수 있으며, 챗GPT는 이를 이해하고 적절한 답변을 제공할 수 있다. 이러한 지속적인 상호작용은 이용자와 챗GPT 간의 관계를 강화하고, 서로에 대한 신뢰와 만족도를 높일 수 있거나, 혹은 부작용으로 AI와 과(過)의존관계도 나타날 수 있다. 따라서 이러한 관점에서, 챗GPT와 인간-AI 커뮤니케이션의 지속적인 특징과 이에 따른 영향을 탐구하고 연구하는 것은 커뮤니케이션 학자들에게 중요한 주제이다.
CMC, 소셜 미디어 관련 선행 연구와 함께, 챗GPT 기술을 중심으로 한 인간-AI 커뮤니케이션 관련 연구주제를 표 1과 같이 종합할 수 있다. 구체적으로 커뮤니케이션 연구자들은 챗GPT와 같은 인간-AI 상호작용에서 인간이 지각하는 대상자에 대한 인식을 탐색해야 한다. 이는 지능형 기계에 대한 인격화 양상을 입체적으로 조명해야 할 필요가 있다는 것이다. 두 번째, AI 커뮤니케이션의 맥락적 속성과 인간과 AI 간의 신뢰 관계 형성을 분석해야 한다. 특히, 챗GPT와 같은 AI와의 상호작용에서 맥락적인 특성과 신뢰 형성에 초점을 두어야 한다. 셋째, AI 커뮤니케이션의 비언어적 속성이 인간과 AI 간의 지속적인 이용 의도에 미치는 영향을 분석해야 한다. 챗GPT와 같은 AI와의 커뮤니케이션에서 언어 이외의 요소가 지속적인 이용 의도에 어떠한 영향을 미치는지 살펴야 한다. 넷째, 인간-AI 커뮤니케이션에 따른 지식정보의 공유와 생산의 역동성 및 사회적 가치 변화를 탐색해야 한다. 이는 인간과 AI 간의 커뮤니케이션에 따라 지식정보 공유와 생산의 변화와 사회적 가치 변화를 탐색하는 것이다.
3-3 SMCRE 모형 관점: 주체, 의미, 채널, 파트너, 효과
인간의 커뮤니케이션 과정을 대표적으로 보여줄 수 있는 틀은 SMCRE 모형이다[39]. 이 모형의 각 요소를 토대로 인간-AI 커뮤니케이션을 풀어보고 커뮤니케이션 연구자들이 살펴야 하는 주제를 조명해 보는 작업이 필요하다. 이를 위해 이 연구는 먼저 Source(발화자) 관점에서 인간의 관점과, 인간의 질문에 대답하는 화자로서 AI 측면 모두를 살펴야 함을 지적하고자 한다. 인간 관점에서는 AI 기술이 인간의 삶 대부분에 널리 이용되고 있지만, 우리 사회 구성원 대부분은 이러한 AI 시스템을 활용하는 데 있어 어려움이 있다[40]. AI 시스템이나 서비스 인터페이스의 복잡성과 같은 기술적 장벽[41]은 물론, 소외 계층의 어려운 AI 리소스 접근성 문제[42], AI에 관한 막연한 공포심[43], 그리고 사회적 약자에 대한 편견과 사회적 불평등을 악화하는 AI 기술의 어두운 면[44] 등의 문제가 고스란히 AI 이용자들에게 노출되어 있기 때문이다.
AI 커뮤니케이션 주체, 즉 발화자로서 인간 이용자에 관해 우리가 주목해야 하는 것은 컴퓨터 기계의 지능 자체가 아니라 인간과 커뮤니케이션을 얼마나 잘하는가, 인간은 또 AI와 커뮤니케이션을 얼마나 잘 할 수 있는가 등 AI 서비스 이용의 자기 효능감 변인 등이다[45]. 또한 인공적인 커뮤니케이션의 토대는 인간이 만들어냈던 불평등한 흔적의 빅데이터를 토대로 이루어지기 때문에, 오류가 있을 수 있음을 전제해야 한다. 이러한 관점에서 보면 컴퓨터 알고리즘이 항상 옳다는 가정이나 그럴 수도 있다는 가정에서 벗어날 수 있다[14]. 이렇듯 AI를 커뮤니케이션의 한 유형으로 보면, 인간 중심적인 생각과 판단, 활용의 여지와 이용자의 자기 효능감의 중요성을 강조해 준다.
한편, 지능형 알고리즘은 질문에 답변하는 주체, 즉 하나의 커뮤니케이터로 AI 역할을 주목해야 한다. AI는 발화자 역할을 맡은 커뮤니케이터로서 다양한 기능과 역할을 할 수 있으며, 이를 통해 인간과 커뮤니케이션을 이끌어 나갈 수 있기 때문이다[46]. 즉 AI는 특정 전문 분야에 대해 튜닝을 받게 되면 해당 분야의 전문 지식을 겸비한 발화자로서 해당 지식을 제공할 수 있기 때문이다. 예를 들어, 의료 분야에서 AI는 의료 정보나 진단 지원 등 전문적인 지식을 발화자로서 제공할 수 있다. 또한, AI는 자연어 처리 기술과 기계 학습 알고리즘을 활용하여 인간의 언어를 이해하고 적절한 응답을 생성할 수 있다[36]. 이렇듯 AI는 발화자로서 인간과 커뮤니케이션을 원활하게 하고 상호작용을 촉진할 수 있다.
특히 발화자로서 AI가 가지는 다양한 역할과 기능에 따라 인간 커뮤니케이션 특성이 달라질 수 있다. 예를 들어, AI가 상담자 임무를 수행하는 경우, 인간의 감정적인 요구에 얼마나 적절하게 대응하는지, 상담 세션에서의 상호작용이 어떻게 이루어지는지 등을 살피는 것은 커뮤니케이션 연구의 주제가 될 수 있다[47]. 즉 인간과 AI 간의 의사소통 유연성, 인간의 언어 이해와 AI 대응 맥락과 상호작용 등을 분석하여 인간과 AI 간의 상호작용 지속성과 관계적 효과를 촉진하는 방안을 연구할 수 있다. 이처럼 AI의 발화자 역할과 상호작용에 관한 연구는 인간과 AI 간의 커뮤니케이션 현상을 이해하고 향상하는 데 필요한 연구주제이다. AI 커뮤니케이션의 상호작용 지속성과 품질 제고를 위해 인간과 AI 간의 발화자 역할 교차와 인간의 커뮤니케이션 파트너에 대한 인식, 발화자로서 AI에 관한 인간의 신뢰성 지각, 발화자의 다양한 역할과 기능에 따른 커뮤니케이션 양상 변화 등을 연구하여 AI와 인간 간의 상호작용을 발전시킬 방안을 입체적으로 조명할 필요가 있다.
메시지(Message) 관점에서 보면, AI와 인간 간의 커뮤니케이션하는 맥락에서 상호 이해하는 의도, 메시지 구성 형식, 메시지 이해와 수용 기제를 분석할 필요가 있다. 먼저 AI가 생성하는 메시지의 불완전성은 선행 연구자들이 익히 지적하고 있다[8],[48]. AI는 이 세상의 불평등, 편견, 오류를 그대로 반영한 웹 문서 등을 수집하여 자연어 처리 기술로 학습했기 때문에, 세상의 문제를 그대로 반영하는 경우가 많다. 따라서 인간-AI 커뮤니케이션에서는 AI의 인간 입력 메시지 이해, AI가 생성한 답변 메시지의 구조, 문법, 단어의 선택 등을 분석하여 AI가 어떻게 이 세상의 정보를 생산하고 확산하는지를 살펴야 하며, 또 인간은 이를 어떻게 이해하고 있는지 휴먼 커뮤니케이션과 비교 분석할 수 있어야 한다. 아울러 전술한 대로, AI가 생성하는 메시지의 특징과 내용을 비판적으로 분석하여 어떠한 편향성이 존재하는지, 문맥에 따라 메시지의 해석이 어떻게 변화하는지 등을 살펴야 한다. AI는 인간이 만들어낸 데이터를 기반으로 학습하여 인간이 질문한 문제에 답을 하도록 학습했으므로[14], 인간 세계에서의 재현과정에서 나타날 수 있는 편향성, 특히 로봇기자 등이 생성하는 메시지의 사회적 해석은 중요한 연구주제이다.
채널(Channel) 관점에서 인간과 AI 간의 커뮤니케이션 채널 특성과 효과를 연구하는 것이 중요하다. 먼저, AI와 인간 간의 상호작용은 다양한 채널을 통해 이루어질 수 있다는 측면에서 보면(다양한 plug-in 등장 추세), 인간 이용자는 챗GPT와 음성으로 대화하거나, 가상의 공간에서 메타휴먼 모습을 한 에이전트와 소통할 수도 있을 것이다[46]. 이러한 AI 주체와 시청각 채널을 통해 이루어지는 커뮤니케이션 특성과 효과에 대해 살펴볼 필요가 있다. 각 채널은 특정한 장단점과 특성이 있기 때문에, 이용자와 AI 간 상호작용의 품질과 효과에 영향을 미칠 수 있다. 예를 들어, 텍스트 기반의 채널은 비언어적인 요소를 포함하지 않으며, 단순한 정보 전달에 더 적합할 수 있다. 반면에 음성 대화나 화상 통화와 같은 채널은 음성과 비언어적인 요소를 포함하여 감정 표현이나 상호작용의 동적인 면을 더욱 잘 전달할 수 있다. 이러한 채널 특성과 효과를 연구하여 어떤 채널이 어떤 상황이나 목적에 더 적합한지, 어떤 채널이 상호작용의 품질을 향상할 수 있는지 등을 탐구해야 한다.
수용자(Receiver) 관점에서 보면, 인간과 AI 간의 커뮤니케이션은 수신자의 역할과 반응을 살펴볼 필요가 있다. 즉 인간이 AI 커뮤니케이션에서 수신자로서 어떠한 역할과 반응을 보이는지 탐색해야 한다. 챗GPT가 생성한 메시지를 받아들이는 인간은 어떠한 수용 기제가 있는지, 즉 인간 수신자의 인지적인 처리 방식, 의사소통 스타일, 신뢰도, 만족도 등을 조사하여 AI와의 상호작용에서 수신자의 역할을 더욱 깊게 이해할 수 있어야 한다. 또한, AI 커뮤니케이션 수용자로서 인간 이용자가 챗GPT에 감정적 혹은 이성적으로 반응했을 때 나타나는 인간과 AI의 상호작용 맥락과 커뮤니케이션 변화 기제를 살펴야 한다. 인간 수신자의 반응은 AI 커뮤니케이션의 품질과 효과 또는 커뮤니케이션 방향에도 영향을 미칠 것으로 판단되기 때문이다.
아울러 인간 이용자의 AI 활용 능력이나 기술적 이해도, 만족도, 신뢰도 등은 AI와의 상호작용을 통해 형성되며, 이는 커뮤니케이션의 성공과 실패를 결정짓는 중요한 요소이다. 따라서 AI 커뮤니케이션의 인간 수용자 반응을 연구하여 어떠한 요소가 수용자의 인지, 감정, 태도에 영향을 미치는지, 어떠한 요소가 수용자의 의사 결정과 행동에 영향을 미치는지 등을 파악할 필요가 있다. 이러한 탐구를 통해 인간 수신자의 관점에서 인간-AI 커뮤니케이션을 개선하고, 상호작용의 품질과 효과를 높일 방안을 모색해야 한다.
효과(Effect) 관점에서 AI와 인간 간의 커뮤니케이션 연구주제를 살펴보면 다음과 같다. 먼저, 챗GPT 등 AI와의 커뮤니케이션이 인간의 인지, 태도, 행동 등에 어떠한 영향을 미치는지 살펴볼 수 있을 것이다. AI 기술의 등장과 인간-AI 커뮤니케이션의 영향은 개인뿐만 아니라 그룹, 조직체, 사회 수준 등에서 보편적으로 나타나고 있기 때문이다[4]. 개인적인 영향은 인간의 인식, 태도, 행동에 어떠한 변화를 가져오는지를 조사하고, 그룹 및 조직체 수준에서는 협업, 의사 결정, 문제 해결 등에 어떠한 영향을 미치는지를 분석할 수 있어야 한다. 또한, AI 커뮤니케이션 활성화가 사회 수준에서의 영향과 구조적 변동을 조망함으로써 인간-AI 커뮤니케이션의 효과를 다면적으로 이해하고 평가할 수 있어야 한다.
또한, 커뮤니케이션의 효과를 분석하는 과정에서 인간-AI 커뮤니케이션 맥락에서 이용자의 인구통계 변인의 역할은 무엇인지 함께 살펴볼 필요가 있다[45]. 인간과 AI 간의 상호작용을 통해 발생하는 효과가 인간의 특성, 환경, 상황 등과 어떠한 연관성을 갖는지를 탐색해야 한다는 의미다. 이를 통해 맥락적 배경 요인이 인간과 AI 간의 커뮤니케이션 효과에 미치는 영향을 파악해야 한다. 예를 들어, 인간의 성격 특성이나 커뮤니케이션 스타일이 AI 커뮤니케이션에 어떠한 영향을 미치는지, 또는 인간의 선호도나 피드백이 AI의 학습과 성능에 어떻게 영향을 미치는지 등을 살피면, 효과적인 인간-AI 커뮤니케이션을 위한 가이드라인과 설계 원칙을 제시하는 데에 도움을 줄 수 있기 때문이다. 전술한 내용을 종합하면, 표 2와 같이 SMCRE 모형의 요소별로 인간–AI 커뮤니케이션의 효과를 종합적으로 평가하고 분석하는 연구주제를 구분하여 제시할 수 있다.
Ⅳ. 논의 및 결론
이 연구는 챗GPT 기술 특성을 고려하여, 인간-AI 커뮤니케이션에 관련된 연구주제를 SMCRE 모형을 활용하여 탐색하였다. 먼저 챗GPT의 특성과 인간의 AI 상호작용 맥락에서 파악할 수 있는 영역으로는 <커뮤니케이션 주체와 파트너>, <AI와 인간 관계성>, <AI 커뮤니케이션 맥락성과 지속성>, <지식정보 생산과 확산> 양상의 변화를 확인할 수 있었다. 구체적으로 챗GPT 기술의 특성을 고려한 커뮤니케이션 연구는 커뮤니케이션 대상이나 파트너로서 AI 관점의 전환을 요청한다. 챗GPT 등 인간과 지능형 알고리즘의 상호작용은 CMC 상황에서 나타나는 비인간적인 조직체나 브랜드에 대한 호감 형성 작용, 혹은 마치 인간과 인간의 커뮤니케이션 맥락과 유사하게 인간 이용자와 챗GPT는 상호 독특한 주체성이나 인격화한 인식, 또는 커뮤니케이터로 교차적 역할 수행에 대한 자연스러운 수용 등이 나타날 수 있음을 살펴야 한다. 영화 ‘HER’처럼 인간과 AI가 사랑에 빠지는 것은 커뮤니케이션 상대에 대한 존재 인정에서 시작되기 때문이다.
두 번째는 챗GPT의 특성에서 알 수 있듯이, 인간과 AI 간에 형성될 수 있는 관계성이다. 인간과 반려동물 관계성이 인간에게 주는 생체심리학적 효능과 같이[49], AI와 인간의 상호작용이 가져다주는 관계성의 가치를 탐색할 필요가 있다. 물론 소셜 미디어에 지나친 의존으로 나타나는 폐해와 같이, AI에 과(過)의존적 상호작용이 개인과 집단, 사회 문화적으로 어떠한 영향을 미칠 것인지를 다면적으로 살펴야 한다. 세 번째는 인간-AI 커뮤니케이션 맥락성과 지속성의 기제가 무엇인지 살펴야 한다. 어떠한 속성이 사람들에게 인공적인 지능을 가진 알고리즘과 커뮤니케이션하는데 심리적인 불편함이나 거부감을 느끼게 하는지, 혹은 그렇지 않은 어떠한 요인에 의해 인간과 AI 커뮤니케이션이 지속할 수 있는지를 살펴볼 필요가 있다. 이는 AI 커뮤니케이션의 동기와 심리적 충족, 미디어 의존적 특성을 아우르는 연구 흐름을 반영한 것이다. 네 번째는 인간-AI 커뮤니케이션을 통해 발생하는 지식 공유와 생산의 역동성, 그리고 사회적 가치변화 탐구이다. 소셜 미디어가 집단적 문화를 인간의 개인화 네트워크 시대로 전환했다면, AI는 인간에게 어떠한 사회연결망의 구조를 가져다줄 것인지, 혹은 AI 커뮤니케이션이 기존의 인간 사회의 구조와 기능적 체계를 어떻게 변화시킬 것인지에 대한 천착이 필요함을 제시한다.
결론적으로 이 연구는 챗GPT 특성이 인간과 AI 간의 커뮤니케이션 맥락을 자연스럽게 부각한다는 논의를 바탕으로, 커뮤니케이션의 대표적인 이론적 틀인 SMCRE 모형에 따라 커뮤니케이션 연구주제를 탐색해 보았다. 이를 정리하면, 먼저 발화자인 AI의 특성과 역할에 주목할 필요가 있다. AI는 인간과의 커뮤니케이션에서 인위적이지만 지능형 에이전트 즉 발화자로서 역할수행을 하며, 인간의 질문에 답변하고 전문적인 지식과 정보를 제공한다. 이러한 과정은 인간과 AI가 서로 발화자와 청자로서 다이나믹한 역할을 교차 수행할 수 있다. 이는 휴먼 커뮤니케이션이나 CMC 맥락과 다른 커뮤니케이션의 특성을 나타낼 수 있기에, 이 지점을 주목해야 한다. 메시지 관점에서는 AI가 생성하는 메시지 형식, 의미 전달과 해석, 편향성 등을 분석해야 한다. AI가 생성하는 메시지의 불완전성과 편향성을 비판적으로 조명하고, 채널 관점에서는 사용되는 인간과 AI 간의 상호작용 채널 특성과 이에 따른 채널 효과 차이를 탐색해야 한다. AI와 인간 간의 커뮤니케이션은 텍스트, 청각, 메타버스 공간의 가상 휴먼 등 다양한 채널을 통해 이루어질 수 있으므로, AI 커뮤니케이션 채널이 인간과 AI의 상호작용 결과에 미치는 영향을 추적할 수 있어야 한다. 마지막으로 수용자와 효과 관점에서는 인간-AI 커뮤니케이션 메시지 수신자로서 가질 수 있는 결과에 대해 평가적 조사(evaluative research)를 진행해야 한다.
후속 연구는 이러한 주제와 문제의식을 토대로 실제 상황의 인간-AI 커뮤니케이션에 관한 실증적인 평가와 조사를 통해 구체적인 인사이트를 얻을 수 있을 것이다. 또한, 인간-AI 커뮤니케이션의 윤리적 측면과 문화적 차이 등에 관한 내용분석과 검증 연구도 뒤를 이을 수 있을 것이다. 종합적으로, 이러한 시도는 인간과 AI 간의 상호작용을 발전시키고 향상하기 위한 연구방향을 제시함으로써 이 분야의 후속 연구를 촉진하는 데에 기여할 것이다. 한편, 이 연구가 의욕적으로 제시한 인간-AI 커뮤니케이션 관련 연구주제를 탐색하는 데 몇 가지 주의가 필요하다. 첫째, 연구 대상이 챗GPT와 같은 특정한 AI 시스템에 한정되었으므로 다른 AI 시스템과 비교하고 다양한 환경을 적용할 필요가 있다. 둘째, 이 연구는 주로 이론적인 측면에 초점을 맞추었으므로 실제 상황의 인간-AI 커뮤니케이션에 대한 응용연구를 통해 더 실질적인 함의를 도출할 필요가 있다. 후속 연구는 더욱 다양한 AI 시스템과의 비교 연구가 필요하다는 의미이다. 아울러 AI 이용자의 심리적 수용 기제를 심층 인터뷰나 이용성 평가, 기술 수용의 자기효능감, 특히 AI 개발자 및 AI 콘텐츠 제작 현장에서의 윤리적 이용과 지침 설정 등 인간-AI 상호작용을 효과적으로 촉진하기 위한 가이드라인 개발 등도 후속 연구의 중요한 주제이다. 이 연구가 제시한 다양한 연구주제를 토대로 인간-AI 커뮤니케이션의 이해와 발전을 더욱 체계적으로 살필 수 있는 후속 연구가 추진되길 기대한다.
References
- J.-Y. Kim and S.-P. Jeon, Will the ChatGPT Revolution Survive My Profession as a Doctor [Internet]. Available: https://news.kmib.co.kr/article/view.asp?arcid=0924287225&code=11151100&cp=nv
- E. A. van Dis, J. Bollen, W. Zuidema, R. van Rooij, and C. L. Bockting, “ChatGPT: Five Priorities for Research,” Nature, Vol. 614, No. 7947, pp. 224-226, February 2023. [https://doi.org/10.1038/d41586-023-00288-7]
- M. Henderson, I. Vulić, D. Gerz, I. Casanueva, P. Budzianowski, S. Coope, G. Spithourakis, T.-H. Wen, N. Mrkšic, and P.-H. Su, “Training Neural Response Selection for Task-Oriented Dialogue Systems,” in Proceeding of the 57th Annual Meeting of the Association for Computational Linguistics, Florence: Italy, pp. 5392-5404, 2019. [https://doi.org/10.48550/arXiv.1906.01543]
- Z. Yu, J. Liu, Y. Li, and X. Zhang, “A Hybrid Intelligent System for Customer Service in Banking Industry,” Journal of Intelligent and Fuzzy Systems, Vol. 43, No. 1, pp. 431-443, 2022.
- G. Na, C. Choi, and D. Cho, How Far Can ChatGPT’s Abilities Go in Writing Novels and Providing Relationship Advice? [Internet]. Available: https://www.mk.co.kr/economy/view/2023/99897
- M. Liebrenz, R. Schleifer, A. Buadze, D. Bhugra, and A. Smith, “Generating Scholarly Content with ChatGPT: Ethical Challenges for Medical Publishing,” The Lancet Digital Health, Vol. 5, No. 3, pp. E105-E106, March 2023. [https://doi.org/10.1016/S2589-7500(23)00019-5]
- Y. Shen, L. Heacock, J. Elias, K. D. Hentel, B. Reig, G. Shih, and L. Moy, “ChatGPT and Other Large Language Models Are Double-Edged Swords,” Radiology, Vol. 307, No. 2, January 2023. [https://doi.org/10.1148/radiol.230163]
- Y. Xiao and W. Y. Wang, “On Hallucination and Predictive Uncertainty in Conditional Language Generation,” in Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics, pp. 2734-2744, 2021. [https://doi.org/10.18653/v1/2021.eacl-main.236]
- S. S. Sundar and E.-J. Lee, “Rethinking Communication in the Era of Artificial Intelligence,” Human Communication Research, Vol. 48, No. 3, pp. 379-385, June 2022. [https://doi.org/10.1093/hcr/hqac014]
- P. Wood and M. L. Kelly, ‘Everybody is Cheating’: Why This Teacher Has Adopted an Open ChatGPT Policy [Internet]. Available: https://www.npr.org/2023/01/26/1151499213/chatgpt-ai-education-cheating-classroom-wharton-school
- J.-H. Lee, “Artificial Intelligence and Media-Communication Studies,” Journal of Communication Research, Vol. 57, No. 3, pp. 5-40, 2020. [https://doi.org/10.22174/jcr.2020.57.3.5]
- Y. Cheng and H. Jiang, “How do AI-driven Chatbots Impact User Experience? Examining Gratifications, Perceived Privacy Risk, Satisfaction, Loyalty, and Continued Use,” Journal of Broadcasting & Electronic Media, Vol. 64, No. 4, pp. 592-614, October 2020. [https://doi.org/10.1080/08838151.2020.1834296]
- S. Y. B. Huang and C.-J. Lee, “Predicting Continuance Intention to Fintech Chatbot,” Computers in Human Behavior, Vol. 129, pp. 1-8, April 2022. [https://doi.org/10.1016/j.chb.2021.107027]
- W. Tabone and J. de Winter, “Using ChatGPT for Human–Computer Interaction Research: A Primer,” March 2023.
- E. Esposito, Artificial Communication: How Algorithms Produce Social Intelligence, MIT Press, 2022. [https://doi.org/10.7551/mitpress/14189.001.0001]
- R. M. French, “The Turing Test: the First 50 Years,” Trends in Cognitive Sciences, Vol. 4, No. 3, pp. 115-122, 2000. [https://doi.org/10.1016/S1364-6613(00)01453-4]
- J. Kaplan, Artificial Intelligence: What Everyone Needs to Know, Oxford University Press, 2016. [https://doi.org/10.1093/wentk/9780190602383.001.0001]
- B. D. Mittelstadt, P. Allo, M. Taddeo, S. Wachter, and L. Floridi, “The Ethics of Algorithms: Mapping the Debate,” Big Data & Society, Vol. 3, No. 2, December 2016. [https://doi.org/10.1177/2053951716679679]
- J.-H. Kim and N. Park, Introduction to Artificial Intelligence (AI) for Non-majors, Hongneung Publishing, 2022.
- A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. N. Gomez, L. Kaiser, and I. Polosukhin, “Attention is All You Need,” in Proceeding of the 31st Conference on Neural Information Processing Systems, Long Beach, CA, Vol. 30, pp. 5998-6008, 2017. [https://doi.org/10.48550/arXiv.1706.03762]
- J.-H. Lee, “Differences in the Use of North Korean Experts by Conservative and Progressive Media: Focusing on KPF-BERT-based Deep-Learning Analysis of Expert Quotes,” Korean Journal of Journalism & Communication Studies, Vol. 66, No. 6, pp. 154-194, 2022. [https://doi.org/10.20879/kjjcs.2022.66.6.005]
- Y. Jung and H. Y. Yoon, “Sexuality over Performance: An Visual Analysis on Female Golfer Highlights through Deep Learning Object Detection Method for Detecting Subtle Differences between Female Players,” Communication Theories, Vol. 18, No. 1, pp. 5-58, 2022. [https://doi.org/10.20879/ct.2022.18.1.005]
- S.-U. Oh, S.-E. Lee, and S. Choi, “Can Machines and Humans Communicate?: Issues in Machine Learning,” Information Society & Media, Vol. 18, No. 3, pp. 63-96, December 2017.
- D. J. Gunkel, “Communication and Artificial Intelligence: Opportunities and Challenges for the 21st Century,” Communication +1, Vol. 1, No. 1, pp. 1-25, 2012. [https://doi.org/10.7275/R5QJ7F7R]
- L. Floridi and J. Cowls, “A Unified Framework of Five Principles for AI in Society,” Harvard Data Science Review, Vol. 1, No. 1, pp. 1-14, 2019. [https://doi.org/10.1162/99608f92.8cd550d1]
- S. V. Jin and S. Youn, “Social Presence and Imagery Processing as Predictors of Chatbot Continuance Intention in Human-AI-Interaction,” International Journal of Human–Computer Interaction, Vol. 39, No. 9, pp. 1874-1886, 2023. [https://doi.org/10.1080/10447318.2022.2129277]
- K. Kim, J. Oh, K. Kim, and Y. Kim, “Affective Conversational Agent with User's Personality,” IEEE Access, 2022.
- J. Kim, S. Kang, and J. Bae, “Human Likeness and Attachment Effect on the Perceived Interactivity of AI Speakers,” Journal of Business Research, Vol. 144, pp. 797-804, May 2022. [https://doi.org/10.1016/j.jbusres.2022.02.047]
- L. Pana, “Artificial Intelligence and Moral Intelligence,” tripleC: Communication, Capitalism & Critique. Open Access Journal for a Global Sustainable Information Society, Vol. 4, No. 2, pp. 254-264, 2006. [https://doi.org/10.31269/triplec.v4i2.43]
- D. Park, “A Study on the Applicability of Media Videos of Deep Learning Models Related to Computer Vision,” Communication Theories, Vol. 18, No. 1, pp. 111-154, 2022. [https://doi.org/10.20879/ct.2022.18.1.111]
- D. H. McKnight, L. L. Cummings, and N. L. Chervany, “Initial Trust Formation in New Organizational Relationships,” The Academy of Management Review, Vol. 23, No. 3, pp. 473-490, July 1998. [https://doi.org/10.2307/259290]
- B. Wellman and M. Gulia, Virtual Communities as Communities: Net-Surfers don’t Ride Alone, in Communities in Cyberspace, Milton Park, Oxfordshire: Routledge, pp. 167-194, 1999.
- J. B. Walther and M. R. Parks, Cues Filtered Out, Cues Filtered In: Computer-Mediated Communication and Relationships, in Handbook of Interpersonal Communication, 3rd ed. Thousand Oaks, CA: Sage, pp. 529-563, 2002.
- A. Purington, J. G. Taft, S. Sannon, N. Bazarova, and S. H. Taylor, “Alexa Is My New BFF”: Social Roles, User Satisfaction, and Personification of the Amazon Echo,” in Proceedings of the 2017 CHI Conference Extended Abstracts on Human Factors in Computing Systems, Denver: CO, 2017. [https://doi.org/10.1145/3027063.3053246]
- C.-W. Ki, E. Cho, and J.-E. Lee, “Can an Intelligent Personal Assistant (IPA) Be Your Friend? Para-Friendship Development Mechanism Between IPAs and Their Users,” Computers in Human Behavior, Vol. 111, October 2020. [https://doi.org/10.1016/j.chb.2020.106412]
- S. Shahriar and K. Hayawi, “Let’s Have a Chat! A Conversation with ChatGPT: Technology, Applications, and Limitations,” Artificial Intelligence and Applications, pp. 1-16, June 2023. [https://doi.org/10.47852/bonviewAIA3202939]
- N. Park, JY. Jeong, and D. Hong, “Metaverse Use and Social Capital Formation: Focusing on the Mediating Effect of Social Presence, Social Interaction for Social Support, and Sense of Community,” Korean Journal of Broadcasting Studies, Vol. 36, No. 5, pp. 83-121, 2022. [https://doi.org/10.22876/kab.2022.36.5.003]
- P. Zhou, “Unleashing Chatgpt on the Metaverse: Savior or Destroyer?,” arXiv Preprint arXiv:2303.13856, , 2023. [https://doi.org/10.48550/arXiv.2303.13856]
- U. Narula, Communication Models, London: Atlantic Publishers & Dist, 2006.
- M. D. Choudhury, M. K. Lee, H. Zhu, and D. A. Shamma, “Introduction to This Special Issue on Unifying Human Computer Interaction and Artificial Intelligence,” Human–Computer Interaction, Vol. 35, No. 5-6, pp. 355-361, 2020. [https://doi.org/10.1080/07370024.2020.1744146]
- T. Fountaine, B. McCarthy, and T. Saleh, “Building the AI-Powered Organization,” Harvard Business Review, Vol. 97, No. 4, pp. 62-73, 2019.
- A. Howard and J. Borenstein, “The Ugly Truth About Ourselves and Our Robot Creations: The Problem of Bias and Social Inequity,” Science and Engineering Ethics, Vol. 24, No. 5, pp. 1521-1536, October 2018. [https://doi.org/10.1007/s11948-017-9975-2]
- A. Renz and G. Vladova, “Reinvigorating the Discourse on Human-Centered Artificial Intelligence in Educational Technologies,” Technology Innovation Management Review, Vol. 11, No. 5, pp. 5-16, May 2021. [https://doi.org/10.22215/timreview/1438]
- S. Cave and K. Dihal, “The Whiteness of AI,” Philosophy & Technology, Vol. 33, No. 4, pp. 685-703, August 2020. [https://doi.org/10.1007/s13347-020-00415-6]
- J.-W. Hong, “I Was Born to Love AI: The Influence of Social Status on AI Self-Efficacy and Intentions to Use AI,” International Journal of Communication, Vol. 16, pp. 172-191, 2022.
- W. Xu, M. J. Dainoff, L. Ge, and Z. Gao, “From Human-Computer Interaction to Human-AI Interaction: New Challenges and Opportunities for Enabling Human-Centered AI,” arXiv:2105.05424, , 2021. [https://doi.org/10.48550/arXiv.2105.05424]
- A. Fiske, P. Henningsen, and A. Buyx, “Your Robot Therapist will See You Now: Ethical Implications of Embodied Artificial Intelligence in Psychiatry, Psychology, and Psychotherapy,” Journal of Medical Internet Research, Vol. 21, No. 5, pp. 1-12, 2019. [https://doi.org/10.2196/13216]
- B. Rakova, J. Yang, H. Cramer, and R. Chowdhury, “Where Responsible AI Meets Reality: Practitioner Perspectives on Enablers for Shifting Organizational Practices,” Proceedings of the ACM on Human-Computer Interaction, Vol. 5, No. CSCW1, pp. 1-23, April 2021. [https://doi.org/10.1145/3449081]
- L. Handlin, A. Nilsson, M. Ejdebäck, E. Hydbring-Sandberg, and K. Uvnäs-Moberg, “Associations between the Psychological Characteristics of the Human–Dog Relationship and Oxytocin and Cortisol Levels,” Anthrozoös, Vol. 25, No. 2, pp. 215-228, 2012. [https://doi.org/10.2752/175303712X13316289505468]
저자소개
2007년:Syracuse University (PR학 석사)
2011년:University of Missouri (저널리즘 박사-PR전공)
2011년~현 재: 홍익대학교 광고홍보학부 부교수
※관심분야:PR/위기/공공 커뮤니케이션, 뉴미디어 등
2003년:연세대학교 대학원 (언론학 석사)
2009년:연세대학교 대학원 (언론학 박사)
2013년~현 재: 차의과학대학교 헬스케어융합학부 부교수
※관심분야:AI/전략/헬스 커뮤니케이션 등