Korea Digital Contents Society

Journal Archive

Journal of Digital Contents Society - Vol. 24 , No. 10

[ Article ]
Journal of Digital Contents Society - Vol. 24, No. 10, pp. 2569-2577
Abbreviation: J. DCS
ISSN: 1598-2009 (Print) 2287-738X (Online)
Print publication date 31 Oct 2023
Received 31 Aug 2023 Revised 15 Sep 2023 Accepted 05 Oct 2023
DOI: https://doi.org/10.9728/dcs.2023.24.10.2569

축사 현장에서의 조기 질병 감지를 위한 CNN 기반 돼지 기침 오디오 센싱 시스템
이동규1 ; 이봉국2, * ; 김유진3 ; 정재영3 ; 은지숙3 ; 김대회4
1한국전자통신연구원 농축수산지능화연구센터 박사후연구원
2한국전자통신연구원 농축수산지능화연구센터 책임연구원
3한국전자통신연구원 농축수산지능화연구센터 책임연구원
4한국전자통신연구원 시각지능화연구실 선임연구원

CNN-Based Swine Cough Audio Sensing System for Early Disease Detection in Barns
Dong Kyu Lee1 ; Bong Kuk Lee2, * ; You-Jin Kim3 ; Jae-Young Jung3 ; Jee-Sook Eun3 ; Dae Hoe Kim4
1Postdoctoral Researcher, Agriculture, Animal & Aquaculture Intelligence Research Center, Electronic and Telecommunications Research Institute, Daejeon 34129, Korea
2Principal Researcher, Agriculture, Animal & Aquaculture Intelligence Research Center, Electronic and Telecommunications Research Institute, Daejeon 34129, Korea
3Principal Researcher, Agriculture, Animal & Aquaculture Intelligence Research Center, Electronic and Telecommunications Research Institute, Daejeon 34129, Korea
4Senior Researcher, Artificial Intelligence Research Laboratory, Electronic and Telecommunications Research Institute, Daejeon 34129, Korea
Correspondence to : *Bong Kuk Lee E-mail: bklee32@etri.re.kr


Copyright ⓒ 2023 The Digital Contents Society
This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-CommercialLicense(http://creativecommons.org/licenses/by-nc/3.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.
Funding Information ▼

초록

돼지의 호흡기질환은 돼지 농장에서 심각한 경제적 및 건강 문제를 일으킬 수 있다. 본 연구에서는 돼지의 기침을 감지하여 돼지 질병을 조기에 발견하고, 진단하는 자동 감지 시스템을 개발하였다. 실시간 오디오 센서를 사용하여 돼지농장에서 발생하는 소리를 수집하고, 수집된 소리들 중 돼지 기침소리를 감지하기 위해 기계학습 기술과 패턴 인식 알고리즘을 적용하여 돼지 기침과 비기침 소리를 구별할 수 있는 분류 모델을 구축하였다. 실험 결과, 우리의 시스템은 95퍼센트 이상의 정확도로 돼지 기침을 신속하고 정확하게 감지할 수 있음을 보여주었다. 이 자동 감지 시스템은 돼지 농장에서 예방적 조치와 조기 치료를 통해 질병 전파를 제어하는 데 중요한 역할을 할 수 있다. 또한, 실시간 모니터링 및 데이터 분석을 통해 돼지 건강 상태를 향상시키는 데 도움이 될 것으로 기대된다. 이 연구는 돼지 산업에서 질병 관리 및 돼지의 복지 향상을 위한 새로운 접근 방식을 제공할 수 있으며, 자동화된 돼지 질병 감지 시스템의 실용성과 유용성을 입증한다.

Abstract

Respiratory diseases in pigs can cause serious economic and health issues in pig farms. In this study, we develop an automated detection system for the early detection of pig diseases by detecting pig coughs. We collect the sounds generated in pig farms using real-time audio sensors and build a classification model using machine-learning techniques and pattern-recognition algorithms to distinguish between coughing and non-coughing sounds produced by pigs. The results of our experiments show that our system can detect pig coughs quickly and accurately with over 95% accuracy. This automated detection system can play a crucial role in controlling disease transmission in pig farms by facilitating the implementation of preventive measures and early treatment. Furthermore, it is expected to improve pig health through real-time monitoring and data analysis. This research provides a new approach to disease management and welfare enhancement in the pig industry and demonstrates the practicality and usefulness of an automated pig-disease detection system.


Keywords: Pig Repository Disease, Automated Detection System, Pig Cough, Real-Time Audio Sensor, Preventive Measure
키워드: 돼지 호흡기질환, 자동 감지 시스템, 돼지 기침, 실시간 오디오 센서, 예방적 조치

Ⅰ. 서 론
1-1 연구의 필요성

지난 10년간 한국인의 식습관에는 급격한 변화가 있었다. 2011년 당시 한국인 한 사람이 1년간 소비한 쌀의 양이 75.4 kg, 1인당 육류소비량이 40.4 kg으로, 육류에 비해 쌀을 많이 소비하였으나, 10년이 지난 2021년, 한국인 한 사람이 1년간 섭취한 육류의 양은 56.1 kg로 증가하였고, 같은 해 1인당 쌀 소비량은 56.7 kg으로 줄어든 것으로 보고되었다. 해당 통계를 통해 한국인의 식단에서 육류가 차지하는 비율이 비약적으로 늘어났음을 확인할 수 있다. 이러한 경향은 앞으로도 계속 될 것으로 추측되는데, 미국인 1인의 연간 육류 소비량은 약 99.3 kg으로[1], 한국인의 육류 소비량에 비해 두 배 가량 많은 것으로 확인되어, 한국인의 식단에서 육류의 소비량 또한 계속 증가할 것으로 전망된다. 특히 한국의 경우 육류 소비량 중 49.8%가 돼지고기이다. 따라서, 한국의 시장에서 요구하는 돼지고기의 공급량이 지속적으로 증가할 것으로 전망되며, 이에 따라 돈사의 관리 및 개별 돼지의 관리 또한 중요한 이슈로 떠오르고 있다. 국내에서 사육되는 돼지의 폐사율은 기관에 따라 조금의 차이가 있었지만, 20% 안팎으로 보고되었고, 농림축산검역본부의 보고에 따르면, 돼지 호흡기 질환인 돼지생식기호흡기증후군(PRRS)와 이유후전신소모성증후군(PMWS)로 인한 폐사율은 11.4%로, 돼지 폐사 요인 중 절반 이상이 호흡기 질환으로 인한 것으로 확인된다. 이로 인한 손실을 금액으로 환산할 경우, 연간 4,000억원 가량의 경제적 손실이 발생함을 알 수 있다.

기존의 돼지 질병 감지 방법은 주로 돼지의 체온, 행동 패턴, 신체 상태 등을 모니터링하는 것이었다[2],[3]. 그러나 이러한 방법은 질병 초기 단계에서의 감지가 어렵고, 대규모 사육장에서의 실시간 모니터링에 한계가 있었다. 최근에는 인공지능 및 신호 처리 기술의 발전으로 인해, 새로운 접근 방법이 제시되고 있다[4],[5].

본 연구에서는 돼지의 기침소리를 이용하여 질병을 조기 감지하는 시스템을 개발하였다. 돼지의 기침은 건강 상태와 관련된 중요한 정보를 제공할 수 있는 음향 신호이다. 이러한 음향 신호를 분석하여 돼지의 건강 상태를 판단하고, 이상 징후를 조기에 탐지하는 것이 본 연구의 목표이다.

이를 위해 Convolutional Neural Network (CNN) 모델을 도입하여 음성 스펙트로그램 패턴을 학습하고 이를 네 가지로 분류하였다. CNN은 그 특성상 이미지 처리 분야에서 우수한 성과를 보이며, 음성 신호에 대한 특징 추출 및 분류에도 효과적으로 활용될 수 있다[6].

1-2 선행연구 사례

음성 분류 알고리즘은 음성 신호를 분석하여, 특징을 추출, 음성 데이터를 다양한 카테고리 또는 클래스로 분류하는 과정이다.

특히, CNN을 활용한 분류 알고리즘은, 주로 이미지 처리에 사용되는 신경망 구조로 시작되었지만, 그 뛰어난 특성들 덕분에 음성 데이터 분류와 같은 다른 영역으로 확장되어 적용되고 있다. CNN은 시간에 따른 진동주파수 변화정보를 캡처하는 데 탁월하며, 그 결과 음성 데이터의 복잡한 패턴 및 의미를 추출하는 데 우수한 성능을 보인다.

2015년 KJ Piczak의 연구그룹은[7] 단순한 신경망 아키텍처를 사용하여 환경 소음을 분류하는 방법을 제시하였다. 해당 연구에서는 스펙트로그램을 기반으로한 심층 모델을 훈련하여 환경 및 도시 녹음에 대한 분류 정확도를 높였다. 환경 소음 분류에 대한 연구에서, 데이터 부족 문제를 극복하기 위해 2017년 J Salamon, JP Bello의 연구 그룹에서[8] 오디오 데이터 증강을 활용한 연구를 진행했다. 데이터 증강과 딥 컨볼루션 신경망을 결합한 이 연구에서는 환경 소음 분류에서 우수한 결과를 달성하였다. 2018년 K Jaiswal와 DK Patel의 그룹에서는[9] 딥 러닝 네트워크를 활용하여 소리 분류의 성능을 향상시켰으며, 도시 환경에서의 이상 소리 감지 및 돼지의 건강 모니터링에 활용될 것으로 제안하였다. 2019년 Nhu Gia Nguyen의 그룹과, Prayag Tiwari의 그룹에서[10] 환경 소음의 분류에 딥 러닝 네트워크를 활용하였다. 그러나 실제 농장 환경에서 돼지 기침 소리를 정확하게 감지하는 데는 어려움이 있었다.

2018년 E Şaşmaz, FB Tek의 연구진은[11] 동물 소리 분류에 딥 러닝을 적용하여 10가지 다른 동물 유형에 대한 분류 모델을 개발하였다. 이러한 연구 결과는 음성 기반 분류 모델이 다양한 동물 소리에 적용될 수 있음을 시사한다. 2018년 K Ko, S Park, H Ko의 연구에서는[12] 동물 소리 분류를 개선하기 위해, 여러 개의 컨볼루션 신경망을 사용하여 중간 수준의 특성을 생성하고 SVM 분류자와 결합하는 방법을 개발하여 분류 정확도를 향상시켰다. 2020년 Carlos N. Silla Jr. 그룹의 연구에서는[13] 여러개의 학습된 컨볼루션 신경망을 결합하여 동물 음성 분류의 성능을 향상시키는 방법을 제안하였다.

2022년 Jun Li의 그룹에서는[14] CNN과 Transformer를 결합한 모델을 사용하여 돼지 소리를 분류하는 방법을 제안하였다. 제안된 방법은 돼지의 건강 상태 및 이상 행동 감지에 활용이 가능하다는 점을 시사했다. 2023년 Nan Ji의 그룹과, Weizheng Shen의 그룹에서는[15] 돼지 기침 소리 인식 정확도를 향상시키기 위한 두 가지 퓨전 전략, 특성 합성 및 분류자 합성에 대한 연구를 진행했다. 이러한 퓨전 전략은 돼지 기침 소리 인식의 정확성을 크게 향상시킬 수 있음을 입증하였다.

본 연구에서는 돼지의 호흡기질환을 기침을 통해 조기감지 하는 시스템을 개발하기 위해, CNN 기반의 돼지 기침 분류 모델을 개발하고, 호흡기 질환 바이러스를 공격접종한 돼지에 대해, 기침 발생 빈도 변화를 측정하는 실험을 진행하고, 실제 축사 내에 모델을 적용하여, 축사의 형태에 따른 일간 기침 수 차이를 확인하였다. 본 연구는 기침소리 분류 모델의 현장 적용 가능성을 강조한다. 앞서 소개한 일련의 과정들을 통해 해당 연구 결과가 현장에서의 응용 가능성이 매우 높음을 제시한다.


Ⅱ. 제안하는 기법
2-1 데이터 수집

실험에 사용된 돼지 소리 데이터는 다양한 건강 상태의 돼지들로부터 수집되었다. 각각 다른 조건의 총 세 군데 대규모 사육장을 1년간 24시간 모니터링 하여 돈방 내 영상과 함께 수집하였고, 부족한 기침 소리 데이터를 추가로 수집하기 위해, 소규모 실험 농장에서 공격 접종을 실시한 후 발생한 기침 소리를 수집하였다.

2-2 데이터 전처리
1) 음성 분류

수집된 돼지 소리 데이터를 정상, 비명, 재채기, 기침 네 가지의 카테고리로 분류하였다. 음성 분류시 오류를 방지하기 위해 영상데이터와의 비교를 통하여 분류를 진행하였다. 정상소리의 경우, 돼지의 울음소리, 발자국소리, 바닥을 긁는소리, 농장 내 물 뿌리는 소리 등의 소리들을 포함하였다. 비명소리는 돼지 예방접종 또는 돈방 이동 시에 자주 발생하는 소리로, 5초 이상 지속되며, 날카롭고 높은 파장대에서의 길고 지속적인 소리가 관측된다. 재채기 소리와 기침 소리는 크게 주파수 구성, 지속 시간, 강도의 세 가지 측면에서 차이를 보인다.

1) 주파수 구성: 재채기소리는 비교적 낮은 주파수 구성을 가진다. 이는 재채기 소리가 콧구멍을 통해 나오는 공기의 흐름으로 인한 소리이기에, 소리의 구성에 성대의 관여가 적고, 따라서 주로 낮은 주파수 구성을 갖는다. 기침소리는 상대적으로 넓은 주파수 범위를 가진다. 기침은 폐로부터 공기를 강하게 내쏘아 무엇인가를 몸에서 내보내기 위한 과정이므로, 그 과정에서 성대가 크게 관여하게 되고, 따라서 높은 주파수 범위를 포함하는 다양한 주파수 성분이 혼합된다[16].

2)지속 시간: 재채기소리는 일반적으로 짧은 지속 시간을 가진다. 갑자기 발생한 콧구멍의 자극에 의해 발생하며 길게 지속되지 않고, 1회 혹은 2회의 짧은 소리가 관측된다. 반면에 기침소리는 재채기소리보다 상대적으로 긴 지속 시간을 갖는다. 기침은 체내의 이상 물질을 제거하기 위한 목적으로 나오는 소리이므로, 더 긴 지속 시간동안 적게는 2~3회, 많게는 5회 이상 반복되는 패턴을 가진다. 호흡기 질환에 걸려 지속적으로 기침을 하는 경우, 중추성 혹은 말초성 감작에 의해 기침을 유발하는 자극에 대한 역치가 낮아졌기 때문에, 기침을 하며 발생되는 호흡기 자극으로 다시 기침을 하게 되어, 5회 이상 기침을 하는 경우가 많으며, 이 때 초기 1~2회의 기침 소리보다 뒤의 기침소리가 더 크다는 특징을 갖는다.

3) 강도: 재채기소리는 일반적으로 상대적으로 낮은 음량을 가진다. 콧구멍을 통해 발생하는 소리이기 때문에 상대적으로 강도가 낮다. 반면 기침소리는 재채기소리보다 더 높은 음량을 가진다. 기침은 강한 공기 흐름을 동반하므로 강도가 상대적으로 높다.

2) 음성 길이 규격화

데이터 학습을 위해 정상, 비명, 재채기, 기침 네 가지의 카테고리로 분류된 음성파일을 1초 단위로 잘라 학습용 데이터로 규격화 하였다.

3) 스펙트로그램 변환

음성 데이터를 모델이 이해할 수 있는 형태로 변환하기 위해 스펙트로그램으로 변환하는 과정을 수행하였다(그림1). 각 세그먼트는 1/6초 간격의 가로축과 최대 주파수가 16kHz인 세로축으로 나타내어진 스펙트로그램으로 변환하였다. 이 때 스펙트로그램의 특성을 강조하고 학습에 유용한 형태로 변환하기 위해 logMel 함수를 적용하였다. 이 함수는 음성 신호의 주파수 영역을 로그 스케일로 변환하며, 음성의 중요한 주파수 대역을 강조한다. 이로써 스펙트로그램의 정보를 더 강조하고, 모델이 음성 데이터의 특징을 더욱 효과적으로 학습할 수 있도록 하였다.


Fig. 1. 
Pig voice spectrogram

2-3 모델 개발

기침소리 데이터의 음성 스펙트로그램 패턴을 학습하고 분류하기 위해 CNN 모델을 사용하였다.

1) 개발 환경

실험은 파이썬 프로그래밍 언어를 활용하여 수행되었다. 코드는 TensorFlow와 Keras 프레임워크를 기반으로 작성되었다. 실험은 NVIDIA GPU (GEFORCE RTX 2080 SUPER) 를 이용하여 학습을 진행하였다.

2) 모델 아키텍처 및 학습

실험에서는 CNN 모델을 사용하였다. 음성형태의 데이터를 CNN 학습에 유리한 이미지 데이터로 변환하기 위해, LogMel 함수를 이용하여, 스펙트로그램으로 변환하였다. 이러한 CNN 모델은 음성 데이터의 시간 및 주파수 특성을 효과적으로 추출할 수 있는 구조를 가지고 있다. 각 모델은 여러 개의 합성곱(Convolution) 레이어와 풀링(Pooling) 레이어를 포함하며, 배치 정규화(Batch Normalization) 기법을 통해 학습 안정성을 높였다.

해당 연구에서는 Keras를 이용하여 신경망을 정의하고, 이 신경망의 각 레이어에 배치 정규화 레이어를 추가하여 입력 데이터의 배치를 정규화하였다.

학습은 데이터를 배치 단위로 모델에 입력하여 수행되었으며, 손실 함수로는 categorical cross-entropy를 사용하여 모델이 다양한 카테고리의 음성 데이터를 분류하도록 하였습니다. 또한, 학습 중간에는 검증 데이터를 활용하여 모델의 성능을 평가하고, 학습률을 동적으로 조절하는 방법을 사용하여 최적의 학습 성능을 달성하였다.

3) 모델 구조

SimpleLogMel_CNN 모델은 직관적인 합성곱 신경망 구조를 따른다. 아래는 구조에 대한 자세한 내용이다:

3-1) 입력 레이어

네트워크는 (128 x 32 x 1) 형태의 입력을 받는다.

3-2) 합성곱 및 풀링 레이어

첫 번째 합성곱 레이어: 16개의 필터와 크기가 2x2인 커널을 사용하여 'relu' 활성화 함수와 함께 합성곱을 수행한다.

두 번째 합성곱 레이어: 16개의 필터와 크기가 2x2인 커널로 'relu' 활성화 함수와 함께 합성곱을 수행한다.

최대 풀링 레이어: 크기가 2x2인 풀링 영역을 사용하여 특징을 축소한다.

배치 정규화 레이어: 이러한 과정이 총 4번 반복되며, 각 단계에서 필터의 수가 두 배로 증가한다(16, 32, 64, 128).

3-3) 글로벌 평균 풀링 레이어

특징의 전역 평균을 계산하여 모델의 출력 크기를 줄인다.

3-4) 완전 연결 레이어

활성화 함수로 'softmax'를 사용하여 출력 값을 분류한다.

3-5) 컴파일

모델은 'categorical crossentropy' 손실 함수, 'binary accuracy' 지표, 및 'adam' 최적화기를 이용, 컴파일된다.

4) 최적합 분류조건 선정

CNN 학습 최적합 분류조건을 다음과 같이 선정하였다.

마지막 에포크 결과: 마지막 에포크에서는 홀드아웃 데이터에 대한 성능을 평가하였다. 이를 통해 모델이 훈련 데이터 이외의 데이터에서의 분류 성능을 확인할 수 있었다. 정확도, 균형 재현율, F1 점수 및 혼동 행렬을 통해 결과를 분석하였다.

최적 검증 손실 결과: 검증 데이터에 대한 손실을 최소화하는 에포크에서의 모델 가중치를 사용하여 모델의 성능을 평가하였다. 마찬가지로 정확도, 균형 재현율, F1 점수 및 혼동 행렬을 통해 결과를 분석하였다.

최적 정밀도 및 재현율 결과: 정밀도와 재현율이 각각 80% 이상인 경우를 선택하여 해당 에포크에서의 모델 가중치를 사용하여 모델의 성능을 평가하였다. 마찬가지로 정확도, 균형 재현율, F1 점수 및 혼동 행렬을 통해 결과를 분석하였다.

5) 분류 모델 간의 비교

CNN 학습을 이용한 분류모델이 분류에 적합한 모델임을 검증하기 위해, 동일한 데이터를 Gradient Boosting Methods (XGBoost), Decision Trees, K-Nearest Neighbors (KNN), Multi-Layer Perceptron (MLP), Support Vector Machines (SVM), Gaussian Naïve Bayes (GNB) 등의 모델을 이용하여 분류하여, 그 결과를 CNN 모델의 분류결과와 비교하였다(표 1).

Table 1. 
Classification accuracy according to the model
Model Accuracy (%)
Convolutional Neural Network (CNN) 96.93
Gradient Boosting Methods (XGBoost) 93.84
Decision Trees 90.23
K-Nearest Neighbors (KNN) 89.7
Multi-Layer Perceptron (MLP) 89.29
Support Vector Machines (SVM) 87.41
Gaussian Naïve Bayes (GNB) 85.93

Decision Trees는 데이터 분류 및 회귀 문제를 해결하는 데 사용되는 트리 구조 기반의 모델이다. 각 노드는 특정 기준에 따라 데이터를 분할하며, 최종 노드에서 예측을 수행한다. KNN은 인스턴스 기반 학습 알고리즘으로, 주어진 데이터 포인트와 가장 가까운 이웃 데이터 포인트의 레이블을 기반으로 분류한다. SVM은 두 클래스 간의 최적 경계(하이퍼플레인)를 찾아 데이터를 분류하는 알고리즘이다. 고차원 데이터에서도 효과적으로 작동하며, 마진을 최대화하여 모델의 일반화 성능을 향상시키는 방식을 사용한다. MLP는 하나 이상의 은닉 레이어를 갖는 인공 신경망이며, 가중치를 조정하여 복잡한 비선형 함수를 모델링할 수 있다. GNB는 분류하려는 모든 특성이 서로 독립이며, 각 특성의 분포가 Gaussian을 따른다고 가정하고, 주어진 데이터포인트의 각 특성에 대한 확률 분포를 추적, 베이즈 이론을 사용하여 데이터포인트가 특정 클래스에 속할 확률을 계산하는 알고리즘이다. XGBoost는 여러 개의 간단한 결정 트리를 조합하여 더 성능높은 예측 모델을 생성하는 알고리즘이다. 단순한 모델세트의 추정치의 학습 에러에 가중치를 두고 다음단계 학습 모델에 이를 적용하여 정확도 높은 예측 모델을 만든다.

CNN은 이미지 처리에 특화되어 있는 알고리즘이다. 이미지 데이터의 공간 구조, 즉 데이터의 X, Y 좌표를 고려하여 학습을 수행하여, 이미지 인식 및 객체 감지에 매우 유용합니다. 해당 연구에서는 음성 데이터를 가로축(시간축)과 세로축(진동수축)의 스펙트로그램으로 재구성하여 시간에 따른 음성 진동수 조합의 변화를 해석하도록 접근하였다. 또한, CNN모델은 합성곱(Convolution)과 풀링(Pooling) 레이어를 사용하여 시각적 패턴 및 특징을 자동으로 추출하며, 이로써 별도의 특성 추출 작업이 필요 없다는 장점이 있다.

결과적으로, 본 연구에서, 같은 음성 데이터셋을 이용하여 분류를 수행했을 때, 다른 모델들에 비해 CNN 모델이 분류정확도 96.93%로 높은 분류 정확도를 보이는 것을 확인할 수 있었다.


Ⅲ. 구현 및 실험결과
3-1 모델 적용
1) 학습된 알고리즘을 이용한 testset 분류

본 연구에서는 총 10,733개의 데이터를 학습을 위해 네 가지 카테고리(정상 2,154개, 기침 3,316개, 재채기 2,110개, 비명 3,153개)로 분류하였다. 이 데이터를 훈련 세트와 테스트 세트로 4:1의 비율로 분할하여 사용하였다. 최적화 과정을 거친 모델의 분류 정확도는 96.53%로 나타났다. 해당 분류 알고리즘의 혼동 행렬(confusion matrix)은 그림 2에서 확인할 수 있다. 실험 결과 네 카테고리에 대한 분류가 모두 95%이상의 정확도로 잘 되고 있는 것을 확인할 수 있었으나, 정상음성의 경우, 4.27%의 정상음성이 기침으로 잘못인식되는 경향이 있었다. 해당 문제는, 농장 내 발생하는 잡음들 중, 바닥 긁는소리, 문 여닫는 소리 등의 탁성이 섞여 있는 경우, 기침 소리로 오분류 되는 것으로 파악되었다.


Fig. 2. 
Classification performance confusion matrix

2) 오인율을 낮추기 위한 축사내 잡음 재분류

기침 소리와 바닥 긁는 소리의 스펙트로그램을 비교해보면, 둘 모두 0~16kHz 사이의 넓은 주파수 범위에서 매우 유사한 형태의 짧은 음성신호가 확인되었다(그림 3). 바닥 긁는 소리를 기침 소리로 오인하는 문제를 개선하기 위해, 바닥긁는 소리 데이터 202건을 추가수집하여, 다시 학습시켜 모델을 개선하였다. 정상 소리 데이터를 기침 소리로 잘못 인식하는 오인율이 3.86%로 저하된 것을 확인할 수 있었으나, 수치상 차이가 크지 않게 나타났다. 실제 축사 환경에서 오인되는 경우가 적어지는지를 확인하기 위해, 개선 전과 개선 후 두가지 모델을 이용, 축사 내에서 26일간 녹화된 비디오에서 감지된 일간 기침 횟수를 비교하였다. 개선전 모델을 이용하였을 때, 5일차에 감지된 기침 횟수는 31회 였으나, 개선후 모델을 이용했을 때에는 4회로 현저히 감소된 것을 확인하였으며, 바닥긁는 소리가 기침으로 오인된 사례가 27회임을 확인하였다(그림 5).


Fig. 3. 
Classification performance confusion matrix


Fig. 4. 
Classification performance confusion matrix


Fig. 5. 
Comparison of voice recognition performance before and after noise recognition improvement

3) 알고리즘을 호흡기질환 공격접종을 모델에 적용

본 연구에서 개발된 알고리즘의 실제 응용 능력을 검증하기 위해, 실험실 돈방 내에서 돼지를 25일간 관측하며, 호흡기질환인 흉막폐렴(APP)과 돼지 생식기 호흡기 증후군(PRRS) 병원체를 돼지에게 공격접종 하였다. 공격접종 이후 돼지의 일자별 기침 발생을 모니터링하여 알고리즘의 감지 능력을 평가하였다.

3-2 결과

두 실험군 모두에서 공격접종 이전에는 일간 1회 이하의 기침소리가 감지되었다. APP의 경우, 공격접종 후 24시간 이내에 기침이 감지되기 시작되었고, 48시간 이내에 기침횟수가 300퍼센트 이상 증가하였고. 그 후 6일간 7~10회로 비슷한 기침 횟수가 감지되었다. 7일 이후에는 15회 이상의 기침이 감지되었고, 9~10일차에는 20회 이상의 기침소리가 감지되었다(그림 6a). PRRS의 경우, 공격접종 후 3일째까지 기침횟수의 변화가 관측되지 않다가, 4일차부터 일간 기침 횟수가 5회, 5일차에 10회 이상, 일주일이 지났을 때 20회 이상 관측되었다(그림 6b).


Fig. 6. 
Number of coughs per day after vaccination

개발된 알고리즘은 공격접종 후 돼지의 기침소리 변화를 95% 이상의 정확도로 감지할 수 있었으며, 일간 기침횟수 변화량을 통하여, 질환의 중증도 또한 추론할 수 있는 것으로 확인되었다.

1) 기침 감지 실시간 모니터링 시스템

돼지 기침 실시간 감지를 위해 두 가지 다른 유형의 돈사 환경을 대상으로 모니터링을 실시하였다. 첫 번째는 환기시설이 설치된 신식 농장인 '한돈혁신센터', 두 번째는 재래식 돈사인 '둥지농장'이다. 각 농장에서 감지된 기침 횟수를 시간대별로 정리하였다(그림 7).


Fig. 7. 
Comparison of cough detection monitoring results between farms

음성 기반 기침 감지 시스템이 농장 환경에서 효과적으로 작동하는 것을 확인하였다. 한돈혁신센터와 둥지농장의 두 가지 다른 유형의 돈사에서 모두 음성 기반 기침 감지 시스템이 기침 소리를 정확하게 식별할 수 있었다.

한돈혁신센터의 경우 일간 5회 미만의 기침소리가 감지되었고, 둥지농장의 경우 일반적으로 5~10회의 기침이 감지되어 돈사 환경에 따라 돼지의 기침소리 감지 빈도에 차이가 있는 것으로 확인되었다(그림 7).

실험 결과를 통해 음성 기반 기침 감지 시스템이 농장 환경에서 실시간 기침 감지에 효과적으로 적용될 수 있음을 확인하였다. 두 가지 다른 유형의 돈사 환경인 한돈혁신센터와 둥지농장에서 모두 이 시스템이 기침 소리를 정확하게 식별하는 데 성공하였다. 이러한 결과는 농장 환경에서의 기침 소리 모니터링의 중요성을 강조하며, 이를 위한 음성 기반 감지 시스템의 유용성을 입증한다.


Ⅳ. 결 론

결론적으로, 본 연구를 통해 돼지의 기침을 감지하여 돼지 질병을 조기에 발견하는 자동 감지 시스템을 개발하였다. 이는 돼지 농장에서 발생하는 호흡기질환으로 인한 돼지의 폐사율을 낮추기 위함이다. 실시간 오디오 센서를 활용하고 기계학습 기술과 패턴 인식 알고리즘을 적용하여 돼지농장에서 수집한 소리 데이터 중 돼지 기침 소리와 비기침 소리를 구별할 수 있는 분류 모델을 구축하였다. 데이터베이스를 이용한 실험을 통하여, 우리의 시스템이 95% 이상의 정확도로 돼지 기침을 신속하고 정확하게 감지할 수 있음을 입증하였다. 본 실험 결과를 통해 알 수 있듯이, 개발된 알고리즘은 돼지의 호흡기질환으로 인한 기침 소리 감지에 높은 능력을 보였다. 공격접종 후 돼지의 기침소리 변화를 감지하여, 질환의 중증도 또한 추론할 수 있는 것으로 확인되었다. 이러한 결과는 알고리즘이 실제로 호흡기질환 감지에 효과적으로 사용될 수 있음을 시사한다. 이 자동 감지 시스템은 예방적 조치와 조기 치료를 통해 돼지 농장에서 질병 전파를 효과적으로 제어하는 데 중요한 역할을 할 수 있다. 또한, 실시간 모니터링과 데이터 분석을 통해 돼지의 건강 상태를 향상시킬 수 있을 것으로 기대된다.


Acknowledgments

본 연구는 농림축산식품부 및 과학기술정보통신부, 농촌진흥청의 재원으로 농림식품기술기획평가원과 재단법인 스마트팜연구개발사업단의 스마트팜다부처패키지혁신기술개발사업의 지원을 받아 연구되었음(421042-04). 이 논문은 2023년도 정부(과학기술정보통신부)의 재원으로 정보통신기획평가원의 지원을 받아 수행된 연구임 (No.2021-0-00725,밀폐공간내 감염병 위험도 감시를 위한 멀티모달 센싱 기반 감시지능 시스템 기술 개발)


References
1. M. C. Parlasca and M. Qaim, “Meat Consumption and Sustainability,” Annual Review of Resource Economics Vol. 14, pp. 17-41, October 2022.
2. J. Q. Ni et al., “Evaluation and Characterisation of Passive Infrared Detectors to Monitor Pig Activities in an Environmental Research Building,” Biosystems Engineering Vol. 158, pp. 86-94, June 2017.
3. Y. Gao et al., “Monitoring and Analysis of Thermal Environment and Harmful Gases in Mechanically Ventilated Multistory Pig Buildings,” Transactions of the Chinese Society of Agricultural Engineering, Vol. 34, No. 4, pp. 239-247, February 2018.
4. S. Wang et al., “The Research Progress of Vision-Based Artificial Intelligence in Smart Pig Farming,” Sensors, Vol. 22, No. 17, 6541, 2022.
5. J. I. Nan et al., “Pig Sound Analysis: A Measure of Welfare,” Smart Agriculture, Vol. 4, No. 2, pp. 19-35, June 2022.
6. Y. Wang et al., “A Lightweight Cnn-Based Model for Early Warning in Sow Oestrus Sound Monitoring,” Ecological Informatics, Vol. 72, 101863, December 2022.
7. K. J. Piczak, “Environmental Sound Classification with Convolutional Neural Networks,” 2015 IEEE 25th International Workshop on Machine Learning for Signal Processing (MLSP), IEEE, Boston, 2015.
8. J. Salamon and J. P. Bello, “Deep Convolutional Neural Networks and Data Augmentation for Environmental Sound Classification,” IEEE Signal Processing Letters, Vol. 24, No. 3, pp. 279-283, January 2017.
9. A. Khamparia et al., “Sound Classification Using Convolutional Neural Network and Tensor Deep Stacking Network,” IEEE Access, Vol. 7, pp. 7717-7727, January 2019.
10. K. Jaiswal and D. K. Patel. “Sound Classification Using Convolutional Neural Networks,” 2018 IEEE International Conference on Cloud Computing in Emerging Markets (CCEM), Bangalore, 2018.
11. E. Şaşmaz and F. Boray Tek, “Animal Sound Classification Using a Convolutional Neural Network,” 2018 3rd International Conference on Computer Science and Engineering (UBMK), IEEE, Sarajevo, 2018.
12. K. Ko, S. Park, and H. Ko, “Convolutional Feature Vectors and Support Vector Machine for Animal Sound Classification,” 2018 40th Annual International Conference of the IEEE Engineering in Medicine and Biology Society (Embc). IEEE, Honolulu, 2018.
13. L. Nanni et al., “Ensemble of Convolutional Neural Networks to Improve Animal Audio Classification,” Eurasip Journal on Audio, Speech, and Music Processing, Vol. 1, No. 8, pp. 1-14, May 2020.
14. J. Liao et al., “Domestic Pig Sound Classification Based on Transformercnn,” Applied Intelligence, Vol. 53, No. 5, pp. 4907-4923, June 2023.
15. Y. Yin et al., “An Investigation of Fusion Strategies for Boosting Pig Cough Sound Recognition,” Computers and Electronics in Agriculture, Vol. 205, 107645, February 2023.
16. H. Kim and M. W. Sung, “Pathophysiology, Causes and Treatment of Chronic Cough in Adults: Literature Review,” Korean Journal of Otorhinolaryngology -Head and Neck Surgery, Vol. 58, No. 11, pp. 744-753, 2015.

저자소개

이동규(Dong Kyu Lee)

2017년:부산대학교 대학원 (공학석사)

2021년:부산대학교 대학원 (공학박사-인지메카트로닉스공학과)

2021년~현 재: 한국전자통신연구원

※관심분야:농축수산지능화(Agriculture, Animal & Aquaculture Intelligence), 딥러닝(Deep Learning), 머신러닝(Machine Learning), 양자화학(Quantum Chemistry) 등

이봉국(Bong Kuk Lee)

1996년 2월:동아대학교 공학사

2001년 2월:동아대학교 공학석사

2005년 3월:오사카대학 공학박사

2005년 5월~2008년 3월: 일본과학기술진흥기구 박사후연구원

2008년 4월~2010년 3월: 오사카대학 산업과학연구소 조교수

2010년 4월~2011년 2월: 한국생명공학연구원 박사후연구원

2011년 3월~현 재 : 한국전자통신연구원 농축수산지능화 연구센터 책임연구원

※관심분야:스마트팜, 가축질병 조기감지, 현장진단, 확산차단 시스템

김유진(You-Jin Kim)

2005년:충북대학교 통신회로 및 시스템공학 전공, 공학박사(Ph.D)

1995년~1999년: LG반도체(현, SK하이닉스) MCU설계 연구원

1999년~현 재: 한국전자통신연구원(ETRI) 책임연구원

※관심분야:Deep Learning, Machine Learning, Image Processing, Doppler/FMCW Radar System, Embedded System Design

정재영(Jae Young Jung)

1999년:경북대학교 전자공학과 (학사)

2001년:경북대학교 전자공학과(석사)

2012년:충남대학교 전파공학과(박사)

2001년~현 재: 한국전자통신연구원(ETRI) 책임연구원

※관심분야:Deep Learning, Signal Processing, Edge Computing, IoT, Wireless Sensor

은지숙(Jee Sook Eun)

1998년:전북대학교 컴퓨터공학과 (공학학사)

2000년:전북대학교 컴퓨터공학과 대학원 (공학석사)

2000년~현 재: 한국전자통신연구원 재직

※관심분야:농축수산지능화(Agriculture, Animal & Aquaculture Intelligence), 시스템 구조(system Architecture), 통신망(Communiation Network) 등

김대회(Dae Hoe Kim)

2015년:한국과학기술원 (공학석사)

2017년:한국과학기술원 (공학박사-전기및전자공학부)

2017년~2019년: 국방과학연구소

2019년~현 재: 한국전자통신연구원

※관심분야:기계학습(Machine Learning), 행동인식(Action Recognition)