경량화 기술 기반 컨볼루션 신경망 모델의 화재 감지 성능 분석에 관한 연구

A Study on the Performance Analysis of Fire Detection Using a Lightweight Convolutional Neural Network Model

Article information

Fire Sci. Eng.. 2024;38(6):75-83
Publication date (electronic) : 2024 December 31
doi : https://doi.org/10.7731/KIFSE.0578853a
권희준, 최수기, 정해영*,
세명대학교 소방방재공학과 대학원생
Graduate Student, Dept. of Fire and Disaster Prevenetion Engineering, Semyung University
* 세명대학교 소방방재학과 교수
*Professor, Dept. of Fire and Disaster Prevenetion Engineering, Semyung University
Corresponding Author, TEL: +82-43-649-1695, FAX: +82-43-649-1787, E-Mail: hyjung@semyung.ac.kr
Received 2024 November 13; Revised 2024 November 25; Accepted 2024 November 27.

Abstract

요 약

최근 다양한 화재와 비화재 상황을 신속히 감지할 수 있는 AI 기반 화재 감지 기술의 필요성이 커지고 있다. 본 연구에서는 다양한 CNN 기반 모델을 활용하여 구름, 안개, 굴뚝 연기, 실내화재, 실외화재, 산불 등 9개의 화재 이벤트에 대하여 화재 감지 및 분류 성능을 비교하였다. 본 연구에서 각 모델의 학습은 총 27,000개의 화재 이미지 데이터를 대상으로 수행하였고, 실험 결과 depthwise separable convolution layer 구조를 반영한 MobileNet v1 모델의 크기가 54.6 MB로 가장 가벼웠으며, 상대적으로 높은 정확도(accuracy 0.660)를 나타냈다. 또한, confusion matrix를 통해 화재 이벤트를 세부적으로 분석한 결과, 실화재를 비화재로 또는 비화재를 실화재로 인식하는 오류는 3.78%로 낮게 나타났다. 따라서, 제안된 MobileNet v1 기반 화재 감지 모델은 실화재와 비화재에 대한 매우 높은 분류 성능과 경량화 모델의 특징을 가지고 있어, 엣지 컴퓨팅 시스템에서 실시간 화재 감지가 적합하다고 판단된다.

Trans Abstract

ABSTRACT

The demand for AI-based fire detection technologies that can swiftly identify various fire and non-fire scenarios is increasing. This study compared the fire detection and classification performances of several CNN-based models across nine fire-related events: clouds, fog, chimney smoke, wildfires, building fires, and indoor fires. Each model was trained using a dataset comprised of 27,000 fire-related images. The experimental results indicated that the MobileNet v1 model, which incorporates a depthwise separable convolution layer structure, was the most lightweight (54.6 MB) while demonstrating moderate classification accuracy (66.0%) in distinguishing between fire and non-fire events. Additionally, a detailed analysis using the confusion matrix revealed a low error rate of 3.78% for misclassifying actual fires as non-fire events, and vice versa. These findings suggest that the proposed MobileNet v1-based fire detection model offers high classification performance for real and non-real fire scenarios, along with the advantages of a lightweight structure, making it well-suited for real-time fire detection in edge computing systems.

1. 서 론

국내에서는 산불, 건축물 화재, 전기차 화재 등 다양한 유형의 화재가 지속적으로 발생하고 있으며, 화재 발생 유형에 따라 각기 다른 원인과 특성이 있다. 특히 산불의 경우, 지구 온난화와 기후 변화로 인해 그 산불 발생 빈도와 피해 면적이 증가하고 있으며, 최근 10년 동안(2014년∼2023년) 약 5,600건이 발생하여 약 4,0000 ha의 산림이 소실되었다(1). Figure 1은 전국 화재 발생 건수 및 피해 산림 면적을 보여주고 있다. 또한, 전 세계적으로 전기차 보급이 증가하면서 전기차 화재 사례도 증가하고 있다. 전기차 화재는 배터리 열 폭주로 인해 발생하는 특수한 화재로, 공동주택이나 대형 쇼핑몰 지하 주차장에서 발생하면 막대한 피해로 이어질 수 있다(2).

Figure 1

Number of fires and forest area damaged.

화재는 발생 장소에 따라 산불, 실내화재, 실외화재 등으로 구분된다. 이러한 다양한 화재 상황에 대한 정확하고 신속한 화재 조기 감지 기술 개발은 화재 유형별 대응 전략 최적화, 2차 피해 방지 및 비화재보 문제를 감소시키기 위해 매우 필요한 연구 분야이다(3). 현재 화재 감지는 열⋅연기 감지기, CO 및 가스 센서를 포함한 복합형 감지기, CCTV, 드론 등 다양한 기기를 활용하고 있지만, 화재를 탐지하지 못하거나 화재가 아님에도 불구하고 화재로 감지하는 비화재보 문제가 자주 발생하고 있다(4-6). 이러한 문제를 해결하기 위해 AI와 IoT 기술이 적용된 실시간 화재 감지 방식이 연구되고 있다(7). 대부분의 실시간 화재 감지 기술은 딥러닝 기반의 object detection과 image segmentation 모델을 최적화하여 화염 및 연기와 같은 무정형의 화재 이미지에 대한 감지 성능 향상에 주안점을 두고 있다(8). 하지만 다양한 화재 유형과 비화재 상황을 구분하는 연구는 상대적으로 미흡하다.

따라서, 본 연구에서는 실 화재와 비화재보 상황을 정확하게 분류하기 위하여 세부적으로 실 화재에 대해서는 산불(초기 연기, 초기 화염, 성장된 산불), 실내화재, 실외화재, 전기차 화재 등 6가지로 분류하였고, 비화재보에 대해서는 구름, 안개, 굴뚝 연기 등 3가지로 분류하였다. 상기와 같이 설정된 총 9가지의 화재 이벤트에 대해 다양한 CNN 모델들의 화재 감지 성능을 비교 분석하였다.

2. 문헌 검토

최근 화재 감지 분야에서는 AI 기술을 도입하여 화염 및 연기 객체 검출에 관한 다양한 연구가 진행되고 있다. Kwon 등(9)은 화재 이미지에 대해 YOLOv5 기반 bounding box 및 polygon 라벨링과 데이터 증강 기법을 적용하여 화재 감지 성능을 개선하였다. Namburu 등(10)은 무인 항공기를 활용한 초기 산불 감지를 목적으로 MobileNet의 장점을 반영하여 X-MobileNet 알고리즘을 제안하였고, 화재 감지 성능을 향상시켰다.

한편, Zheng 등(11)은 YOLOv4와 MobileNetV3를 결합하여 경량의 실시간 화재 감지 모델을 개발하였으며, PANet 구조, BiFPN 경로 융합, SPP 모듈을 적용하여 다중 크기의 화재 객체 감지 성능을 크게 향상시켰다. 이 알고리즘은 “BoWFire”이미지 데이터 셋에서 95% 이상의 정확도를 기록하였고, NVIDIA Jetson Xavier NX와 같은 소형 임베디드 장치를 활용하여 실시간 화재 감지 시스템을 구현하였다. Geng 등(12)은 YOLOv5n을 개선한 YOLOFM 모델을 통해 화재 및 연기 객체 감지의 정확도와 효율성을 증가시켰고, FocalNext, QAHARep-FPN, NADH head, Focal-SIoU 손실 함수를 적용하여 YOLOv5n 대비 성능을 개선하였다.

Li 등(13)은 실내화재의 조기 감지 및 위치 추정을 위해 Jetson-Nano와 같은 엣지 컴퓨팅 시스템에 적용 가능한 경량화된 화재 감지 모델을 제안하였고, fully convolutional one-stage detection model을 활용하여 모델 크기를 기존 대비 1/10 수준으로 축소하면서 실시간 감지 정확도를 유지하였다.

이처럼, 대부분의 AI 기반 화재 감지 연구는 화염과 연기를 신속하고 정확하게 감지하거나 임베디드 시스템에 적용하기 위해 경량화에 중점을 두고 있다. 하지만, 대부분의 선행 연구들은 다양한 화재 유형과 비화재 상황을 세부적으로 분류하여 화재를 감지하는 연구는 미흡하다.

3. 딥러닝 기반 CNN 분류 알고리즘

3.1 CNN 알고리즘

Figure 2는 화재 감지를 위한 CNN 알고리즘의 구조를 보여주고 있다. CNN 알고리즘은 다양한 화재 이벤트 이미지를 입력받아 계층적으로 이미지의 특징을 추출하고 분류하는 구조이다(14).

Figure 2

Fire detection CNN algorithm architecture.

입력된 화재 이벤트 이미지는 첫 번째 convolution layer에서 저수준의 특징을 추출하여 특징 맵을 생성하고, 이어지는 pooling layer에서 차원을 축소함으로써 연산 효율성을 높인다. 이후 단계의 더 깊은 convolution layer에서는 더욱 복잡한 고수준의 특징을 추출하고, pooling layer를 통해 다시 차원을 축소하여 주요 정보를 보존한다. 이러한 convolution 연산과 pooling 과정을 반복하여 고수준의 특징을 추출하고, 최종적으로 추출된 정보는 완전 연결 계층(fully connected layer, FC layer)에서 신경망에 1차원으로 입력된다. FC layer에서 입력된 특징을 통해 화재와 비화재 상황(예: 구름, 안개, 굴뚝 연기 등) 및 다양한 화재 유형(다양한 산불 상황, 실내화재, 실외화재 등)으로 분류한다(15).

3.2 Depthwise separable convolution layer

Figure 3은 depthwise separable convolution layer의 구조를 보여주고 있다(16). 이 구조는 연산 효율을 극대화하기 위해 기존의 convolution layer를 depthwise convolution과 pointwise convolution으로 분리하였다. depthwise convolution에서는 화재 이미지의 RGB 채널에 대해 각각 독립적으로 특징 맵을 생성하며, 이 과정에서 채널별 필터가 개별적인 특징을 학습한다. 다음 단계인 pointwise convolution에서는 1 × 1 크기의 필터를 사용하여 채널 간 결합을 수행하고, depthwise convolution에서 추출된 각 채널의 특징을 통합하여 최종 특징 맵을 생성한다.

Figure 3

Depthwise separable convolution architecture.

이러한 구조는 기존 convolution layer의 연산에 비해 파라미터 수와 연산량을 대폭 감소시킬 수 있어, 연산 자원이 제한된 임베디드 시스템이나 실시간 감지가 요구되는 환경에서 모델의 성능을 최적화하는 데 유리하다. 특히, depthwise separable convolution layer가 적용된 모델을 활용함으로써 신속하면서도 정확한 화재 이벤트 감지가 가능하여, 속도와 정확성을 동시에 갖춘 화재 감지 모델을 구현할 수 있다(17).

3.3 Keras 기반 전이학습 모델

본 연구에서는 CNN 모델 학습을 위해 Keras에서 제공되는 다양한 전이학습 모델을 활용하였다. depthwise separable convolution 구조가 적용된 MobileNet과 Xception 모델은 파라미터 수와 연산량을 대폭 감소시켜 경량화와 연산 효율성을 극대화한 모델이다.

MobileNet과 Xception 모델의 성능을 비교 분석하기 위해 VGG16, ResNet50, Inception V3와 같은 기존 CNN 모델에 대해 성능 차이를 평가하였다. 이들 모델에 대한 모델의 크기, 파라미터 수, 네트워크 깊이, 정확도 등의 성능을 Table 1에 나타내었다(18).

Model Performance (Keras Application)

Table 1에 제시된 모델들은 모두 Keras applications에서 제공되는 사전 학습된 CNN 모델로, ImageNet 데이터셋(1,000개 클래스, 약 1,400만 개 이미지)을 사용하여 사전 학습되었다. ImageNet 데이터셋에는 화재와 직접적으로 관련된 이미지가 포함되어 있지 않으므로, 본 연구에서 수집된 화재 이미지와 데이터 중복이 발생하지 않았다.

하지만, ImageNet 데이터 셋에는 ocean, forest, desert 등과 같은 자연적 배경과 장소에 대한 이미지가 포함되어 있다. 이에 따라, 본 연구에서는 ImageNet과 유사한 데이터 셋 특성을 활용하면서도 데이터 셋의 크기가 제한적인 상황에 적합하도록, 전이 학습 모델의 분류기만 학습하는 방식을 채택하여 모델 학습 실험을 진행하였다.

4. 연구 방법

4.1 화재 이미지 데이터 수집

본 연구에서는 다양한 화재 이벤트에 대한 분류 성능을 평가하기 위해 AI-hub, Roboflow, Kaggle 등의 플랫폼에서 화재 관련 이미지를 수집하였다. 총 9개 클래스로 구성된 데이터 셋을 구축하였으며, 각 클래스별로 3,000장의 이미지를 수집하여 총 27,000장의 데이터를 확보하였다. 수집된 데이터는 CNN 분류 모델 학습을 위해 train 70%, validation 20%, test 10%의 비율로 분할하였다.

Figure 4는 각 클래스의 대표적인 데이터 예시를 보여주고 있다. 비화재보는 구름(a), 안개(b), 굴뚝 연기(c) 등의 상황이며, 화재와 유사한 환경에서도 모델이 정확하게 비화재를 구분할 수 있도록 하였다. 실 화재에 대해서는 실내 환경에서 발생할 수 있는 실내화재(d)와 실외 환경에서 발생할 수 있는 다양한 실외 화재(e)로 구분하여 수집하였다. 추가로, 전기차 화재(f)에 대한 이미지를 수집하였다. 또한, 산불화재에 대해서는 산불 초기 연기(g), 산불 초기 화염(h) 및 성장된 산불화재(i) 이미지로 구분하여 구성하였다.

Figure 4

Fire dataset.

4.2 H/W, S/W 구성 및 parameter 설정

본 연구에서는 CNN 기반 화재 감지 모델의 개발, 학습, 검증 실험을 위해 Python 기반의 개발 환경을 구축하였다. 하드웨어와 소프트웨어 사양은 Table 2에 제시하였다. 하드웨어는 Intel (R) Xeon (R) Silver 4210 CPU, 192 GB RAM, NVIDIA GeForce RTX 3090 GPU로 구성하여 대규모 이미지 데이터 처리와 CNN 학습이 가능하도록 하였다. 소프트웨어 환경으로는 Python 3.10.0, TensorFlow 2.9.0, CUDA 11.3, OpenCV 4.6.0을 사용하여 모델 개발 환경을 구축하였다.

H/W & S/W Specification

본 연구에서는 전이 학습 모델들의 모든 분류기를 동일 하게 설계하였다. 각 모델들의 파라미터가 출력되는 부분을 flatten을 통해 1차원화하고, 노드를 class 9개로 설정하여 softmax 활성화 함수를 적용하였다. 학습을 위한 주요 파라미터 설정은 batch size 64, epoch 100, learning rate 0.001이며, optimizer로는 adam, 오차함수는 categorical crossentropy 함수를 사용하여 모든 분류기에 동일하게 적용하였다.

4.3 CNN 분류 모델 평가 지표

개발된 CNN 기반 화재 감지 모델의 성능 평가를 위해 confusion matrix와 이를 기반으로 하는 평가 지표를 사용하였다. confusion matrix 분류 평가지표는 true positive (TP), false positive (FP), false negative (FN), true negative (TN)의 네 가지 분류를 포함하여 분류 모델의 성능을 평가한다(19). 각 모델의 성능 지표는 precision, recall, F1-score, accuracy로 나타내었다. 각 지표의 계산식은 식(1)∼식(4)와 같다(20). precision은 모델이 true로 예측한 결과 중 실제로 true인 비율을 나타내고, recall은 실제 true인 경우 중 모델이 true로 예측한 비율을 의미한다. F1-score는 precision과 recall의 조화 평균으로 모델의 균형적인 성능을 평가하며, accuracy는 전체 예측 중 정확한 예측 비율에 해당한다. 이러한 지표들은 모델의 분류 성능을 다각적으로 평가하는 데 필수적인 요소이다.

(1)Precision=TPTP+FP
(2)Recall=TPTP+FN
(3)F1Score=2×Precision×RecallPrecision+Recall
(4)Accuracy=TP+TNTP+FP+TN+FN

5. 연구 결과

5.1 CNN 기반 화재 감지 모델 학습 결과

본 연구에서는 MobileNet v1, MobileNet v2, Xception, ResNet50, VGG16, Inception v3 모델 학습을 수행하였고, Figure 5는 각 CNN 기반 화재 감지 모델에 대한 accuracy 결과를 보여주고 있다. 실험 결과, MobileNet v1과 v2, 모델은 경량화된 구조임에도 불구하고 ResNet50, VGG16, Inception v3와 같은 타 모델에 준하는 98%의 검증 정확도를 나타내었다.

Figure 5

Fire detection model learning and verification results.

Table 3은 test dataset에서 각 CNN 모델의 화재 감지 성능에 대한 평가 결과를 보여주고 있다. MobileNet v1은 모델 크기가 54.6 MB로, 가장 경량화된 구조이며, F1-score 0.674, accuracy 0.660으로 비교적 높은 정확도를 나타내었다. 이는 MobileNet이 자원이 제한된 임베디드 환경에서의 높은 화재 감지 성능을 보일 수 있을 것으로 기대할 수 있다. Inception v3는 가장 높은 정확도를 기록했지만, MobileNet에 비해 모델 크기가 152 MB로 매우 크게 나타났고, Xception은 depthwise separable convolution layer를 적용하였음에도 불구하고 큰 값의 파라미터로 인해 모델 사이즈가 크게 나타났다. 이는, depthwise separable convolution과 다중 경로 구조(multi-path architecture)를 통해 CNN 모델의 출력 feature map 크기와 depth가 커지면서 분류기의 파라미터가 증가한 것으로 판단된다.

Fire Detection Classification Results based on Test Dataset

반면, VGG16은 528 MB에서 81 MB로 감소하였다. 이는 VGG16의 convolutional neural network 계층의 특성상 모든 convolutional layers가 동일한 3 × 3 필터를 사용하고, 스트라이드와 패딩을 고정하여 출력 feature map의 크기가 단계적으로 축소되도록 설계되어 feature map의 크기를 상대적으로 작게 유지하며, fully connected layers가 feature map에서 추출된 정보를 압축하지 않고 직접 처리하도록 한다. 따라서, 전이 학습 과정에서 분류기만 학습할 때, 기존 fully connected layers가 제거되고, 9개의 화재 이벤트만 감지하는 분류기로 수정되면서 전이 학습 후 모델 크기가 528 MB에서 81 MB로 감소한 것으로 판단된다. 하지만, VGG16 모델은 MobileNet 모델 보다 크기가 크고, 모델 정확도가 낮게 나타났다. 또한, MobileNet v2는 v1보다 정확도가 낮으며, 모델의 사이즈도 크게 나타났다. 따라서, 본 연구에서는 MobileNet v1 모델이 경량화와 정확도의 측면에서 우수한 성능을 보여 화재 감지 시스템에 적합하다고 판단된다.

5.2 Confusion matrix 성능 분석 결과

본 연구에서 수행된 test dataset에 대한 성능이 검증 정확도 대비 낮은 이유와 세부적인 화재 이벤트에 대한 분류 성능을 평가하기 위해 confusion matrix를 활용하였다. Figure 6은 9개의 화재 이벤트에 대해서 CNN 모델들의 실화재와 비화재 상황을 얼마나 정확하게 분류하였는지에 대한 예측 결과를 보여주고 있다. 실험에 사용된 6가지의 CNN 모델들은 공통적으로 9가지의 화재 이벤트 상황에 대해 실화재 상황인 실내화재, 실외화재, 전기차 화재, 산불 초기 연기, 산불 초기 화염, 성장된 산불화재를 상대적으로 높은 정확도로 분류하였다. 반면, 비화재 상황인 구름, 안개, 굴뚝 연기 이미지들 간의 분류는 상대적으로 오분류가 높게 나타났다. 이러한 오분류는 가장 정확도가 높았던 Xception과 Inception v3, MobileNet v1 모델에서도 높게 발생하였는데, 이는 비화재 상황을 구별하기 위한 추가적인 개선이 필요함을 의미한다. 한편, 본 연구에서 제안하는 MobileNet v1 기반 화재 감지 모델에서 실화재를 비화재로 또는 비화재를 실화재로 인식하는 오류는 3.78%로 낮은 수치인 것을 확인할 수 있었다. 결과적으로, MobileNet v1은 경량화된 구조임에도 불구하고 다양한 실화재 이벤트에 대한 높은 분류 성능을 가지며, 실화재를 비화재로 또는 비화재를 실화재로 인식하는 오류가 매우 작은 것을 확인할 수 있었다.

Figure 6

Confusion matrix analysis results of fire detection model.

반면, 검증정확도 대비 test dataset의 정확도가 낮게 나타난 이유는 먼저 비화재 이벤트에서 구름, 안개, 굴뚝연기 간의 비슷한 배경과 화재 이벤트에서 실외화재, 성장된 산불화재가 비슷한 배경의 이미지를 나타내기 때문으로 판단되며, 이러한 한계를 향후 화염 및 연기 등과 같은 객체를 직접 감지하는 object detection, segmentation 등과 같은 기술로 개선해야한다고 판단된다.

Figure 7은 본 연구에서 제안하는 MobileNet v1 기반 화재 감지 모델의 비화재 이벤트와 실화재 이벤트에 대한 분류 성능 분석 결과를 보여주고 있다. 실화재 이벤트에 대한 분류 성능은 상대적으로 정확도가 높게 나타났는데, F1-score 측면에서 전기차 화재의 경우 95%, 실내화재의 경우 82%, 산불 초기 연기는 77%, 성장된 산불 화재 73%, 실외화재는 62%, 산불 초기 화염은 58% 였다.

Figure 7

MobileNet v1 performance analysis results.

실화재 간의 주된 오분류는 성장된 산불과 실외화재간에서 발생하였는데 이는 산불과 실외화재의 발생 장소가 유사했기 때문으로 판단된다. 이외의 실내화재와 실외화재 간에도 오분류가 상대적으로 높게 나타났는데 이는 실외화재의 대상이 건축물 외부 이미지가 많이 포함되었기 때문에 실내화재와 구분하기가 어려웠다고 판단된다. 반면, 비화재 이벤트의 분류 성능은 F1-score 측면에서 구름 63%, 굴뚝연기 40%, 안개 6%로 상대적으로 실화재 이벤트 분류 성능 보다 낮게 나타났는데, 이는 비화재 상황에서의 유사한 이미지 패턴에 의한 것으로 판단된다. 특히, 구름과 안개의 오분류가 상대적으로 높았다. 하지만, 주된 오분류는 실화재 간의 분류 또는 비화재 간의 분류에서 발생되었고, 실화재와 비화재 간의 오분류는 매우 적었다. 또한, 본 연구에서 제안된 MobileNet v1 기반 화재 감지 모델은 최근 화제가 되는 전기차 화재에 대한 분류 성능은 95%로 매우 높았다.

6. 결 론

본 연구에서는 다양한 실화재 이벤트와 비화재 이벤트를 구분하기 위해 6가지 CNN 모델들에 대해 화재 감지 성능 분석하였다. 실험을 위해 경량화 기술이 적용된 MobileNet v1, MobileNet v2, Xception 모델과 경량화 기술이 적용되지 않은 기존의 CNN 모델인 ResNet50, VGG16, Inception v3 모델을 선정하여 세부적인 화재 이벤트에 대한 분류 성능 분석을 수행하였다. 실험 결과, MobileNet v1, Xception, Inception v3에서 가장 높은 검증 정확도를 나타내었다. 특히 MobileNet v1는 검증 정확도(accuracy)가 0.660으로 다른 CNN 모델들보다 높았으며, 54.6 MB로 가장 경량화된 모델 크기를 보여주었다.

또한, confusion matrix를 통해 세부적으로 분석해보면 실화재를 비화재로 또는 비화재를 실화재로 인식하는 오류는 3.78%로 낮아 조기 화재 감지 모델로 적합하다는 것을 확인할 수 있었다. 실화재 이벤트 간의 분류 성능은 전기차 화재의 경우 95%로 매우 높게 나타났고, 비화재 이벤트 간의 분류 성능은 구름 63%로 상대적으로 낮은 수치를 보였다. 결과적으로, 본 연구에서 제안한 MobileNet v1 모델은 실화재와 비화재에 대한 매우 높은 분류 성능과 경량화 모델의 특징을 가지고 있어, 엣지 컴퓨팅 시스템에서 실시간 화재 감지가 적합하다고 판단된다.

향후 연구에서는 실화재 이벤트 간과 비화재 이벤트간들 사이의 오분류를 줄이기 위해 더욱 많은 화재 및 비화재 이미지 데이터 셋을 수집하여 화재 감지 모델의 실제 감지 성능을 분석하고, hyperband나 optuna와 같은 하이퍼 파라미터 최적화 실험을 통해 화재 감지 성능을 개선하고자 한다. 이후, 이러한 결과를 object detection, segmentation 등의 기술을 반영하여 화재 감지 성능을 개선하고자 한다.

후 기

본 연구는 2024년도 중소벤처기업부의 기술개발사업 지원에 의한 연구임[RS-2024-00467922].

References

1. Bang S. H.. Changes in Soil Properties During Smoldering Fire Caused by Wildfire. Fire Science and Engineering 38(4):55–59. 2024;https://doi.org/10.7731/KIFSE.2e5230d3.
2. Park N. K., Ham S. H.. A Study of Institutional Improvements for Responding to Electric Vehicle Fires:Focusing on the Case of Seoul. Journal of the Society of Disaster Information 20(1):32–39. 2024;https://doi.org/10.15683/kosdi.2024.3.31.032.
3. Kim H. J., Shin G. Y., Woo B. H., Koo N. K., Jang K. S., Lee K. W.. A Study on Forest Fires Prediction and Detection Algorithm using Intelligent Context-awareness Sensor. Journal of the Korea Institute of Information and Communication Engineering 19(6):1506–1514. 2015;https://doi.org/10.6109/jkiice.2015.19.6.1506.
4. Son G. S., So S. H.. A Study on Fire Alarm Test of IoT Multi-Fire Detector Combined Smoke/CO and Smoke/Temperature Sensor. Journal of the Society of Disaster Information 17(2):236–244. 2021;https://doi.org/10.15683/kosdi.2021.6.30.236.
5. Kang K. S., Kwon O. S., Cho W H., Kim H. Y., Chae S. U., You J. S.. Initial Fire Detection Method for Intelligent CCTV Using Deep Learning Technology. Fire Science and Engineering 38(2):9–16. 2024;https://doi.org/10.7731/KIFSE.7e1c0745.
6. Moon S. J.. A Study on the Industrial Complex Disaster Surveillance and Monitoring System Using Drones. The Journal of the Korea Institute of Electronic Communication Sciences 19(1):233–240. 2024;https://doi.org/10.13067/JKIECS.2024.19.1.233.
7. Avazov K., Mukhiddinov M., Mukhiddinov F., Cho Y. I.. Fire Detection Method in Smart City Environments Using a Deep-Learning-Based Approach. Electronics 11(1)2022;https://doi.org/10.3390/electronics11010073.
8. Fernández F. G., Martins L., Almeida R. V., Gamboa H., Vieira P.. A Deep Learning Based Object Identification System for Forest Fire Detection. Fire 4(4)2021;https://doi.org/10.3390/fire4040075.
9. Kwon H. J., Lee B. H., Jung H. Y.. Research on Improving the Performance of YOLO-Based Object Detection Models for Smoke and Flames from Different Materials. Journal of the Korean Institute of Electrical and Electronic Material Engineers 37(3):261–273. 2024;https://doi.org/10.4313/JKEM.2024.37.3.4.
10. Namburu A., Selvaraj P., Mohan S., Ragavanantham S., Eldin E. T.. Forest Fire Identification in UAV Imagery Using X-MobileNet. Electronics 12(3)2023;https://doi.org/10.3390/electronics12030733.
11. Zheng H., Duan J., Dong Y., Liu Y.. Real-time Fire Detection Algorithms Running on Small Embedded Devices based on MobileNetV3 and YOLOv4. Fire Ecology 19(1)2023;https://doi.org/10.1186/s42408-023-00189-0.
12. Geng X., Su Y., Cao X., Li H., Liu L.. YOLOFM:An Improved Fire and Smoke Object Detection Algorithm based on YOLOv5n. Scientific Reports 14(1)2024;https://doi.org/10.1038/s41598-024-55232-0.
13. Li Y., Shang J., Yan M., Ding B., Zhong J.. Real-Time Early Indoor Fire Detection and Localization on Embedded Platforms with Fully Convolutional One-Stage Object Detection. Sustainability 15(3)2023;https://doi.org/10.3390/su15031794.
14. Jung H. Y., Choi S. G., Lee B. H.. Rotor Fault Diagnosis Method Using CNN-Based Transfer Learning with 2D Sound Spectrogram Analysis. Electronics 12(3)2023;https://doi.org/10.3390/electronics12030480.
15. Ahad M. T., Li Y., Song B., Bhuiyan T.. Comparison of CNN-based Deep Learning Architectures for Rice Diseases Classification. Artificial Intelligence in Agriculture 9:22–35. 2023;https://doi.org/10.1016/j.aiia.2023.07.001.
16. Huang H., Du R., Wang Z., Li X., Yuan G.. A Malicious Code Detection Method Based on Stacked Depthwise Separable Convolutions and Attention Mechanism. Sensors 23(16)2023;https://doi.org/10.3390/s23167084.
17. Jang J., Quan C., Lee H. D., Kang U.. Falcon:Lightweight and Accurate Convolution based on Depthwise Separable Convolution. Knowledge and Information Systems 65:2225–2249. 2023;https://doi.org/10.1007/s10115-022-01818-x.
18. Team Keras.. Keras Applications. https://keras.io/api/applications/. 2024.
19. Theodosiou A., Robert R. C.. Artificial Intelligence, Machine Learning and Deep Learning:Potential Resources for the Infection Clinician. Journal of Infection 87(4):287–294. 2023;https://doi.org/10.1016/j.jinf.2023.07.006.
20. Lee J. H., Jeong K. S., Jung H. Y.. Development of a Forest Fire Detection System Using a Drone-based Convolutional Neural Network Model. International Journal of Fire Science and Engineering 37(2):30–40. 2023;https://doi.org/10.7731/KIFSE.26686d3f.

Article information Continued

Figure 1

Number of fires and forest area damaged.

Figure 2

Fire detection CNN algorithm architecture.

Figure 3

Depthwise separable convolution architecture.

Table 1

Model Performance (Keras Application)

Model Size (MB) Parameter (M) Depth Accuracy (%)
Xception 88 22.9 81 94.5
MobileNet v1 16 4.3 55 89.5
MobileNet v2 14 3.5 105 90.1
ResNet50 98 25.6 107 92.1
VGG16 528 138.4 16 90.1
InceptionV3 92 23.9 189 93.7

Figure 4

Fire dataset.

Table 2

H/W & S/W Specification

Division Device Specification
H/W CPU Intel (R) Xeon (R) Silver 4210 CPU @ 2.20G Hz
RAM 192 GB
GPU NVIDIA GeForce RTX 3090
S/W Python 3.10.0
Tensorflow 2.9.0
Cuda 11.3

Figure 5

Fire detection model learning and verification results.

Table 3

Fire Detection Classification Results based on Test Dataset

Model Precision Recall F1-Score Accuracy Size (MB)
MobileNet v1 0.688 0.660 0.674 0.660 54.6
MobileNet v2 0.660 0.628 0.644 0.628 61.6
Xception 0.694 0.675 0.684 0.674 164
ResNet50 0.585 0.590 0.588 0.590 174
VGG16 0.673 0.607 0.638 0.607 81
Inception v3 0.700 0.707 0.704 0.707 152

Figure 6

Confusion matrix analysis results of fire detection model.

Figure 7

MobileNet v1 performance analysis results.