Fire Sci. Eng. Search

CLOSE


Fire Sci. Eng. > Volume 37(6); 2023 > Article
객체 탐지 기법 적용 YCbCr 컬러모델의 화염 영역 검출 특성에 관한 연구

요 약

화염 영역 검출을 위한 기존 YCbCr 컬러모델은 다양한 색상의 화염에 대한 낮은 검출 성능과 화염과 유사한 색상의 객체에 대한 오검출 특성을 갖는다. 따라서 본 연구에서는 YCbCr 컬러모델의 화염 영역 검출 성능을 개선하기 위하여 객체 탐지 기법 적용 개선된 YCbCr 컬러모델을 제안하였다. 화염과 유사한 색상을 갖는 객체 영역에 대한 검출을 방지하기 위해 객체 탐지 딥러닝 모델인 YOLOv8을 적용하여 화염 객체 영역을 탐지하고 해당 영역 내에서 화염을 검출하도록 하였다. 또한 화염 영역 검출 성능을 개선하기 위하여 적색 지배형 화염과 황색 지배형 화염을 구분하여 화염을 검출하는 YCbCr 규칙을 적용하였다. 화염 영역 검출 성능을 평가한 결과, 제안된 모델의 intersection over union (IoU) 값이 기존 YCbCr 모델 대비 약 15.4% 향상되었다. 또한 화재 및 비화재 예측성능의 경우 제안된 모델의 정밀도, 재현율, F1-score 값이 기존 YCbCr 모델 대비 각각 15.9%, 28.2%, 24.7%로 개선되었다.

ABSTRACT

The existing YCbCr color model for flame segmentation has a low segmentation performance for various colored flames and mis-segmentation for flame-like colored-object regions. An improved YCbCr color model using an object detection technique is proposed in this study to improve the flame segmentation performance of the existing YCbCr color model. YOLOv8, a deep learning model for object detection, was used to form a bounding box for the flame to prevent the segmentation of the flame-like colored-object region, and flame segmentation in the bounding box was performed. In addition, YCbCr rules were proposed to segment red and yellow flames to improve flame segmentation performance. The performance evaluation showed that the proposed model increased the intersection over union value by approximately 15.4% compared to that of the existing YCbCr model. In terms of the fire prediction performance evaluation, the precision, recall, and F1-score of the proposed model increased by approximately 15.9%, 28.2%, and 24.7%, respectively.

1. 서 론

최근 복합적이고 대규모의 화재안전사고가 많이 발생하고 있으며 이로 인한 인적 및 물적 피해가 늘어나고 있다. 대규모 화재로 성장하는 것을 막기 위해 화재 발생 초기에 감지하고 화염 전파특성을 파악하여 화재를 진압하는 것이 절대적으로 필요하다. 따라서 화재 감지 기술뿐만 아니라 화염 영역 식별 기술이 큰 관심을 받고 있다. 또한 현장 적용성 향상을 위하여 저비용 및 고성능 화재 감지 기술 개발의 중요성이 더욱 높아지고 있다. 화재가 발생하면 수반되는 빛, 열 그리고 연기 등의 요소를 센서로 감지하는 연구가 활발하게 진행되고 있으나 좁은 감지 범위, 주변 온도 및 센서의 불량으로 인한 오작동, 화염 영역 검출의 어려움 등의 기술적 한계가 존재한다(1,2). 이와 같은 한계점을 개선하고자 화재 이미지 특징을 활용한 색상 공간 모델, 딥러닝(deep learning)기반 이미지 분할 모델 등을 이용하여 화재 감지와 더불어 화염 전파 특성을 파악하기 위한 화염 영역을 검출하는 연구가 활발하게 진행되고 있다(3-9).
Celik과 Demirel(10)은 YCbCr 컬러모델을 이용하여 규칙 기반 화염 픽셀 분류 기법을 제안하였다. 화재 및 비화재 이미지들로 구성된 시험 데이터 셋에 제안된 YCbCr 규칙을 적용하여 화염 이미지 픽셀을 검출한 결과 99%의 화재 검출율과 31.5%의 오검출율을 보였다. 특히 화재 이미지와 유사한 특징을 갖는 비화재 영역에 대한 오검출이 높은 것으로 나타났다. Celik(11)은 고정된 공간에서 연속된 이미지 프레임에 대하여 CIELab 컬러모델을 적용하여 화염 영역 픽셀을 검출하고 픽셀의 움직임을 분석하여 화재 경보를 발생시키는 기법을 제안하였다. 10개의 시험 영상을 이용하여 제안한 기법을 평가한 결과 99.8%의 높은 화재 검출 성능을 확인하였다. Venugopal(12)은 RGB와 YCbCr 컬러모델을 이용해 화염 영역 픽셀을 검출하는 규칙을 제안하였고, 화재 및 화염과 유사한 비화재 이미지 데이터 셋을 통해 화염 검출 성능을 평가하였다. 두 개의 컬러모델을 이용한 개선된 화염 영역 검출 방법은 99%의 높은 화염 검출율과 14%의 오검출율을 보였다. Munshi(13)는 RGB, YCbCr, 가우시안 혼합(gaussian mixture)기법을 적용한 HSV 등 3가지 컬러모델들을 이용하여 화염 픽셀 검출 성능을 비교분석 하였다. 비교분석 결과, 비화재 이미지에 대한 오검출율이 각각 27%, 28.6%, 20%로 확인되었다.
개선된 화염 검출을 위하여 딥러닝 기반의 이미지 분할 모델을 활용한 다양한 연구가 진행되고 있다. Bochkov와 Kataeva(14)는 이미지 분할 모델인 UNet을 2개 사용하여 일차적으로 화염 영역 검출에 대한 이진 결과(binary result)를 얻고 이를 바탕으로 빨강, 노랑, 주황의 화염 클래스를 구분하는 UUNet을 제안하였다. 모델 성능을 높이기 위하여 두 모델 사이의 스킵 연결(skip connection)을 확장한 wUUNet을 최종 제안하였다. 성능 평가 결과, wUUNet의 정확도가 80.23%로 나타났으며 UNet의 정확도 77.33%보다 향상됨을 확인하였다. Gonzalez 등(15)은 실시간 화염 영역 검출을 위해 single feature extraction with FCN AlexNet, single deconvolution (SFEwAN-SD) 신경망 모델을 제안하였다. 본 모델은 화염의 형상과 질감을 특성화하는 모델과 색상과 질감 특징으로 객체를 추출하는 모델로 두 개의 합성곱 신경망 모델을 통합한 구조를 갖는다. 모델의 화염 영역 검출 성능을 평가한 결과 94.76%의 정확도와 90.31%의 F1-score로 높은 화염 영역 검출 성능을 나타냈다. Yuan 등(16)은 흐린 연기 이미지에서 연기 영역을 검출하기 위해 FCN 기반 deep smoke segmentation 모델을 제안하였다. 이미지에서 보이는 연기의 질감, 색상 그리고 모양의 변화로 인한 왜곡을 줄이기 위해 이미지에서 전체적으로 연기 영역을 예측하여 맵(map)을 생성하는 성긴 경로(coarse path)와 예측한 영역을 기반으로 연기를 더 상세하게 검출하는 미세 경로(fine path)로 모델을 구성하였다. 연기를 모두 포함하고 각각 다른 배경 이미지를 갖는 3개의 시험 데이터 셋으로 연기 영역 검출 성능을 평가하였으며 평균 IoU 값이 기준 모델(SegNet)대비 약 23.39%의 개선율을 보였다.
화재 감지 및 화염 영역 검출을 위해 이미지 기반 컬러모델 및 딥러닝 기반 이미지 분할 모델에 관한 다양한 연구가 이루어지고 있다. 그러나 컬러모델의 경우 다양한 화재 이미지에 일반화된 규칙 적용이 제한적이며 특히 화염과 유사한 색상 정보를 갖는 비화재 영역에 대한 오검출의 문제점이 있다. 또한 딥러닝 기반 이미지 분할 모델의 경우 학습 및 추론을 위해 높은 연산 성능, 큰 저장공간, 긴 계산시간 등이 요구된다. 화재 안전 향상을 위해서는 엣지 컴퓨팅(edge computing) 기반의 실시간 화재 감지 시스템이 필수적이며 우수한 화염 영역 검출 성능뿐만 아니라 이미지 전처리 과정의 간소화, 화염 영역 검출 추론 시간의 단축이 요구된다. 따라서 본 연구에서는 효과적인 화염 영역 검출을 위해 화염 이미지 특징을 고려하여 적색 지배형 화염과 황색 지배형 화염을 구분한 YCbCr 규칙 기반의 컬러모델을 제안하고 모델 크기가 작고 추론 시간이 짧아 실시간 화재 감지에 유리한 YOLOv8 딥러닝 모델을 연계하여 YCbCr 컬러모델의 화염 영역 검출 성능을 개선하는 알고리즘을 제안하였다. 다양한 화재 및 비화재 이미지 데이터 셋을 이용하여 기존 YCbCr 컬러모델과 제안된 화염 검출 모델에 대한 화염 영역 검출 성능을 정량적으로 비교 분석하였다. 더하여 화재 발생 상황에 따른 화염 영역 검출 특성을 상세 분석하였다.

2. 연구방법

2.1 데이터 셋 구성

본 연구에서 제안한 객체 탐지 기법 적용 YCbCr 컬러모델의 화염 영역 검출 성능을 평가하기 위하여 다양한 상황에서 발생 되는 화재 이미지를 수집하여 총 26,000장의 화재 및 비화재 이미지 데이터 셋을 구성하였다. 화재 이미지는 차량 화재, 시가지 화재, 산불 화재 등의 실외 화재와 다양한 건축물 내 화재들로 이루어진 실내 화재 이미지들로 구성하였다. 비화재 이미지는 다양한 환경의 건물, 산, 시가지, 석양, 야경 등으로 구성되며 화염과 유사한 색상의 객체를 포함하는 이미지들도 포함되도록 하였다. Figure 1에 본 연구에서 이용한 데이터 셋에 대한 대표 이미지들을 나타냈다. 객체 탐지를 위한 YOLO 모델의 학습 및 검증을 위해서 화재 이미지 23,923장, 비화재 이미지 1,077장으로 구성하여 총 25,000장의 이미지 데이터를 이용하였다. 각 이미지 데이터는 9:1의 비율로 모델 학습을 위한 학습 데이터(training data), 학습 단계에서 모델의 객체 탐지 성능을 평가하는 검증 데이터(validation data)로 구분하였다. 전체 데이터 셋 중 제안된 화염 검출 모델의 성능을 평가하기 위한 시험 데이터(test data)는 화재 이미지 900장, 비화재 이미지 100장으로 총 1,000장의 이미지들로 구성하였다. 객체 탐지 모델의 학습과 제안된 화염 검출 모델의 성능평가를 위한 전처리 과정으로 640 × 640의 RGB의 입력 이미지를 Roboflow(17)를 이용하여 각 이미지의 화염에 바운딩 박스(bounding box)를 추가하고 성능평가를 위해 이미지별로 실제 화염 영역(ground truth)를 생성하였다.
Figure 1
Representative images for image dataset.
kifse-37-6-54-g001.jpg

2.2 기존 YCbCr 컬러모델 이용 화염 영역 검출 기법

본 연구에서는 이미지의 휘도(luminance)와 색차(chrominance)를 분리하여 화염 픽셀을 효과적으로 검출(18)하는 YCbCr 색상 공간을 이용하였으며 Celik과 Demirel(10)이 제안하는 YCbCr 컬러모델을 기준 모델로 활용하였다. 본 모델은 원본 이미지를 RGB 색상 공간에서 YCbCr 색상 공간으로 변환한다. 색상 공간 변환은 식(1)과 같으며 색상 변환 결과를 Figure 2에 나타냈다.
(1)
[YCbCr]=[0.25680.50410.09790.14820.92100.43920.43920.36780.0714][RGB]+[16128128]
Figure 2
Original RGB image and Y, Cb and Cr channel images.
kifse-37-6-54-g002.jpg
여기서 R, G, B는 각각 RGB 색상 공간에서의 빨강, 초록, 파랑의 채널이다. Y는 휘도, Cb는 청색차(chrominanceBlue), Cr은 적색차(chrominanceRed) 채널을 나타낸다.
YCbCr 색상 공간으로 변환된 이미지에 대한 Y, Cb, Cr 채널의 평균값(Ym, Cbm, Crm)은 다음 식(2)에서 식(4)를 이용하여 각각 계산한다.
(2)
Ym=1Ki=1Kj=1KY(xi,yj)
(3)
Cbm=1Ki=1Kj=1KCb(xi,yj)
(4)
Crm=1Ki=1Kj=1KCr(xi,yj)
여기서 K는 이미지 전체 픽셀 수를 의미하며 (xi, yj)는 픽셀의 이차원 공간정보를 나타낸다.
RGB 이미지에서 화염은 대체로 적색으로 표현되며 RGB 컬러 채널 값이 R > G > B의 특징을 갖는다. 이러한 규칙을 갖는 화염 픽셀을 검출하는 YCbCr 규칙은 식(5)와 같다.
(5)
F1(x,y)={1,      if Y(x,y)>Cb(x,y),           Cr(x,y)>Cb(x,y)0,     otherwise
일반적으로 주변보다 밝고 상대적으로 적색인 화염 픽셀을 검출하기 위해 휘도, 적색차 그리고 청색차의 평균을 이용하며 식(6)에 의해서 결정된다.
(6)
F2(x,y)={1,      if Y(x,y)>Ym,Cb(x,y)<Cbm,           Cr(x,y)>Crm0,     otherwise
또한 청색차와 적색차의 크기가 큰 화염 픽셀을 검출하기 위해 그 차이에 대한 임계값을 이용하여 식(7)에 의해서 검출된다. 위와 같이 화염을 특정하는 휘도와 색차 정보에 대한 식(5)에서 식(7)을 모두 만족하는 픽셀에 대해 최종 화염 영역으로 검출한다.
(7)
F3(x,y)={1,     if |Cb(x,y)Cr(x,y)|τ0,     otherwise
여기서 τ는 receiver operating characteristic (ROC)분석을 통해 결정되는 임계값으로 Celik과 Demirel(10)은 1000장으로 구성된 이미지 셋을 분석하여 임계값을 τ = 40으로 결정했다.

2.3 제안된 객체 탐지 기법 적용 YCbCr 컬러 모델 이용 화염 검출 기법

본 연구에서는 YCbCr 컬러모델이 화염과 유사한 색상 정보를 갖는 객체 또는 배경에 대해 오검출하는 것을 줄이고 화염 영역 탐지를 통해 이미지 배경의 영향성을 줄여 화염 특징을 정확하게 분석하고 검출하기 위해서 객체 탐지 딥러닝 모델인 YOLOv8을 적용하였다. 또한 화재 발생 및 이미지 촬영환경에 따른 화염 이미지 변화를 고려하여 적색 지배형 화염과 황색 지배형 화염으로 구분하여 화염을 검출할 수 있도록 YCbCr 규칙을 제안하였다. Figure 3에 객체 탐지 모델을 적용한 개선된 YCbCr 컬러모델 기반 화염 영역 검출 프로세스를 나타냈다. RGB 입력 이미지를 대상으로 최적화된 YOLOv8을 이용하여 화염 객체를 탐지하며 그 결과에 따라서 화재 및 비화재 이미지로 구분한다. 만약 화염 객체를 탐지하는 경우 객체 탐지 영역을 잘라내어 해당 영역에 대하여 YCbCr 색상 공간으로 변환한다. 선택된 화염 객체 영역에 대하여 제안된 YCbCr 규칙을 적용하여 탐지한 영역의 화염을 적색 지배형 화염 또는 황색 지배형 화염으로 구분하고 해당 화염을 검출한다. 이후 화염 영역 검출 결과를 바운딩 박스와 함께 원본 이미지에 표시하게 된다.
Figure 3
Procedure of proposed flame segmentation.
kifse-37-6-54-g003.jpg
화염 객체 탐지 영역에 대하여 제안된 YCbCr 규칙을 통한 화염 영역 검출 절차를 Figure 4에 나타냈다. 제안된 YCbCr 기법은 화염 객체 탐지 영역에 존재하는 화염의 주요 색상(적색 지배형 또는 황색 지배형)을 구분하는 Rule 1, 적색 지배형 화염을 검출하는 Rule 2, 황색 지배형 화염을 검출하는 Rule 3로 구성된다. Rule 1에서는 적색과 황색 이미지의 휘도 차이를 이용하여 임계값 기준 적색 지배형 화염과 황색 지배형 화염을 구분한다. 만약 Rule 1에 의해 적색 지배형 화염으로 판단되면 Rule 2에 의해서 화염 영역을 검출한다. 먼저 Rule 2-1에서 기존 YCbCr 컬러모델에 적용된 규칙으로 화염 영역을 검출한다. 더하여 Rule 2-2에서 일반적으로 적색 지배형 화염에 포함되는 황백색 화염을 휘도와 색차 정보를 활용하여 추가 검출한다. 만약 Rule 1에서 황색 지배형 화염으로 판단되는 경우 우선적으로 Rule 3-1에서 색차 정보를 활용하여 황백색 화염 영역을 검출한다. 더하여 Rule 3-2에서 화염과 주변 배경의 경계에서 형성되는 중간색 화염을 휘도와 색차 정보를 활용하여 추가 검출한다. 이후 화염 영역 검출 결과 이용하여 원본 이미지에 화염 영역을 표시하게 된다.
Figure 4
Proposed YCbCr rules for flame segmentation.
kifse-37-6-54-g004.jpg

2.4 데이터 분석 방법

화염 영역 검출 성능을 평가하기 위해서 기존 YCbCr 컬러모델, 객체 탐지 기법 적용 기존 YCbCr 컬러모델, 객체 탐지 기법 적용 개선된 YCbCr 컬러모델에 대하여 intersection over union (IoU) 값을 비교 분석하였다. IoU는 이미지의 실제 화염 영역(ground truth)과 예측된 화염 영역(predicted flame region)의 유사도를 나타내는 값으로 식(8)에 의해서 결정된다.
(8)
IoU[%]=areaofoverlapareaofunion×100
더하여 혼동 행렬(confusion matrix)을 이용하여 각각의 모델에 대하여 화재 및 비화재 예측성능을 Table 1과 같이 확인하였다. 시험용 화재 이미지에 대한 IoU 값이 50% 이상이면 화재(TP)로 판단하고, 50% 미만이면 비화재(FN)로 판단하였다. 비화재 이미지에 대해서는 연속적으로 10 픽셀 이상 화염 영역으로 검출하는 경우 화재(FP), 10 픽셀 이하로 화염 영역을 검출하는 경우 비화재(TN)로 판단하였다. 이러한 결과를 바탕으로 예측된 화재 이미지 중 실제 화재인 비율을 나타내는 정밀도(precision), 실제 화재 이미지 중 화재라고 예측한 비율을 나타내는 재현율(recall), 정밀도와 재현율의 조화평균을 나타내는 F1-score를 식(9)에서 식(11)을 이용하여 각각 계산하여 화재 및 비화재 예측성능에 대하여 정량적 평가를 진행하였다.
(9)
Precision[%]=TPTP+FP×100
(10)
Recall[%]=TPTP+FN×100
(11)
F1score[%]=2×Precision×RecallPrecision+Recall×100
Table 1
Confusion Matrix
Predicted
Positive Negative
Actual Positive True Positive (TP) False Negative (FN)
Negative False Positive (FP) True Negative (TN)

3. 연구 결과 및 고찰

3.1 기존 YCbCr 컬러모델의 화염 영역 검출 성능 결과

화재 및 비화재 이미지로 구성된 1000장의 시험 데이터 셋을 이용하여 기존 YCbCr 컬러모델의 화염 영역 검출 성능을 평가 및 분석하였다. 화염 영역 검출 성능을 평가한 결과, 기존 YCbCr 컬러모델의 평균 IoU 값은 47.8%로 나타났다. 화염 영역 검출 상세 특성 파악을 위하여 시험 이미지별 검출 성능 결과를 분석하였으며 Figure 5에 대표적인 검출 성능 결과를 나타냈다. 이미지 내 화염이 뚜렷하고 화염 이외 영역에 화염과 유사한 색상의 객체가 없는 경우 상대적으로 높은 화염 영역 검출 성능을 보이고 있으며 해당 대표 이미지인 Figure 5(a)의 경우 IoU 값이 86.1%로 높게 나타났다. 그러나 이미지 내 화염은 뚜렷하나 화염과 유사한 색상의 객체가 포함되는 경우 화염뿐만 아니라 화염과 유사한 객체도 같이 검출되었으며 Figure 5(b)의 경우 IoU 값이 약 12.4%로 낮은 검출 성능을 보였다. Figure 5(c)와 같이 어두운 공간에서의 화재 이미지에서 화염이 황백색일 경우 화염 영역을 거의 검출하지 못하고 화염 경계면 일부와 주변 반사광 영역을 검출함으로써 IoU 값이 약 20.6%로 낮게 나타났다. Figure 5(d)의 산불 화재 이미지와 같이 화염 중심의 고온부가 상대적으로 밝은색일 경우 화염 중심부에 대한 검출 성능이 낮은 것으로 나타났으며 본 이미지에 대한 IoU 값은 약 53.4%로 낮게 나타났다. Figure 5(e)와 같이 화염 객체가 없는 일반 이미지에서도 화염과 유사한 색상의 객체를 화염 영역으로 검출하였다. 이처럼 기존 YCbCr 컬러모델은 화염과 유사한 색상의 객체와 상대적으로 밝은 황백색 화염에 대한 검출 성능이 낮으며 화재 발생 환경에 따른 전체 이미지 색상 변화에 적응성이 낮은 것으로 판단된다.
Figure 5
Flame segmentation results for only-YCbCr.
kifse-37-6-54-g005.jpg

3.2 객체 탐지 기법 적용 YCbCr 컬러모델의 화염 영역 검출 성능 결과

본 연구에서 제안된 화염 영역 검출 모델의 화염 객체 탐지 모델로 YOLOv8을 사용하였다. YOLOv8은 1단계 탐지(1- stage detection) 방식을 사용하여 분류(classification)와 지역화(localization)를 동시에 수행하고 객체의 중심과 크기를 직접 예측함으로써 모델의 학습 및 추론 시간이 단축되어 실시간 객체 탐지에 적합하다. 미리 훈련된 YOLOv8 모델을 호출하고 화염 이미지 데이터 셋을 이용하여 전이 학습(transfer learning)을 진행하였다. 또한 화염 탐지 모델의 성능 향상을 위해 하이퍼파라미터(hyperparameter)를 최적화하였다. 최적화된 YOLOv8 모델을 이용하여 화재 및 비화재 이미지로 구성된 1000개의 시험 데이터 셋에 대하여 객체 탐지 및 성능평가를 진행하였다. 성능평가 결과, YOLOv8의 탐지된 화염 중 실제 화염 비율을 나타내는 정밀도는 약 90.4%, 실제 화염 중 탐지된 화염 비율을 나타내는 재현율은 약 89.4%로 나타났다. 객체 인식 알고리즘의 검출 성능지표로 활용되는 mean average precision (mAP)는 94.8%로 높은 객체 탐지 성능을 보이는 것으로 확인되었으며 precision-recall (PR) 곡선을 Figure 6에 나타냈다.
Figure 6
PR (precision-recall) curve.
kifse-37-6-54-g006.jpg
기존 YCbCr 컬러모델 성능평가에 사용된 시험 데이터 셋을 이용하여 객체 탐지 기법 적용 YCbCr 컬러모델에 대하여 화염 영역 검출 및 화재 예측성능에 대한 정량적 평가를 진행하였으며 기존 YCbCr 컬러모델의 결과와 함께 Figure 7에 나타냈다. 먼저 IoU 기반 화염 영역 검출 성능평가 결과, 객체 탐지 기법 적용 기존 YCbCr 모델과 객체 탐지 기법 적용 개선된 YCbCr 모델의 평균 IoU 값이 각각 57.0%, 63.2%로 나타났으며 기존 YCbCr 모델 성능 대비 각각 9.2%, 15.4% 개선되었다. IoU 기반 화재 예측성능에 대하여 정밀도, 재현율, F1-score를 이용하여 정량적 평가를 진행하였다. 기존 YCbCr 모델, 객체 탐지 기법 적용 기존 YCbCr 모델, 객체 탐지 기법 적용 개선된 YCbCr 모델 순으로 모든 정량적 평가지표가 높게 나타났다. 본 연구에서 제안한 객체 탐지 기법 적용 개선된 YCbCr 모델의 경우 기존 YCbCr 모델 대비 정밀도, 재현율, F1-score 값이 각각 15.9%, 28.2%, 24.7% 개선되었다. 이러한 결과는 화염 객체 탐지를 통한 화염 영역 외 공간의 화염 오검출을 방지하고 화재 발생 환경에 따른 다양한 색상 화염에 대한 검출 성능 개선에 의한 것으로 판단된다.
Figure 7
Comparison on prediction performance of the flame segmentation models.
kifse-37-6-54-g007.jpg
객체 탐지 기법 적용 개선된 YCbCr 컬러모델의 화염 영역 상세 검출 성능 파악을 위하여 실내 화재, 실외 화재, 비화재 이미지로 구분하고 기존 YCbCr 컬러모델, 객체 탐지 기법 적용 기존 YCbCr 컬러모델의 결과와 비교 분석하였다. 실내 화재 이미지에 대한 제안된 모델의 대표 성능 결과를 기존 YCbCr 컬러모델의 결과와 함께 Figure 8에 나타냈다. Figure 8(a)의 경우 기존 YCbCr 모델에서 화염 이미지와 유사한 색상을 갖는 객체에 대해서 화염으로 검출하는 것을 객체 탐지 기법의 적용으로 개선하였으며 개선된 YCbCr 모델에 의해서 황백색 화염을 추가로 검출하여 화염 검출 성능이 개선되는 것으로 나타났다. Figure 8(b)의 경우 기존 YCbCr 모델은 화염 중심의 고온 영역을 검출하지 못하였으나 제안된 모델에서는 적색 지배형 화염의 황백색 검출 YCbCr 규칙에 의해서 화염 중심부를 추가 검출하여 검출 성능이 개선됨을 확인하였다. Figure 8(c)에는 화염을 포함하며 조명 및 주변 객체 색상이 화염과 유사할 경우 기존 YCbCr 모델은 모두 화염으로 검출하고 있으나 객체 탐지 기법의 적용으로 화염 영역 검출 성능이 크게 개선됨을 확인하였다. Figure 8(d)와 같이 황백색 화염이 빛에 의해 화염 가장자리에 번짐이 생기는 경우 기존 YCbCr 모델의 경우 화염이 아닌 주변부를 화염 영역으로 검출하고 있으나 객체 탐지 기법으로 화염 객체를 탐지하고 황색 지배형 화염 검출 YCbCr 규칙을 적용하여 검출 성능이 향상되는 것으로 나타났다.
Figure 8
Comparison on flame segmentation with IoU values of flame segmentation models based on indoor fire dataset.
kifse-37-6-54-g008.jpg
시험 데이터 셋 중 실외 화재 이미지에 대한 제안된 모델과 기존 YCbCr 컬러모델의 대표 성능 결과를 Figure 9에 나타내었다. Figure 9(a)의 경우 기존 YCbCr 모델은 화염 반사광 영역을 화염으로 오검출하고 화염 중심부 고온 영역은 미검출하는 특징을 보인다. 그러나 제안된 모델에서는 화염 객체 탐지를 통하여 반사광 영역에 대한 오검출을 차단하고 황백색 화염 검출 YCbCr 규칙을 통하여 화염 중심부 영역이 검출되는 것으로 나타났다. Figures 9(b)9(c)와 같이 화염 중심 일부가 밝은 화염을 포함하고 있는 경우 기존 YCbCr 모델도 양호한 화염 검출 성능을 보이고 있으나 제안된 YCbCr 기법으로 화염 중심 영역을 추가 검출하여 소폭 검출 성능이 개선되는 것으로 확인되었다. Figure 9(d)와 같이 야간 화재에서 저조도로 인해 화염이 황백색일 경우 기존 YCbCr 모델은 화염 주변 반사광 영역을 화염으로 오검출하였다. 그러나 제안된 모델은 객체 탐지를 통해 화염 검출 영역을 제한하고 황색 지배형 화염 YCbCr 규칙을 적용하여 검출 성능이 크게 개선되었다.
Figure 9
Comparison on flame segmentation with IoU values of flame segmentation models based on outdoor fire dataset.
kifse-37-6-54-g009.jpg
비화재 이미지에 대한 제안된 모델과 기존 YCbCr 컬러모델의 대표 화염 영역 검출 결과를 Figure 10에 나타냈다. Figures 10(a)10(c)와 같이 화염과 유사한 특징을 갖는 노을, 적색 계열의 객체, 조명 등을 포함하는 이미지들에 대하여 기존 YCbCr 모델의 경우 화염으로 오검출하고 있다. 그러나 제안된 모델의 경우 화염 객체 탐지 기법의 적용으로 오검출이 없는 것으로 나타났다. 하지만 Figure 10(d)와 같이 화염과 유사한 객체를 포함하지 않는 비화재 이미지에서는 기존 YCbCr 모델 및 제안된 모델 모두 오검출을 하지 않는 것으로 나타났다.
Figure 10
Comparison on flame segmentation of flame segmentation models based on non-fire dataset.
kifse-37-6-54-g010.jpg
본 연구에서 제안한 모델은 기존 YCbCr 컬러모델 대비 높은 화염 검출 성능을 나타냈으나 모델의 강건성을 높이기 위해서는 개선이 필요하다. 상세 검출 결과 분석을 통하여 요구되는 주요 개선점을 Figure 11에 나타내었다. 제안한 YCbCr 규칙도 휘도 정보에 임계값을 적용하여 적색 또는 황색 지배형 화염을 검출하고 있으나 Figure 11(a)와 같이 화재 발생 및 이미지 수집 환경에 따라서 일부 화염 이미지들에 해당 규칙이 올바르게 적용되지 않는 경우가 발생하였다. 또한 Figure 11(b)와 같이 적용된 객체 탐지 모델이 일부 또는 전체 화염 객체를 탐지하지 못한 경우 화염 영역 검출 성능이 낮아지는 한계를 보였다. 추후 다양한 환경의 화염 이미지들에 대한 색상 분석을 진행하여 최적의 임계값을 도출하고 객체 탐지 모델의 예측성능을 개선할 필요가 있을 것으로 판단된다.
Figure 11
Incorrect segmentation cases of proposed model.
kifse-37-6-54-g011.jpg

4. 결 론

본 연구에서는 기존 YCbCr 컬러모델의 화염 영역 검출 성능을 개선하기 위하여 객체 탐지 모델인 YOLO를 연계한 개선된 YCbCr 컬러모델을 제안하였다. 다양한 화재 및 비화재 이미지 데이터 셋을 이용하여 화염 영역 검출 성능을 정량적으로 분석한 결과 아래와 같은 결론을 얻었다.
  • - YOLO 기반 화염 객체 탐지는 화염과 유사한 색상을 갖는 객체에 대한 검출을 차단하였고 제안된 YCbCr 규칙은 적색 지배형 화염과 황색 지배형 화염을 구분하여 검출함으로써 화염 영역 검출 성능을 향상시켰다.

  • - 객체 탐지 기법 적용 개선된 YCbCr 모델은 기존 YCbCr 모델 대비 화염 영역 검출 성능을 나타내는 IoU 값이 약 15.4% 개선되었다.

  • - 화재 예측성능에 대한 정량적 평가 결과 제안된 모델의 정밀도, 재현율, F1-score 값이 기존 YCbCr 모델 대비 각각 15.9%, 28.2%, 24.7% 개선되었다.

추후 실시간 화재 감지 및 화염 영역 검출시스템 적용을 위해서 제안된 모델의 화염 영역 검출 성능 개선, 연기 영역 검출 기법 추가, 강건성 향상을 위한 기법 최적화 등에 관한 연구를 진행할 예정이다. 더하여 현장 적용성 향상을 위하여 기존 화재 감지 시스템과의 연계 방안을 검토하고 개발된 기술이 탑재된 화재 감지 시스템에 대한 경제성 분석을 수행할 예정이다.

후 기

본 연구는 국토교통부/국토교통과학기술진흥원의 지원(RS- 2022-00156237)으로 수행되었으며 이에 관계제위께 감사드립니다.

References

1. D. E Kim, S. K Kim, Y. S Lee, C. H Lee and W. S Lim, “A Study on the Characteristics of an Optical Sensor Linear Fire Detection System with Miniature Model Fire Experiment”, Fire Science and Engineering, Vol. 30, No. 2, pp. 19-26 (2016), https://doi.org/10.7731/KIFSE.2016.30.2.019.
crossref
2. B. K Seo and S. G Nam, “Study of the Improvement of False Fire Alarms in Analog Photoelectric Type Smoke Detectors”, Fire Science and Engineering, Vol. 30, No. 5, pp. 108-115 (2016), https://doi.org/10.7731/KIFSE.2016.30.5.108.
crossref
3. Y. J Kim and E. G Kim, “Image based Fire Detection Using Convolution Neural Network”, Journal of the Korea Institute of Information and Communication Engineering, Vol. 20, No. 9, pp. 1649-1656 (2016), https://doi.org/10.6109/jkiice.2016.20.9.1649.
crossref
4. S. W Jeong and J. H Yoo, “i-FireNet:A Lightweight CNN to Increase Generalization Performance for Real-Time Detection of Forest Fire in Edge AI Environments”, Journal of Institute of Control, Robotics and Systems, Vol. 26, No. 9, pp. 802-810 (2020), https://doi.org/10.5302/J.ICROS.2020.20.0033.
crossref
5. S. H Ahn, Y. H Park and B. I Moon, “A Forest Fire Warning System Capable of Real-Time Detection based on Artificial Intelligence”, The Journal of Korean Institute of Information Technology, Vol. 21, No. 3, pp. 61-73 (2023), https://doi.org/10.14801/jkiit.2023.21.3.61.
crossref
6. H Yar, Z. A Khan, F. U M. Ullah, W Ullah and S. W Baik, “A Modified YOLOv5 Architecture for Efficient Fire Detection in Smart Cities”, Expert Systems With Applications, Vol. 231, pp. 120465(2023), https://doi.org/10.1016/j.eswa.2023.120465.
crossref
7. F. M Talaat and H ZainEldin, “An Improved Fire Detection Approach Based on YOLO-v8 for Smart Cities”, Neural Computing and Applications, Vol. 35, pp. 20939-20954 (2023), https://doi.org/10.1007/s00521-023-08809-1.
crossref
8. N Dung, B. G Choi and S. H Ro, “A Study on the Fire Detection Algorithm Using Surveillance Camera Systems”, The Journal of Korea Institute of Communications and Information Sciences, Vol. 43, No. 6, pp. 921-929 (2016), https://doi.org/10.7840/kics.2018.43.6.921.
crossref
9. J. K Ryu and D. K Kwak, “Flame Detection Based on Deep Learning Using HSV Color Model and Corner Detection Algorithm”, Fire Science and Engineering, Vol. 35, No. 2, pp. 108-114 (2021), https://doi.org/10.7731/KIFSE.30befadd.
crossref
10. T Celik and H Demirel, “Fire Detection in Video Sequences Using a Generic Color Model”, Fire Safety Journal, Vol. 44, No. 2, pp. 147-158 (2009), https://doi.org/10.1016/j.firesaf.2008.05.005.
crossref
11. T Celik, “Fast and Efficient Method for Fire Detection Using Image Processing”, ETRI Journal, Vol. 32, No. 6, pp. 881-890 (2010), https://doi.org/10.4218/etrij.10.0109.0695.
crossref
12. V Venugopal, “Image Processing Based Forest Fire Detection”, International Journal of Advanced Research in Engineering &Technology, Vol. 2, No. 2, pp. 87-95 (2012).

13. A Munshi, “Fire Detection Methods Based on Various Color Spaces and Gaussian Mixture Models”, Advances in Science and Technology Research Journal, Vol. 15, No. 3, pp. 197-214 (2021), https://doi.org/10.12913/22998624/138924.
crossref
14. V. S Bochkov and L. Y Kataeva, “wUUNet:Advanced Fully Convolutional Neural Network for Multiclass Fire Segmentation”, Symmetry, Vol. 13, No. 1, pp. 98(2021), https://doi.org/10.3390/sym13010098.
crossref
15. A Gonzalez, M. D Zuniga, C Nikulin, G Carvajal, D. G Cardenas, M. A Pedraza, R. I Munoz, C. A Fernandez and et al, “Accurate Fire Detection through Fully Convolutional Network”, 7th Latin American Conference on Networked and Electronic Media, pp. 1-6 (2017), https://doi.org/10.1049/ic.2017.0026.
crossref
16. F Yuan, L Zhang, X Xia, B Wan, Q Huang and X Li, “Deep Smoke Segmentation”, Neurocomputing, Vol. 357, pp. 248-260 (2019), https://doi.org/10.1016/j.neucom.2019.05.011.
crossref
18. H. S Lee and W. H Kim, “The Flame Color Analysis of Color Models for Fire Detection”, The Journal of Korea Society of Communication and Space Technology, Vol. 8, No. 3, pp. 52-57 (2013), https://www.earticle.net/Article/A209485.



ABOUT
BROWSE ARTICLES
EDITORIAL POLICY
AUTHOR INFORMATION
Editorial Office
Room 906, The Korea Science Technology Center The first building, 22, Teheran-ro 7 Gil, Gangnam-gu, Seoul, Republic of Korea
Tel: +82-2-555-2450/+82-2-555-2452    Fax: +82-2-3453-5855    E-mail: kifse@hanmail.net                

Copyright © 2024 by Korean Institute of Fire Science and Engineering.

Developed in M2PI

Close layer
prev next