Fire Sci. Eng. Search

CLOSE


Fire Sci. Eng. > Volume 37(3); 2023 > Article
증강현실을 활용한 영상 기반 소방시설 점검 시스템

요 약

오늘날 디지털 기반의 산업 구조 발전에 따라 건설산업에서도 스마트 기반 기술을 구축하고 있으며, 무인화 및 자동화 기술로 인해 신규 건축물이 증가하고 있다. 이러한 건축물의 증가로 소방시설물의 설치 또한 증가하고 있지만, 이를 관리하고 점검할 인력에 대한 부족과 아날로그 방식의 점검 시스템으로 인해 지속적인 유지 관리가 어려운 실태이다. 본 논문에서는 이러한 문제점을 완화하기 위해 소방시설 점검 시스템에 대한 기술적인 개선방안을 제안한다. 인공지능과 증강현실을 바탕으로 소방시설 점검 시스템을 구축하고, 웨어러블 디바이스를 이용하여 소방시설 점검을 수행한다. 소방시설물을 인식하기 위해 5종의 소방시설물 데이터를 구축하고 YOLOv4 모델을 학습한 결과, 5종 소방시설물 데이터셋의 평균 정확도 93.6%의 성능을 보여주었다. 본 논문에서 제안한 소방시설 점검 시스템은 더욱 편리하고 신뢰성 있는 점검을 수행하고, 소방안전 전문가뿐만 아니라 일반인들에게도 올바른 소방시설 점검 체계를 학습할 수 있도록 함으로써 시설 관리와 소방안전에 기여할 수 있을 것으로 기대된다.

ABSTRACT

With the rapid development of digital-based industrial structures, the construction industry is also rapidly adopting smart-based technologies and unmanned automation, leading to an increase in the construction of new buildings. To protect against fire, disasters, and other emergency situations, installing firefighting facilities is mandatory , and continuous management is required. However, owing to the increase in new buildings, the installation of firefighting facilities is increasing, but the manpower to manage and inspect these firefighting facilities is lacking. In this paper, a technical improvement plan is proposed for the existing analog method of facility inspection. By combining deep learning algorithm and augmented reality, a fire protection inspection system is developed and inspections are performed through wearable devices. To train the object detection model, we built a dataset of five types of firefighting facilities. The trained YOLO v4 model achieved a performance accuracy of 93.6%. The proposed system is expected to perform more convenient and reliable inspections and to help with fire safety management by enabling both fire safety professionals and the general public to learn about fire protection inspection systems and perform self-inspections.

1. 서 론 

최근 산업의 구조가 디지털 기반 경제 중심으로 변경되며 기존의 아날로그 방식의 산업은 점차 사라지고 있다. 이러한 변화는 제조업과 서비스업의 융합으로 이어지며 더욱 스마트화한 서비스를 제공하기 위해 계속해서 발전하고 있다. 산업 구조의 디지털화에 따라 건설산업에서도 스마트 기반 기술을 활용하고 있는 추세이다. 스마트 기술은 무인화 및 자동화 시스템 구축의 기반이 되어 빠르게 발전하여 신규 건축물의 건설 증가로 이어진다(1).
건축물은 화재와 재난⋅재해, 그 밖의 위급한 상황으로부터 보호하기 위해 법률 제18661호 「소방시설 설치 및 관리에 관한 법률」에 따라 소방시설물을 설치하고 관리해야 할 의무가 있다. 신규 건축물의 증가는 소방시설물 설치와 관리해야 할 시설물의 증가로 이어진다. 소방점검은 소방안전관리자 및 보조 기술인력 2명이 수행하며 하루 동안 점검할 수 있는 면적은 10,000 m2~12,000 m2로 제한되어 있다. 관리해야 할 소방시설의 증가에 따라 소방시설관리사의 책임 대상은 증가하고 있지만, 점검을 수행할 인력은 그에 비해 부족한 현실이다(2). 이는 소방시설관리사의 점검에 대한 부담과 업무 피로도를 증가시켜 소방점검에 대한 질이 감소할 우려가 있다. 즉, 모든 소방점검을 소방시설 점검자가 직접 수행하기에는 인력 및 시스템의 측면에서 어려움이 있다(3). 기존의 소방점검은 아날로그 방식으로 진행되고 있으며, 점검 결과를 수기로 작성하여 전달한다. 이러한 기존의 점검제도는 데이터베이스화되어있지 않아 행정 처리에 대한 지연이 발생할 수 있어 신속한 처리가 필요한 중대 위험요인 상황에서 방해 요소로 작용한다. 따라서 소방점검 시스템에 대한 기술적인 개선방안이 필요하다.
딥러닝 기반의 실시간 객체탐지 기술이 발전함에 따라 재난 및 안전 관련 분야에 이를 적용한 연구들이 진행되고 있다. closed-circuit television (CCTV)을 통해 촬영되는 영상에서 화재, 사람 등을 인식하여 실시간으로 재난 및 안전관리가 가능한 시스템(4)과 위험사고가 빈번하게 발생하는 건설현장과 같은 곳에서 안전관리를 위해 안전모와 건설기계를 딥러닝을 활용하여 탐지하는 모델에 관한 연구(5)를 예로 들 수 있다. 실내 소방안전과 관련해서는 지하 공동구에서 발생하는 화재를 방지하기 위해 딥러닝을 활용한 사례도 있다. 지하 공동구는 긴 연장의 구조물이 연속적으로 설치되어 있어 작업자의 위치와 소화기의 위치를 정확히 판단하기 어렵다. 하지만 화재가 발생할 경우 소방설비에 대한 위치 파악이 화재의 초기 진압을 위해서는 중요한 요소로 작용한다. 이를 위해 지하 공동구에 대한 디지털 트윈 모델을 구축하여 실시간으로 화재 발생을 추적하고, 소화기의 위치를 파악하여 공동구 작업자에게 빠르게 전달할 수 있도록 시스템을 구축하였다. 이때 지하 공간에 설치된 CCTV 영상을 바탕으로 공동구의 구조를 학습하였으며, 소화기의 경우 CCTV 영상에서 추출한 데이터를 사용하여 객체인식 하는 모델을 학습하였다. 이때 사용한 객체인식 모델은 실시간 검출을 위해 1-stage detector 방식을 이용하였으며, CCTV가 설치된 위치에 따라 촬영된 소화기 이미지를 거리별로 구분하여 모델을 테스트하며 연구를 진행하였다(6).
이처럼 화재 및 재난으로부터 안전을 위해 인공지능을 활용한 연구가 많이 진행되고 있지만, 소방시설 점검을 위한 점검제도의 기술적 측면의 선도적인 연구는 미미한 실정이다. 따라서 본 논문에서는 앞서 살펴본 기존의 소방시설점검 제도에 대한 문제점을 해결하고 효율적인 점검을 지원하기 위해 증강현실과 딥러닝 알고리즘을 활용한 소방시설 점검 시스템을 제안한다.

2. 점검 시스템

2.1 소방시설 점검 시스템 아키텍처

본 장에서는 소방시설 점검 시스템의 구조 및 기능에 관해 설명한다. 제안하고자 하는 점검 시스템은 augmented reality (AR) 글래스를 이용하여 실행하며, Figure 1과 같이 시스템의 구조는 두 가지 모듈로 구분한다. detection module에서는 점검을 진행하고자 하는 소방시설물을 딥러닝 모델을 통해 객체 인식하고, 그 결과를 시스템에 전달하여 점검 상태를 업데이트한다. 점검자는 업데이트된 결과를 visualization module인 소방시설 점검 애플리케이션을 통해 확인할 수 있으며, 이를 바탕으로 소방시설물에 대한 점검 항목을 평가한다. 소방시설물 객체 인식 모델 구축에 대해서는 다음 장에서 다룬다.
Figure 1
System architecture of firefighting facilities inspection system.
kifse-37-3-41-g001.jpg

2.1.1 Detection Module

소방시설 점검 시스템에서 소방시설물을 인식하기 위해 딥러닝 모델을 학습하여 소방시설물에 대한 객체 인식을 수행한다. AR 디바이스의 카메라를 통해 캡쳐된 소방시설물 이미지는 서버로 전달되어 딥러닝 모델로 들어가고, 어떤 소방시설물인지 탐지하여 결과를 출력한다. 이미지 기반의 딥러닝은 모델의 구조에 따라 높은 계산량이 요구되며 객체 인식을 수행하기 위해서는 딥러닝 모델의 계산량을 감당할 수 있는 수준의 graphic processing unit (GPU)가 필수적이다. 본 시스템에서는 더욱 빠르고 유연한 연산 처리를 수행하기 위해 AR 디바이스가 지원하는 것보다 높은 성능의 GPU를 탑재한 서버를 사용한다. 이때 서버와 AR 디바이스는 transmission control protocol/internet protocol (TCP/IP) 통신 방식을 통해 이미지와 객체 인식 결과를 주고받는다. TCP/IP 통신 방식은 서버와 디바이스 간의 통신을 위한 소켓을 생성하고 IP 주소, 포트 번호와 같은 주소 정보를 할당한다. 시스템은 서버 주소에 접근하여 소켓에 연결하면 서로 통신하며 데이터를 주고받을 수 있게 된다.

2.1.2 Visualization Module

증강현실 기반 소방시설 점검 시스템은 AR 디바이스를 통해 사용하기 위해 유니티 환경을 바탕으로 시스템의 user interface /user experience (UI/UX)를 구축한다. 건물에 있는 소방시설물을 효율적으로 관리하기 위해서는 시설물이 설치된 위치와 정보를 정확하게 파악하는 것이 중요하다. 이를 위해, 문서로 존재하는 건물의 도면을 디지털 도면으로 제작하고 시설물의 위치를 point of internet (POI) 정보를 바탕으로 매핑하여 점검자에게 제공한다. 건물에 대한 2D/3D 공간정보와 객체정보를 수집하여 도면용 XML을 생성하고, 도면을 제작하기 위해 벽, 문, 창문 등의 요소를 바탕으로 시각화한다. 생성된 디지털 도면에는 소방시설물의 위치 정보를 매핑하고, 시설물 별 아이콘을 생성하여 도면에 가시화하여 시스템에서 점검자가 시설물을 보다 쉽게 파악할 수 있도록 한다. 본 시스템에서는 총 5가지 소방시설물인 붉은색 소화기, 은색 소화기, 소화전, 연기감지기, 비상구 유도등에 대한 점검을 지원하며, 점검 시 소방시설물의 아이콘은 상태에 따라 색상을 다르게 구분하여 점검 상태를 파악할 수 있도록 하였다. 점검하기 전의 소방시설물은 회색으로 표시되며, 객체 인식된 소방시설물은 주황색으로 표시되며 아이콘 클릭 시 소방시설을 점검할 수 있는 항목이 출력된다. 소방시설 점검 항목에 대한 평가를 완료하면 점검 상태에 따라 아이콘의 색상이 변경된다. 점검 상태가 정상일 경우 녹색, 점검 항목 중 1개 이상이 불량일 경우 빨간색으로 표시된다.

2.2 소방시설 점검 객체인식 학습모델

본 논문에서 제안한 소방시설 점검 시스템은 딥러닝 모델을 활용하여 소방시설물을 자동으로 객체인식 하여 점검을 수행할 수 있도록 객체인식 모델을 학습하여 사용한다. 우선 본 절에서는 기존 연구에서는 소화기 2종, 옥내 소화전, 화재 감지기, 비상구 유도등으로 구성된 5종의 소방시설물 데이터셋을 직접 구축하여 모델을 학습한 결과에 대해 설명한다. 다음으로 AI hub에서 공개한 데이터셋인 다중밀집시설 및 주거시설 화재 안전 데이터셋을 바탕으로 학습한 소방시설물 객체인식 모델의 학습 및 성능에 대해 설명하고 기존의 직접 구축한 데이터셋으로 학습한 모델과 그 결과를 비교 분석한다.
다중밀집시설 및 주거시설 화재 안전 데이터셋을 사용한 객체 인식 모델은 두 가지 사항을 고려하여 실험을 설계하였다. 첫 번째로는 각각의 소방시설물을 객체 인식할 수 있도록 준수 데이터셋만을 이용하여 학습한 후 클래스별 average precision (AP)와 mean average precision (mAP)를 바탕으로 모델의 성능과 학습의 유효성을 분석한다. 두 번째 실험은 준수와 미준수를 구분할 수 있는지에 대해 판단하기 위해 각 레이블별 준수, 미준수 데이터를 학습한 후 첫 번째 실험과 같이 모델 성능 평가 및 분석을 수행한다.

2.2.1 자체 구축 5종 소방시설물 데이터셋 학습 모델(7)

리눅스 기반의 우분투(Ubuntu 16.04)에 YOLO 학습을 위한 darknet framework를 구성하고, GPU (NVIDIA GeForce GTX 1080 Ti), Python (3.7.10), CUDA (11.1), cuDNN (8.0.5), OpenCV (4.4.0)와 같이 학습 환경을 구성하여 실험을 진행한다.
소방시설물 점검 시스템에 활용될 딥러닝 모델은 실시간으로 증강현실 디바이스로부터 이미지를 받아 서버로 전달하여 객체 인식을 수행해야 한다. 따라서 빠르고 정확하게 객체를 탐지할 수 있는 1-stage detector 기반의 YOLO(8) 알고리즘을 학습모델로 선택하였다. 1-stage detector는 객체 인식을 하나의 회귀 문제로 접근하여 이미지 내의 객체를 찾아 bounding box를 예측하고 동시에 어떤 객체인지 확률을 계산하여 분류한다. 모델의 구조 또한 기존의 R-CNN과 같은 2-stage detector에 비해 간단하기 때문에 처리 속도가 빠르고 실시간 객체 인식에 적합하다.
본 연구에서 사용된 YOLOv4(9)는 darknet framework 기반으로 개발되었으며 작은 물체에 대한 인식 성능을 높이고 학습 속도 지연 문제를 해결한 모델이다. 이전 모델인 YOLOv3의 backbone을 CSPDarknet53으로 설계하고, SPP와 path aggregation network (PAN)를 적용해 기존 대비 AP가 10% 정도 향상된 성능을 보여준다. Figure 2에서 YOLOv4의 학습 플로우를 확인할 수 있다. 이때, 모델의 네트워크 구조 상에서 객체를 인식하여 바운딩 박스를 생성하는 것은 dense prediction에서 구현된다. Anchor 기반으로 바운딩 박스를 예측하며, Neck 네트워크에서 생성된 최종 feature map에서 입력 이미지 상에 존재하는 객체를 추론한 박스의 좌표와 중심부의 좌표, 그리고 박스 내에 물체가 존재하는 확률값인 confidence score을 바탕으로 인식한 객체에 레이블과 함께 표시한다.
Figure 2
Learning flowchart of YOLOv4 model.
kifse-37-3-41-g002.jpg
YOLOv4 Tiny(10) 모델은 YOLOv4의 경량화된 버전으로 하드웨어의 성능이 낮은 임베디드와 같은 환경에서도 효율적으로 구현될 수 있도록 최적화된 모델이다. 제안된 소방시설 점검 시스템은 서버상에서 통신을 통해 객체를 검출하고 있지만, 추후 서버를 사용하지 않고 단일 디바이스만으로 시스템을 사용할 수 있도록 경량화에 관한 연구도 필요하다. 따라서 경량화된 모델인 YOLOv4 Tiny를 학습하여 시스템에 적용할 수 있는지에 대해 결과를 비교 분석한다.
모델을 학습하기 위해 사용한 모델 파라미터는 AlexyAB(9)가 제안한 방법에 따라 설정하여 적용하였다. 학습 이미지의 input size는 416 × 416이며, max_batches의 경우 학습할 클래스의 개수 × 2000으로 제안하여 학습할 5종의 클래스를 곱한 값인 10,000으로 설정하였다. learning rate는 0.001, confidence threshold는 0.5로 설정하고, 사전 학습된 yolo.conv137 모델을 학습 weight로 사용하였다. 이러한 설정은 YOLOv4와 YOLOv4 Tiny 모두 같다. 학습에 사용된 데이터셋은 학습과 검증 데이터를 8:2의 비율로 나눠 사용하였으며 시설물별 학습 클래스 명칭과 데이터셋은 Table 1에서 설명한다.
Table 1
5 Types of Firefighting Facility Dataset
Class Class ID Number of Images (100%)
Red Fire Extinguisher 1 440
Silver Fire Extinguisher 2 290
Fireplug 3 707
Exit Sign 4 1465
Fire Detector 5 1501
각 모델의 학습 결과, YOLOv4 모델의 mAP는 93.6%로 YOLOv4 Tiny 모델의 mAP인 92.83%보다 높았으며, 클래스별 AP 또한 YOLOv4가 모든 클래스에서 높은 성능을 보였다. 두 모델 모두 Class ID가 1인 붉은색 소화기에 대한 성능이 각각 74.43%, 73.51%로 가장 낮게 측정되었으며, 나머지 클래스에 대한 성능은 96.34~99.06%의 성능을 보여주었다(Table 2)(11).
Table 2
Training Results of YOLOv4 and YOLOv4 Tiny Model
Model* AP (%) by Class ID mAP@0.5 (%)
1 2 3 4 5
YOLOv4 74.43 98.16 99.06 98.38 98.17 93.60
YOLOv4 Tiny 73.51 96.34 98.96 97.99 97.53 92.83

* Input Size 416 × 416

붉은색 소화기에 대한 정확도가 낮게 측정된 이유를 파악하고자 데이터셋을 확인해본 결과, 다른 클래스에 비해 소화기에 대한 객체가 다른 물체에 가려져 있거나 일부만 찍혀 객체의 전체적인 형태가 보존되지 못한 이미지가 약 30% 이상 존재하였다. 또한, 다른 레이블과 비교하였을 때 데이터의 개수도 적어 다른 데이터셋에 비해 품질적으로 떨어진 것이 학습 결과에 영향을 준 것이라는 결론을 내릴 수 있었다. 이를 보완하기 위해서는 데이터의 품질을 높이거나 데이터의 증강을 통해 학습한다면 기존보다 향상된 결과를 얻을 수 있을 것이다. 따라서 다음 장에서 구축된 데이터셋보다 규모가 크고 품질도 높은 공공데이터셋을 활용하여 모델을 학습하고 결과를 도출해 보는 실험을 진행하였다.

2.2.2 다중밀집시설 및 주거시설 화재 안전 데이터셋 학습 모델

다중밀집시설 및 주거시설 화재 안전 데이터셋을 사용한 객체 인식 모델은 두 가지 사항을 고려하여 실험을 설계하였다. 첫 번째로는 각각의 소방시설물을 객체 인식할 수 있도록 준수 데이터셋만을 이용하여 학습한 후 클래스별 AP와 mAP를 바탕으로 모델의 성능과 학습의 유효성을 분석한다. 두 번째는 소방시설물의 준수와 미준수 상태를 구분할 수 있는지에 대해 판단하기 위해 각 레이블 별 준수, 미준수 데이터를 학습한 후 첫 번째 실험과 같이 모델 성능 평가 및 분석을 수행한다. 이때 사용된 딥러닝 모델은 기존의 모델보다 성능과 속도 면에서 발전된 모델인 YOLOv5이다.
본 데이터셋은 총 22종의 소방시설물로 구성되어 있지만, 논문에서 제안하는 시스템은 소화기, 소화전, 연기감지기, 피난구 유도등, 통로 유도등인 5가지를 이용하여 학습에 사용하였다. 이때 소화전 함체의 경우 두 가지 레이블로 나누어 데이터셋이 구성되어 있다. 따라서 학습에 사용된 데이터의 레이블은 총 6개이다. 소방시설 종별로 준수와 미준수 데이터로 구성되어 있으며, 시설물 별 미준수 상세 사유는 부식, 변형 등이 있다(12).
(1) 실험 1. 준수 소방시설물 데이터셋을 이용한 YOLOv5 모델 학습
YOLOv5(13)는 YOLOv4(9)와 같이 CSPDarknet53 기반의 backbone으로 설계되었으며, Darknet 환경이 아닌 Pytorch로 구현된 모델이다. 성능적인 측면에서는 YOLOv4와 비슷했지만, 모델이 경량화되고 학습 속도도 빨라진 장점이 있다. YOLOv5는 모델의 크기에 따라 nano (n), small (s), medium (m), large (l), xlarge (x)로 구분하며, 크기가 작을수록 학습 속도는 빠르고, 클수록 속도는 느리지만 정확도는 높아진다.
본 실험은 YOLOv5s 모델을 Pytorch 1.7 환경에서 학습을 진행하며, 학습 파라미터는 입력 이미지 크기(image size) 640 × 640, 배치 크기(batch size) 16, 그리고 epoch는 100으로 설정하였다. 학습과 검증은 데이터셋을 8:2의 비율로 나눠 사용한다. 학습할 소방시설물의 구성은 소형 소화기, 소화전 함체(닫힘), 소화전 함체(열림), 연기감지기, 피난구 유도등, 통로 유도등으로 6종이며, 소형 소화기의 경우 붉은색 소화기만을 학습한다.
Table 3에서와 같이 YOLOv5s의 학습 결과 소화전 함체(닫힘)의 AP가 87.4%로 가장 낮았고, 피난구 유도등과 통로 유도등의 AP가 97.6%로 가장 높았다. 모델의 성능은 mAP 93.6%로 소방점검 시스템에 사용 중인 YOLOv4 모델의 성능과 동일하다. 모델의 네트워크 크기를 고려하였을 때 YOLOv5s가 YOLOv4보다 경량화되어있고, 두 모델 간의 성능 차이는 없기 때문에 기존 시스템에 적용할 수 있을 정도의 퍼포먼스를 보여주는 것을 확인할 수 있었다. Figure 3은 YOLOv5s의 객체 인식 테스트 결과이다.
Table 3
Training Results of Complaint Firefighting Facility Dataset Using YOLOv5 Model
Model* Class Name Instances AP (%) mAP@0.5 (%)
YOLOv5s FireExtinguisher 3073 92.5 93.6
Indoor_Fire_Hydrant_Close 2458 87.4
Indoor_Fire_Hydrant_Open 3002 89.2
Smoke_Detector 2524 97.3
Fire_Escape_Light_Refuge 2295 97.6
Fire_Escape_Light_Aisle 2264 97.6

* Input Size 640 × 640

Figure 3
(a) Result of firefighting facility detection model, (b) Result of compliance and non-compliance object detection model.
kifse-37-3-41-g003.jpg
(2) 실험2. 소형 소화기 준수/미준수 구분 모델 학습
실험 1에서 다중밀집시설 소방시설물 데이터셋의 학습 유효성을 확인할 수 있었다. 이에 따라, 준수와 미준수 데이터셋을 활용하여 소방시설의 상태를 구분할 수 있는지에 대한 실험을 진행한다. 앞서 학습한 소방시설 중 준수/미준수 데이터 개수가 가장 많은 소형 소화기에 대해 모델을 학습한다.
학습 환경은 실험 1과 동일하며, 학습에 사용한 소방시설물의 클래스 명은 소형 소화기(준수)의 경우 FireExtinguisher_OK, 소형 소화기(미준수)의 경우 FireExtinguisher_Fail로 표기한다. 소형 소화기의 미준수 사유는 부식, 소화기가 위치한 곳을 표기해주는 표지가 없는 경우인 시인성 부족(표지 포함), 소화기 호수가 없는 등의 기타 변형(손상 포함)이며, 미준수 사유에 따라 클래스를 구분하지는 않는다.
학습한 모델을 테스트한 결과 소형 소화기(준수)는 93.7%, 소형 소화기(미준수)는 90.2%의 정확도를 보였다. 모델의 mAP는 91.9%로 미준수 이미지의 분포는 부식 0.14%, 시인성 부족(표지 포함) 50.80%, 변형(손상 포함) 49.00%로, 부식 데이터가 가장 적어 테스트로 확인하기엔 한계가 있었다(Table 4). 하지만, 시인성 부족(표지 포함)과 변형(손상 포함) 사유에 대한 학습 결과는 Figure 3의 (b)와 같이 잘 구분하는 것을 확인할 수 있다. 이러한 결과를 바탕으로 소방시설물의 준수/미준수 데이터셋이 구축된다면, 학습을 통해 시설물의 상태를 구분할 수 있는 모델을 개발할 수 있다는 가능성을 확인할 수 있었다. 더 나아가 소방시설물 외관점검의 무인화를 위한 모델로써 활용하여 기존의 소방시설 점검자의 점검 효율성을 증가시킬 수 있을 것으로 기대된다.
Table 4
Training Results of Comp YOLOv5 Model Using the Compliant Fire Facility Dataset
Model* Class Name Instances AP (%) mAP@0.5 (%)
YOLOv5s FireExtinguisher_OK 1559 93.7 91.9
FireExtinguisher_Fail 1327 90.2

* Input Size 640 × 640

2.3 증강현실 소방시설 점검 시스템 구현

Figure 4는 본 논문에서 제안한 딥러닝 기반 증강현실 소방시설 점검 시스템을 홀로렌즈 2에서 실행하여 소방시설 점검을 수행한 과정을 보여준다. AR 디바이스인 홀로렌즈를 착용한 뒤 점검 시스템을 실행하고 점검자 모드와 관리자 모드 중 선택한다. 우선 소방시설 점검을 위해 점검자 모드로 진입한다. 점검을 수행할 건물과 층을 선택하고 화면에 표시된 도면(지도)에서 점검할 소방시설물을 선택한다. 홀로렌즈의 카메라를 통해 소방시설물을 스캔하여 딥러닝 모델을 통해 객체 인식을 수행한다. 객체 인식이 성공적으로 진행되었을 경우 선택한 소방시설물의 아이콘의 색상은 주황색으로 변경된다. 만약 객체 인식이 되지 않을 경우, QR scan을 선택하여 소방시설물에 대한 QR코드를 인식시켜주는 방법으로도 점검을 수행할 수 있다. 인식된 소방시설물 아이콘(주황색)을 선택하면 소방시설물에 대한 점검 항목을 평가할 수 있으며 점검 방법에 대해서는 점검 영상 버튼을 통해 학습할 수 있다. QR scan의 경우 인식에 성공하면 자동으로 점검 항목이 나타난다. 점검을 완료하면 관리자 모드에서 점검 결과를 확인할 수 있다. 관리자 페이지에서는 점검된 결과를 출력하며, 점검일시, 점검자, 점검 항목, 점검 결과가 저장되어 있으며, 점검 결과를 선택하면 점검한 소방시설물의 위치도 도면으로 표시한다. 또한 소방시설물의 특이사항이 있을 경우엔 사진 촬영을 통해 별도로 기록도 할 수 있다. 소방시설 점검자는 육안으로 외관을 점검하고 결과를 수기로 작성하는 기존의 아날로그 방식의 점검이 아닌, 본 논문에서 제안한 시스템을 활용한다면 증강현실 디바이스를 착용하여 두 손의 자유도를 높이고, 소방시설물을 객체인식하고 육안으로 점검함으로써 점검을 보다 효율적인 점검을 수행할 수 있다. 점검 결과를 데이터베이스화하여 저장하기 때문에 주기적인 점검에 있어 소방시설물의 상태 및 이력의 관리 또한 효율적으로 수행할 수 있다.
Figure 4
Augmented reality firefighting facilities inspection system run with Hololens 2.
kifse-37-3-41-g004.jpg

3. 결 론

산업 구조의 성장에 따라 오늘날 다양한 분야에서 디지털 기반 기술의 발전이 빠르게 진행되고 있다. 이에 따라 건설 기술 또한 디지털화하여 스마트 기반 기술 구축으로 시스템이 자동화되어 신규 건축물이 증가하고 있는 추세이다. 신규 건축물의 증가는 소방시설물의 설치 증가로 이어지며, 이는 관리해야 할 소방시설물이 증가하는 것을 의미한다. 화재와 재난 등으로부터 보호하고 소방안전을 수행하기 위해서는 소방시설 관리는 필수적이다. 하지만 현재 국내 소방시설 점검 시스템은 소방시설 관리자가 점검을 수행하며 그 결과를 수기로 작성하는 아날로그 방식이다. 이러한 방식은 점검 시간의 증가, 점검 결과의 체계적 관리에 대한 어려움 등의 문제가 발생한다. 따라서 소방시설 점검 시스템에 대한 제도적, 기술적 개선방안이 필요하다.
본 연구는 딥러닝 알고리즘을 활용하여, 소방시설 관리자에게 편리하고 효율적으로 소방시설 점검을 진행할 수 있도록 개선한 웨어러블 디바이스를 활용한 딥러닝 기반 소방시설물 점검 시스템을 제안하였다. 기존의 수기로 작성하던 점검 방식과는 달리, 딥러닝 알고리즘을 활용하여 학습한 모델을 점검 시스템에 적용하여 소방시설물을 객체 인식하고, 그 결과를 바탕으로 소방시설 점검을 수행할 수 있도록 하였다.
본 점검 시스템에 적용된 딥러닝 모델은 직접 구축한 소방시설물 데이터를 바탕으로 학습되었으며, 각 모델의 성능은 YOLOv4 mAP 93.6%, 경량화 버전인 YOLOv4 Tiny 모델의 mAP는 92.83%로 큰 차이는 없었다. AI hub에서 발표된 다중밀집시설 및 주거시설 화재 안전 데이터셋도 본 시스템에 적용할 수 있는지에 대해 알아보고자 기존의 모델보다 성능이 향상된 버전인 YOLOv5를 통해 학습을 진행하였다. 그 결과 mAP 93.6%로 YOLOv4 모델의 mAP와 같았으며, 준수/미준수를 구분하는 학습 모델의 경우 91.9% 정확도를 얻었다. 이를 바탕으로 기존 시스템에 적용할 수 있을 가능성을 확인할 수 있었으며, 추후 지속적인 연구 보완을 통해 기존의 시스템보다 높은 성능의 점검 모델을 구축하는 데에 활용할 수 있을 것이다.
제안된 소방시설 점검 시스템은 홀로렌즈를 통해 캡처한 이미지를 입력 데이터로 받아 서버로 전달하여 학습된 딥러닝 모델을 통해 처리하고 있지만, 앞서 수행한 실험을 바탕으로 모델의 성능을 높이고 경량화한다면 on-device 형태로도 시스템을 활용할 수 있을 것이다. 더 나아가 실시간으로 점검자의 위치를 인식하고, 점검할 시설물의 상태를 딥러닝을 통해 판단할 수 있도록 학습한다면 추후 무인 이동체 등을 활용한 무인 점검으로도 발전할 가능성도 있다. 이를 기반으로 소방점검 시스템을 연구 보완한다면 소방시설 관리자의 업무 효율 증진뿐만 아니라 소방안전에도 도움을 줄 수 있는 시스템으로 발전할 것으로 기대된다.

후 기

본 연구는 2023년도 과학기술정보통신부의 재원으로 정보통신기획평가원의 지원(2021-0-00751, 0.5 mm 급 이하 초정밀 가시⋅비가시 정보 표출을 위한 다차원 시각화 디지털 트윈프레임워크 기술 개발) 및 행정안전부 지능형 상황관리 기술 개발사업의 연구비지원(과제번호 2021-MOIS37-001)에 의해 수행되었습니다.

References

1. Y. G Cho, H. G Kim and S Lim, “Domestic Construction Industry Outlook in the Fourth Industrial Era”, KIEAE Journal, Vol. 20, No. 4, pp. 89-94 (2020), https://doi.org/10.12813/kieae.2020.20.4.089.
crossref
2. J. H Bae, “Problems and Improvement Measures of the Self-Inspection System for Fire Facilities”, National Assembly Resarch Service, (2018).

3. H. H Yu, K. B Bae and G. G Yang, “A Study on the Improvement Plan of the Self-inspection System of Fire-fighting Facilities:Focusing on Multi-family Houses”, Korean Journal of Convergence Science, Vol. 9, No. 2, pp. 205-222 (2020), https://doi.org/10.24826/KSCS.9.2.14.
crossref
4. K Muhammad, J Ahmad and S. W Baik, “Early Fire Detection using Convolutional Neural Networks During Surveillance for Effective Disaster Management”, Neurocomputing, Vol. 228, pp. 30-42 (2018), https://doi.org/10.1016/j.neucom.2017.04.083.
crossref
5. J Hu, X Gao, H Wu and S Gao, “Detection of Workers without the Helments in Videos based on YOLO V3”, International Congress on Image and Signal Processing, BioMedical Engineering and Informatics (CISP-BMEI), pp. 1-4 (2019), https://doi.org/10.1109/CISP-BMEI48845.2019.8966045.
crossref
6. S Park, C Hong, S Park, J Lee and J Kim, “Development of a Deep Learning-based Fire Extinguisher Object Detection Model in Underground Utility Tunnels”, Journal of the Society of Disaster Information, Vol. 18, No. 4, pp. 922-929 (2022), https://doi.org/10.15683/kosdi.2022.12.31.922.
crossref
7. D. S Oh, K. B Lee and S. G Hong, “Firefighting Equipment Object Detection for Firefighting Inspection based on YOLOv4”, Proceedings of the Korean Information Science Society Conference, pp. 512-514 (2021).

8. J Redmon, S Divvala, R Girshick and A Farhadi, “You Only Look Once:Unified, Real-time Object Detection”, In:Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 779-788 (2016), https://doi.org/10.48550/arXiv.1506.02640.
crossref
9. A Bochkovskiy, C. Y Wang and H. Y. M Liao, “Yolov4:Optimal Speed and Accuracy of Object Detection”, ArXiv Preprint ArXiv:2004.10934, (2020), https://doi.org/10.48550/arXiv.2004.10934.
crossref
10. C. Y Wang, A Bochkovskiy and H. W. M Liao, “Scaled- Yolov4:Scaling Cross Stage Partial Network”, In:Proceedings of the IEEE/cvf Conference on Computer Vision and Pattern Recognition, pp. 13029-13038 (2021), https://doi.org/10.48550/arXiv.2011.08036.
crossref
11. D. S Oh, J. H Jeon, J. K Kim, K. B Lee and S. G Hong, “Inspection System of Firefighting Facilities Based on YOLOv4 Using Augmented Reality Glass”, International Conference on Information and Communication Technology Convergence (ICTC), pp. 1604-1608 (2022), https://doi.org/10.1109/ICTC55196.2022.9952959.
crossref
12. AIHub. “Fire Safety Data for Multiple Dense Facilities and Residential Facilities”, Available From: https://aihub.or.kr/aihubdata/data/view.do?currMenu=115&topMenu=100&aihubDataSe=realm&dataSetSn=518, accessed October 21, 2022.

13. G Jocher, A Chaurasia and A Stoken, “Ultralytics/yolov5:v7.0 - YOLOv5 SOTA Realtime Instance Segmentation (v7.0)”, Zenodo, (2022), https://doi.org/10.5281/zenodo.7347926.
crossref


ABOUT
BROWSE ARTICLES
EDITORIAL POLICY
AUTHOR INFORMATION
Editorial Office
Room 906, The Korea Science Technology Center The first building, 22, Teheran-ro 7 Gil, Gangnam-gu, Seoul, Republic of Korea
Tel: +82-2-555-2450/+82-2-555-2452    Fax: +82-2-3453-5855    E-mail: kifse@hanmail.net                

Copyright © 2024 by Korean Institute of Fire Science and Engineering.

Developed in M2PI

Close layer
prev next