Journal Search Engine
Search Advanced Search Adode Reader(link)
Download PDF Export Citaion korean bibliography PMC previewer
ISSN : 1229-3059(Print)
ISSN : 2287-2302(Online)
Journal of the Computational Structural Engineering Institute of Korea
Vol.32 No.3 pp.191-197

DOI : https://doi.org/10.7734/COSEIK.2019.32.3.191

A Study on Pipe Model Registration for Augmented Reality Based O&M Environment Improving

Won-Hyuk Lee1, Kyung-Ho Lee1, Jae-Joon Lee1, Byeong-Wook Nam1
1Naval Architecture & Ocean Engineering, Inha Univ., Incheon, 22212, Korea
Corresponding author: Tel: +82-10-7869-9995; E-mail: kyungho@inha.ac.kr
March 25, 2019 April 4, 2019 April 5, 2019

Abstract


As the shipbuilding and offshore plant industries grow larger and more complex, their maintenance and inspection systems become more important. Recently, maintenance and inspection systems based on augmented reality have been attracting much attention for improving worker’s understanding of work and efficiency, but it is often difficult to work with because accurate matching between the augmented model and reality information is not. To solve this problem, marker based AR technology is used to attach a specific image to the model. However, the markers get damaged due to the characteristic of the shipbuilding and offshore plant industry, and the camera needs to be able to detect the entire marker clearly, and thus requires sufficient space to exist between the operator. In order to overcome the limitations of the existing AR system, in this study, a markerless AR was adopted to accurately recognize the actual model of the pipe system that occupies the most processes in the shipbuilding and offshore plant industries. The matching methodology. Through this system, it is expected that the twist phenomenon of the augmented model according to the attitude of the real worker and the limited environment can be improved.



증강현실 기반의 O&M 환경 개선을 위한 배관 모델 정합에 관한 연구

이 원 혁1, 이 경 호1, 이 재 준1, 남 병 욱1
1인하대학교 조선해양공학과

초록


조선 및 해양플랜트 산업은 복합 및 대형화됨에 따라 유지보수 및 검사 시스템이 중요해지고 있다. 최근 작업자의 작업 이해도 향상과 효율을 높이기 위해 증강현실기반 유지보수 및 검사 시스템이 많이 주목받고 있는데, 증강되는 모델과 현실 정보 간의 정확한 정합이 이루어지지 않아 작업에 오히려 혼동을 초래하는 일이 자주 발생한다. 이를 위하여 실모델에 특정 이미지를 부착하는 마커 기반 증강현실 기술이 사용되었으나, 조선 및 해양플랜트 산업 특성상 마커의 훼손 가능성이 있으 며, 카메라가 명확히 마커 전체를 검출할 수 있어야 하기 때문에 작업자와 마커 간의 충분한 공간을 필요로 한다. 본 연구에 서는 이러한 기존 증강현실 시스템의 한계점을 극복하기 위하여 마커리스 기반 증강현실을 활용하여 조선 및 해양플랜트 산 업에서 가장 많은 공정을 차지하고 있는 파이프 시스템을 대상으로 정확하게 실 모델을 인식하고 해당 모델에 가상 CAD모 델을 정합하는 방법론에 대해 연구하였다. 본 시스템을 통해 현실 작업자의 자세와 제한적인 환경에 따른 증강모델의 비틀 림 현상을 개선하고 작업 이해에 혼동을 주는 현상을 없앨 수 있을 것으로 기대된다.



    1. 서 론

    최근 조선 및 해양플랜트 산업의 복합 및 대형화 추세에 따라 사용 수명도 장기간 운영되고 있으며, 이에 따라 건조에 소요 되는 비용보다 운영 및 유지보수에 들어가는 비용이 훨씬 뛰어 넘는 수준이다(Jang et al., 2011). 이에 따라 O&M (operation & maintenance)시스템의 유지보수 기술이 매 해를 거듭하여 그 중요성이 크게 부각되고 있으며, 실제로 그에 따라 기술 발전 정도도 나날이 향상되는 것이 현실이다. 해상 에서 해양플랜트 및 선박 운용 중 발생하는 폭발사고의 75% 이상이 내부 부재들의 고장에 의한 사고라는 높은 비율을 보여 주었으며(Yang et al., 2004), 대표적인 사고 사례로 Fig. 1 과 같이 멕시코만에서 발생한 Deepwater-horizon과 Piper Alpha사고가 있다.

    Deepwater-horizon은 탄화수소(HC) 누출에 의해 화재로 연결되어 인명피해(35명)와 대량의 원유가 유출된(하루 35,000 ~60,000배럴) 사고로 막대한 환경 피해를 가져왔다. Piper Alpha의 경우 유지보수 부재로 인한 가스펌프 결함으로 파이 프로부터 가스가 누출되어 화재 사고로 이어진 인재사고로 플랫폼에 있던 229명 중 167명이 사망하는 해상 유전에서 사상 최악의 사고로 기록되고 있다. 이러한 사고를 최소화하고자 유지보수를 지원하기 위한 다양한 시스템이 개발되고 있으며, 그 중에서도 현실 배경에 가상 모델을 가시화하여 실 모델과 가상 모델을 비교하거나 필요한 정보를 증강하여 확인하는 AR 기반의 유지보수 시스템이 각광받고 있다. 앞선 사고와 같이 대부분의 해양플랜트 운용 중에 발생하는 사고는 배관시스템의 결함으로 인해 발생하는 경우가 많으며, 특히 배관은 선박 및 플랜트 산업 전체 공정의 43%를 차지하는 부재로 연료나 원유와 같은 중요한 유체들이 이동하는 통로로서(Kim et al., 2014) 위험인자의 발생 비율이 높을 것으로 예상된다. 이러한 사고 발생을 최소화하고자 유지보수 및 관리 시스템에 증강현실 (AR: augmented reality)기술을 활용에 관한 연구들이 진행 된바 있지만, 객체 검출이 원활히 이뤄지지 않아 증강된 정보 들의 정합이 원활히 이루어지지 않는 문제가 발생하였다. 따라서, 본 연구에서는 선박 배관의 유지보수 환경 개선을 위한 증간현실 기반 정합 시스템 방법에 대해 연구를 진행하였다.

    2장에서는 산업에서 사용하는 증강현실기반 시스템에 관하여 소개하며, 3장에서는 본 시스템의 전체 구성 소개와 그에 사용 된 방법론들을 소개한다. 4장에서는 제작된 테스트 모델을 대상 으로 시스템을 적용한 결과와 정량적 평가 항목들을(정확도, 속도) 소개한다.

    2. 관련 연구

    증강현실 기술은 현실 세계를 배경으로 가상 정보를 가시화 하고 현실과 상호작용할 수 있는 기술로, 작업자에게 도면이 아닌 영상으로 작업 정보를 제공함으로써 저경력의 작업자들도 쉽게 작업을 이해할 수 있을 뿐만 아니라, 작업 환경과 효율도 개선할 수 있다. 하지만 증강된 정보들이 산업 환경적 요인들에 의해 실모델과 정확히 정합되지 않는 오류가 발생하고 오히려 작업 수행에 혼동을 주는 결과를 초래하기도 한다. 이러한 오류를 해결하기 위해 증강현실기반의 정합 시스템에 대한 연구가 활발히 진행되고 있다. 증강현실의 요소기술로는 마커 검출, 마커 정합, 트래킹(tracking), 3D 오브젝트 랜더링 등이 있으며(Kim et al., 2014), 이러한 기술 중에서도 마커 검출 기술 또는 마커리스 트래킹 기술은 증강현실에 있어 가장 근본이 되는 중요한 기술이다(Lee, 2007).

    2.1 마커기반 증강현실 기술

    마커기반 증강현실 기술은 특수한 패턴의 이미지를 제작해 실제 공간상에 부착한 뒤 카메라가 해당 패턴을 인식하여 설정 된 이벤트를 증강시키는 방식으로, 전체적인 시스템 구동 방식 이 단순하고 빠르게 가상 모델을 증강시킬 수 있다. 또한, 인식 된 마커를 기준 좌표 점으로 활용하여 보다 쉽게 증강 모델의 정합도 가능하다. Lee 등(2012)은 조도와 명도에 민감한 마 커의 성능 개선을 위해 전자기 유도를 통한 마커 인식 방법에 대해 연구하였으며, Oh 등(2012)은 SIFT 알고리즘을 통해 선박 도면의 특징을 추출하고 추출된 정보에 따른 3D가상 선박 모델을 증강시키는 시스템을 연구하였다. 미국의 Index AR Solution사는 산업현장에서 설치되지 않은 부재들을 증강 모델을 통해 설치가 완료 됐을 때의 모습을 미리 보여줌으로써 보다 원활한 작업자의 작업 수행을 돕는 마커 기반 시스템을 개발하였다(https://www. indexarsolutions.com/).

    하지만 마커기반 증강현실 기술은 마커를 충분히 인식할 수 있을 정도의 사용자와의 여유 공간이 필요하다. 조선 및 해양 플랜트 산업은 Fig. 2와 같이 매우 복잡한 산업 환경을 갖고 있으며, 본 연구에서 배경으로 하는 유지보수 환경은 이미 모든 부재들이 설치된 상태이기 때문에 작업자와 마커 사이의 충분한 공간이 주어지지 않는다. 또한, 2D이미지 트래킹 방식으로 실 시간으로 변화하는 주변 환경의 명암 변화에 민감하고 마커에 이물질이 묻거나 훼손이 여부에도 신경을 써야하는 번거로움이 존재하기 때문에 실제 산업현장 적용에는 한계가 많은 기술이며, 이를 개선하기 위해 마커리스 기반의 증강현실 기술의 연구가 활발히 진행되고 있다.

    2.2 마커리스기반 증강현실 기술

    마커리스 증강현실 기술은 마커를 사용하지 않고 실시간 영상 신호로부터 실 모델을 인식하거나 정규화된 데이터(또는 정규화 시킨 데이터)를 분석해 도출된 결과에 따른 이벤트를 증강 시키는 방식으로 객체를 인식하고 정합하는 기술과 트래킹 기술이 병합되어 구현되기 때문에 기존 마커방식 보다 다소 복잡하며, 접근 방법론도 다양하다.

    자동차 분야에서 천재봉은 차량 영상을 통해 움직이는 객체에 대한 관심영역을 추출하고 Particle filter를 이용해 객체를 트래킹하는 방법에 대해 연구하였으며(Chun, 2006), Wagner 등(2009)은 SIFT 알고리즘을 통해 객체를 인식하고, NCC (normalized cross correlation)정합을 통해 모바일 환경에서 객체를 트래킹하는 시스템을 입증하였으며, Kwon 등(2015)은 NCC정합 시 거리 별 가중치를 둔 WNCC(weighted normalized cross correlation)을 통해 정합 확률을 증가시켜 좀 더 안정적인 트래킹 방법에 대해 연구하였다.

    선박 분야에서 Lee 등(2013)은 항해정보를 증강현실로 항해자에게 제공하기 위해 영상처리를 통해 바다의 수평선을 검출하고 선박의 AIS정보를 연동하여 주변 물체를 인식하는 모듈 구현에 관해 연구하였으며, Nam 등(2019)은 선박 블록 을 대상으로 포인트 클라우드를 활용해 마커리스기반 증강현실 정도관리 시스템을 위한 정합 방법 관하여 연구하였다. 하지만 앞선 연구 대상 모델은 본 연구에서 대상으로 하는 파이프 모델과 형상의 차이가 크기 때문에 해당 방법론을 본 시스템에 적용하기에 어려움이 따른다.

    Kang (2014)은 파이프 객체를 대상으로 역설계 시스템을 통한 객체 인식 시스템에 대한 연구를 진행하였고, Curvsuf와 같은 회사를 통해 전체 파이프 시스템에 대한 역설계 소프트웨 어가 개발된바 있지만(http://www.curvsurf.com/), 본 연구 에서 추구하는 유지보수 시나리오는 미리 설계된 가상 모델과 실 모델을 비교하며 진행되기 때문에 실 모델을 기반으로 재구 성되는 역설계 시스템 적용은 적절치 못하다.

    이외에 최근 학습을 활용한 객체 트래킹에 대한 연구도 진행 되고 있지만, 본 연구에서 대상 모델로 하는 파이프 모델은 대체로 특징 없는 실린더 형태를 띄고 있으며, 형상뿐만 재질적 측면으로도 산업 특성상 외면적으로 큰 특징이 없는 재질을 사용하기 때문에 많은 데이터 셋(data set)이 필요하다. 또한 유지보수 작업 시나리오로 봤을 때 작업자가 필요한 파이프 모델만을 자동으로 추출하고 트레킹하도록 설계하는 것은 매우 어려운 문제이다.

    본 연구에서는 영상으로부터 관심영역(region of interesting) 을 설정하고 컬러 필터(color filter)와 KNN(k nearest neighborhood) 기법을 활용해 트래킹 하고자 하는 대상 객체 주변 노이즈를 제거하고 CAD모델을 불러와 두 데이터를 정합 하는 방법을 연구하였다. 또한, 일반 이미지 카메라가 아닌 3D카메라를 활용하여 깊이 파라미터를 획득하였고 이를 활용 함으로써 정합 정확도를 높였으며, 프로토타입을 개발해 본 시스템의 유효성을 입증하였다.

    3. 마커리스 기반 증강현실 정합 시스템

    마커리스 증강현실기반 정합 프로세스는 Fig. 3과 같이 크게 CAD모델의 변환과 실 모델에 대한 객체 트래킹으로 나뉘며, 순서는 다음과 같다.

    • (1) 카메라로부터 실 공간 스캔을 통한 3차원 포인트 클라 우드 생성

    • (2) 인식하고자 하는 객체에 대한 관심 영역(ROI) 정의

    • (3) Noise 제거를 통한 객체 추출

    • (4) 설계된 CAD모델 포인트 클라우드 포맷으로 변환

    • (5) 생성된 두 포인트 클라우드의 정합 수행(registration)

    3.1 입력 데이터 전처리

    기존 이미지 카메라를 활용한 객체 검출 방법론은 카메라로 부터 들어오는 색성 정보를 기반으로 깊이 값을 추정하는 복잡한 계산과정을 필요로 하지만, 본 연구에서는 3D카메라의 깊이 센서 부터 깊이 정보(x y z좌표정보)를 손쉽게 얻음으로써 기존의 복잡한 계산 과정을 생략하였으며, 이미지 센서로 획득 된 색상 정보(RGB)를 결합해 Fig. 4와 같은 XYZ-RGB형태의 포인트 클라우드 데이터를 생성하였다. 테스트 이미지 상에 트래킹 대상으로 하는 모델은 좌측 하단에 표시된 파란색 실린더 모델이다.

    3.2 관심영역 정의

    3D카메라는 실시간으로 3만개 이상의 포인트 클라우드 데이터를 생성하고 갱신하는데, 트래킹 하고자하는 대상 모델은 매우 작은 영역만 차지한다. 본 연구에서는 이러한 불필요한 영역을 실시간 처리에서 제외시키기 위해 대상 모델을 기반으로 하는 관심 영역을 정의하고 불필요한 영역을 제거하는 작업을 수행하였다. 관심 영역은 각 포인트가 갖고 있는 x y z파라미터 값을 활용하여 정육면체 형태로 정의되며, Fig. 5와 같이 대상 모델 주변을 기점으로 정의된 영역만 남기고 주변에 분포한 불 필요한 데이터(노이즈)는 제거된 것을 확인할 수 있다.

    3.3 노이즈 제거

    관심영역 정의를 통해 대다수의 불필요한 데이터들을 제거 할 수 있지만 여전히 주변에 남아있는 노이즈 데이터들이 분포 함을 확인할 수 있다, 이러한 노이즈는 객체 트래킹에 심각한 오차로 연결될 뿐만 아니라 전체적인 시스템 속도 저하로 이어 지기 때문에 추가적인 노이즈 제거 프로세스가 필수적이다.

    3.3.1 색상 필터를 통한 노이즈 제거

    대상 모델 근처에 남아있는 노이즈 제거를 위해 각 데이터가 갖고 있는 RGB색상 정보를 활용하였다. 실제 공간은 항상 조명의 영향을 받기 때문에 단일 색상 데이터를 갖는 객체는 존재하지 않으며, 대상 모델에 대한 색상을 정의하기 위해서는 명암이 고려된 색상 범위를 설정해 주어야 한다. RGB 데이터는 특정한 색이나 픽셀 값을 정의하는데 용이하지만 명암에 대한 색상 범위를 설정하기 위해서는 매우 복잡한 계산 과정이 필요 하다. 따라서 본 연구에서는 RGB값을 HSV값으로 변환하여 활용하여 객체의 색상 범위를 정의하였는데, HSV색공간은 색상(hue), 채도(saturation), 명도(value)를 파라미터로 갖 고 있어 색도와 명도를 명시 적으로 분리하여 명암이나 질감 같은 느낌을 표현하기 용이하다(Park, 2015). 모델에 대한 정확한 색상 범위를 정의하여 범위 외에 존재하는 데이터를 노이즈로 제거한 결과 Fig. 6과 같이 대상 모델 주변의 불필요한 노이즈들이 제거된 결과를 확인할 수 있다.

    3.3.2 KNN을 활용한 노이즈 제거

    Fig. 6에 따르면 전반적인 노이즈가 모두 제거되어 보이지만 실제로 명암을 고려한 색상 범위를 설정했기 때문에 주변에 비슷한 색상이나 어둡거나 밝은 영역은 Fig. 7(b)와 같이 노이 즈로 남아있는 것을 확인할 수 있다. 또한 실제 조선 및 해양플 랜트 산업에서 사용되는 배관은 전반적으로 비슷한 색상을 갖고 있기 때문에 아직 잔류 노이즈가 다수 분포해 있을 가능성이 크다. 이를 위해 임의의 점으로부터 이웃하는 점을 찾아 일정 규모의 군집을 형성하는 KNN기법을 사용하였다. KNN은 분포된 데이터들이 사전에 설정된 군집의 규모(데이터 개수)에 맞추어 해당 조건이 만족할 때까지 군집 영역을 확장해 나가는 알고리즘으로 본 연구에서는 군집 규모로 200을 설정해 해당 군집보다 적게 형성된 군집들은 노이즈로 판단해 제거하였다. KNN을 활용한 노이즈 제거를 수행한 결과 Fig. 7(c)와 같이 주변에 잔류하던 노이즈들이 제거된 것을 확인할 수 있다.

    3.4 CAD모델 변환

    CAD모델은 Fig. 8과 같이 실제 형상 정보를 기반으로 메쉬 (mesh)를 정의하여 .stl파일형에 맞춰 재구성한 후 포인트 클라 우드 포맷인 .pcd파일형으로 변환하였다.

    3.5 정합

    정합은 대상모델에 대한 트래킹 정도를 파악하는 용도로 이를 수행하기 위해서는 여러 방향에서 거리영상을 취득하고 이를 종합하는 과정이 필요하다. 이 경우 두 데이터 간의 이동 및 회전 변환관계를 알아야 하며, 변환관계를 계산하기 위해 ICP (iterative closest point) 알고리즘이 사용되었다. ICP알고 리즘은 두 데이터 간의 대응관계를 모르는 상황에서도 카메라의 위치에 대한 사전 정보나 모멘트를 이용한 방법 등을 통하여 구한 계수의 초기 값을 이용하여 가장 가까운 점을 임시 대응 점으로 가정하고 이러한 임시 대응점들의 쌍을 반복법으로 개선시키는 기법으로 두개의 포인트 클라우드 데이터가 필요 하다(Lee et al., 1998). 본 연구에서는 Fig. 9와 같이 앞선 과정을 통해 추출된 실제 대상 모델과 가상 CAD모델 데이터를 활용해 정합을 수행하였다.

    4. 프로토타입 구현

    4.1 프로토타입 환경

    앞선 방법론을 기반으로 Fig. 10과 같은 프로토타입을 제작 하였다. 테스트 모델은 조선 및 해양플랜트 산업에서 자주 사용 되는 재질로 제작하였다. 카메라는 Microsoft사의 Kinect-v2 를 활용하였고, 소프트웨어로는 QT를 통해 UI를 구현하였으며, 개발 환경은 C++, 포인트 클라우드를 다루고 가시화하는 공간 으로는 PCL라이브러리를 사용하였다. 또한 오픈 소스 프로 그램인 CloudCompare를 활용하여 CAD모델을 .pcd(point cloud data)파일로 변환하였다.

    4.2 구현 결과

    Fig. 11은 제작된 테스트 모델에 마커리스 기반 정합 시스 템을 적용한 결과이다. 본 연구에서는 유지보수에 핵심 검사 부위중 하나인 밸브와 그를 연결 파이프 모델을 대상으로 앞선 프로세스를 통해 데이터를 추출하고 정합을 수행하였다. 카메 라나 해당 모델이 주기적으로 움직이지 않는다면 잘 정합이 되는 것을 확인할 수 있었고 만약 움직이더라도 실시간으로 객체를 트래킹하여 재정합을 수행하는 것을 확인할 수 있다.

    Fig. 12는 구현 결과에 대한 정량적 평가 대상으로, 총 3분 류로 나누어 평가를 진행하였다. (a)는 관심 영역까지만 지정 하고 추가적은 노이즈 제거를 안 했을 경우, (b)는 색상 필터 까지만 적용했을 경우이며, (c)는 정상적으로 모든 프로세스를 진행했을 경우이다. 평가 대상 항목으로는 정확도와 정합 수행에 소요된 시간으로 평가하였으며, 정확도는 영상 추적 기법의 Mean Shift를 사용하여 분포된 데이터들의 중심을 찾고, 정합된 CAD모델의 중심 간의 거리를 측정하였다. Table 1에서 보는 것과 같이 (a)의 경우 주변 노이즈의 영향으로 정합이 수행되지 않았고, (b)는 정합은 정확히 됐지만 주변 노이즈로 인한 계산량 증가로 정합 수행에 소요되는 시간이 증가한 모습을 보였다. 정합 오차 범위는 1.5~2.5cm이내로 작업자에게 충분히 이질감 없는 증강 정보를 제공할 수 있을 것으로 판단 된다.

    5. 결 론

    본 연구는 선박 및 플랜트의 유지보수 작업에 사용될 기존 증강현실기반 시스템들이 가지는 한계점을 해결하기 위하여 마커리스 기반 증강현실 정합 시스템에 관해 연구하였고 간단한 프로토타입을 개발해 유효성을 입증하였다. 본 시스템은 선박 및 플랜트와 같은 특수한 환경에서도 실시간으로 객체를 트래 킹할 수 있으며, 작업자에게 이질감 없는 증강 모델을 통해 작업 정보를 제공할 수 있고 이는 배관 설치, 유지보수, 원격 협업 등 다양한 작업에 활용할 수 있을 것으로 기대된다.

    다만 현재 시스템으로는 정합 대상 모델 크기에(데이터 개수) 따라 트래킹 속도가 저하되는 경향을 보이고 있다. 따라서 향후 연구로는 원격 서버 연동을 통해 원격으로 ICP알고리즘을 통해 온전히 정합된 상태에서의 이동한 경로 및 거리 정보만을 전송해 작업자 환경에 반영하여 계산량을 최소화하여 소요되는 시간에 따른 제약사항을 최소화할 예정이다. 또한 현재 ROI지정이나 KNN기법에서 정의한 군집의 규모는 사용자가 임의로 지정하게 되어있어 이에 대한 전문지식이 없는 현장 작업자 기능을 다뤘을 경우 혼란을 줄 수 있다. 따라서 이러한 사용자 지정 방식을 최소화하여 부분적으로 학습의 개념을 추가하여 자동화시키는 방안으로 시스템을 개선할 것이다.

    감사의 글

    이 연구는 2019년도 정부(과학기술정보통신부)의 재원으로 한국연구재단의 지원을 받아 수행된 기초연구사업이며(NRF- 2016R1A2B4014406), 국토교통부 도시건축 연구개발사업의 연구비지원(19AUDP-B127891-03)에 의해 수행됨

    Figure

    COSEIK-32-3-191_F1.gif

    Plant Accident Example

    (left:Deepwater-horizon, right:Piper Alpha)

    COSEIK-32-3-191_F2.gif

    Piping system of shipbuilding industry

    COSEIK-32-3-191_F3.gif

    Recognition procedure

    COSEIK-32-3-191_F4.gif

    Raw RGB-XYZ point cloud data from Kinect

    COSEIK-32-3-191_F5.gif

    Defind of ROI(left: before, right: after)

    COSEIK-32-3-191_F6.gif

    Remove surrounding noise

    COSEIK-32-3-191_F7.gif

    Remove small cluster

    COSEIK-32-3-191_F8.gif

    Point cloud converter

    COSEIK-32-3-191_F9.gif

    Pipeline recognition

    COSEIK-32-3-191_F10.gif

    Prototype UI(user interface) and development environment

    COSEIK-32-3-191_F11.gif

    Pipeline recognition & Overlaying with design CAD data

    COSEIK-32-3-191_F12.gif

    (a) registration in the ROI, (b) registration in the ROI+Color Filter, (c) candidate model

    Table

    Performance comparison

    Reference

    1. Chun, J.B. , Ha, S.W. (2006) Object Tracking by Extracting Region of Interesting, Korea Multimed. Soc., pp.299~302.
    2. Jang, D.H. , Mun, H.G. , Sohn, S.W. , Suh, H.W. , Han, S.H. (2011) Development of Maintenance Management System for Ships and Offshore Plants Facilities, The Korean Association of Ocean Science and Technology Societies, pp.1262~1271.
    3. Kang, T.W. (2014) System Architecture for Effective Point Cloud-based Reverse Engineering of Architectural MEP Pipe Object, J. Korea Academia-Industrial Cooper. Soc., 15, pp.5870~5876.
    4. Kim, J.P. , Lee, D.C. (2014) Development of Mobile Location Based Service App Using Augmented Reality, J. Korea Inst. Inform. & Commun. Eng., 18, pp. 1481~1487.
    5. Kim, J.S. , Shin, Y.T. (2014) Development Portable Pipe Spool Location-Confirm System Based UHF RFID, KIPS Trans. Comput. & Commun. Syst., 3, pp.329~336.
    6. Kwon, Y.H. , Chae, Y.G. (2015) An Improved Object Recognition and Tracking Algorithm Based on Block Matching, J. Korean Inst. Inf. Technol., 13, pp.61~68.
    7. Lee, B.U. , Kim, C.M. , Park, R.H. (1998) Derivation of a Confidence Matrix for Orientation Component in the ICP Algorithm, Inst. Electron. Eng. Korea, 35, p.8.
    8. Lee, J.M. , Lee, K.H. , Kim, D.S. (2012) Mobile-AR Inspection System Based on RF-Marker to Improve Marker Detection, J. Comput. Design & Eng., 17, pp.208~215.
    9. Lee, J.M. , Lee, K.H. , Kim, D.S. (2013) Image Analysis Module for AR-based Navigation Information Display, J. Ocean Eng. & Technol., 27, pp.22~28.
    10. Lee, Y.C. (2007) Development of Cultural Content using a Markerless Tracking-based Augmented Reality, Smart Media J., 5.
    11. Nam, B.W. , Lee, K.H. , Lee, W.H. , Lee, J.D. , Hwang, H.J. (2019) A Study on Smart Accuracy Control System based on Augmented Reality and Portable Measurement Device for Shipbuilding, J. Comput. Struct. Eng. Inst. Korea, 32, pp.65~73.
    12. Oh, Y.J. , Cho, O.H. , Kim, E.K. (2012) Design of 3D Ship Display System using Android, The Korea Inst. Electron. Commun. Sci., 7, pp.1011~1016.
    13. Park, H.S. (2015) Vehicle Tracking System using HSV Color Space at Nighttime, J. Korea Inst. Inf. Electron. & Commun. Technol., 8, pp.270~274.
    14. Wagner, D. , Dieter, S. , Horst, B. (2009) Multiple Target Detection and Tracking with Guaranteed Framerates on Mobile Phones, Mixed & Augmented Reality, 2009. ISMAR 8th IEEE Int. Sympo.. IEEE, pp.19~22.
    15. Yang, W.J. , Kwon, S.J. , Keum, J.S. (2004) An Analysis of Human Factor in Marine Accidents, Korean Soc. Mar. Environ.& Saf., 24, pp.7~11.