Journal Search Engine
Search Advanced Search Adode Reader(link)
Download PDF Export Citaion korean bibliography PMC previewer
ISSN : 1229-3431(Print)
ISSN : 2287-3341(Online)
Journal of the Korean Society of Marine Environment and Safety Vol.23 No.4 pp.415-420
DOI : https://doi.org/10.7837/kosomes.2017.23.4.415

A Study on Abalone Young Shells Counting System using Machine Vision

Kyung-min Park*, Byeong-Won Ahn**, Young-San Park***, Cherl-O Bae***
*Graduate School of Mokpo National Maritime University, Mokpo 58628, Korea
**Division of Marine engineering, Mokpo National Maritime University, Mokpo 58628, Korea
***Division of Marine engineering & Coast guard, Mokpo National Maritime University, Mokpo 58628, Korea

* First Author : allre@mmu.ac.kr, 061-240-7232

Corresponding Author : baeco@mmu.ac.kr,, 061-240-7223
April 7, 2017 May 31, 2017 June 28, 2017

Abstract

In this paper, an algorithm for object counting via a conveyor system using machine vision is suggested. Object counting systems using image processing have been applied in a variety of industries for such purposes as measuring floating populations and traffic volume, etc. The methods of object counting mainly used involve template matching and machine learning for detecting and tracking. However, operational time for these methods should be short for detecting objects on quickly moving conveyor belts. To provide this characteristic, this algorithm for image processing is a region-based method. In this experiment, we counted young abalone shells that are similar in shape, size and color. We applied a characteristic conveyor system that operated in one direction. It obtained information on objects in the region of interest by comparing a second frame that continuously changed according to the information obtained with reference to objects in the first region. Objects were counted if the information between the first and second images matched. This count was exact when young shells were evenly spaced without overlap and missed objects were calculated using size information when objects moved without extra space. The proposed algorithm can be applied for various object counting controls on conveyor systems.


머신비전을 이용한 전복 치패 계수에 관한 연구

박 경민*, 안 병원**, 박 영산***, 배 철오***
*목포 해양 대학교 대학원, 목포 58628
**목포해양대학교 기관시스템공학부
***목포해양대학교 기관·해양경찰학부

초록

논문에서는 머신비전을 이용하여 컨베이어 시스템에서 이동하는 객체를 계수하는 알고리즘을 제안하였다. 영상처리를 이용한 객체 계수 시스템은 유동인구나 교통량 파악 등의 다양한 산업현장에서 사용되고 있으며, 주로 템플릿 매칭이나 기계학습의 방 법으로 검출하여 추적 후 계수한다. 하지만 빠르게 움직이는 컨베이어 벨트위의 물체를 검출하기 위해서는 연산에 소요되는 시간이 짧 아야 하므로 영역기반의 방법으로 영상처리를 하였다. 본 연구에서는 모양과 크기, 그리고 색깔이 비슷한 전복 치패를 계수하였다. 컨 베이어 시스템은 한 방향으로 동작하는 특성을 이용하여 첫 번째 영역에서 치패를 검출하여 정보를 얻은 것을 기반으로 다음 프레임 에서의 물체의 위치 범위를 계속적으로 변화하여 치패를 검출하고 각각의 획득한 정보를 비교하여 계수하였다. 치패가 간격을 두고 이 동 시에는 정확하게 계수됨을 확인하였으며, 치패가 붙어서 오는 경우에는 크기정보를 이용하여 계수하여 중복되거나 누락됨을 방지 하였다. 본 논문에서 제안한 알고리즘은 컨베이어 시스템 위에서 움직이는 다양한 객체 계수 제어에 적용할 수 있을 것이다.


    1서 론

    객체 계수 시스템은 검출하고자 하는 물체가 특정 구간을 통과하면 계수하는 시스템으로, 산업현장에서는 주로 안전 하고 구축하기 쉬운 컨베이어 벨트위에 물체를 놓고 이동시 켜 근접센서를 이용하여 계수하게 된다. 이러한 시스템은 물체가 겹쳐서 통과하게 되면 계수하지 못하고, 하나의 라 인마다 하나의 센서를 설치해야 하는 등의 단점이 있다. 하 지만 카메라로부터 공정과정의 영상을 획득한 후 영상처리 (Image processing)를 하여 객체를 계수하면 하나의 카메라를 이용하여 여러 라인의 컨베이어 시스템을 관리할 수 있다. 머신 비전(Machine Vision)은 기계에 사람이 가지고 있는 시 각과 판단기능을 부여한 것으로 공정 기술과 융합하여 다양 한 산업분야 적용되고 , 최근에는 기술이 향상됨에 따라 교 통, 의료, 보안, 군사, 제조업 등으로 활용범위가 점차 넓어 지고 있다(Kim, 2013). 머신비전을 이용한 객체 계수 시스템 은 특정장소에서의 유동인구를 측정하거나 도로에서의 교 통량 파악, 무인자동차에 적용하는 등 다양한 분야에서 응 용되고 있으며 이러한 계수 시스템의 연구에 있어 가장 큰 주된 관점은 검출(Detection)과 추적(Tracking)하는 방법이다. 이러한 방법은 영역(Salesbier et al., 1995), 모델(Isard and Blake, 1996), 윤곽(Yokoyama and Poggio, 2005), 특징(Navid et al, 2012)으로 분류되며 템플릿 매칭(Zheng et al., 2012, Brunelli and Poggio, 1997), 기계학습(Wang et al., 2005, Sebastiani, 2002), 모션벡터(Bartolini et al., 1996) 등의 기법으로 검출 후 추적하 여 특정 지역을 통과하면 계수하는 것이다. 본 논문에서는 컨베이어 벨트 위를 지나가는 전복 치패를 머신비전을 이용 하여 계수하는 알고리즘을 제안하였다. 전복의 양식에서 너 무 어린 치패(새끼전복)를 바다 양식장에 방류하게 되면 생 존률이 낮기 때문에 일반 종묘양식장에서 알을 부화하여 약 2×2 cm 정도로 성장하게 되면 바다의 가두리 양식장으로 보내어 진다. 성장한 치패는 500 ~ 1,000개의 단위로 포장되어 거래가 되고, 거래량은 하루에 수만에서 수십만개이다. 많은 수의 치패를 빠르게 계수하기 위해서 연산에 소요되는 시간 이 적은 영역기반의 방법으로 영상처리를 하였다. 또한, 배 경으로부터 치패만을 획득하기 위해 필터링을 하여 이진화 (Binary)한 후 배경으로부터 물체를 구분하는 노드를 이용하 였다. 치패를 계수함에 있어 중요한 것은 중복계수 오류를 발생시키지 않는 것이다. 이를 위하여 컨베이어 벨트는 한 방향으로만 움직이는 특징을 이용하여 1st ROI(Region of Interest)는 고정하고 2nd ROI를 계속적으로 변화시킴으로서 계 수가 중복되지 않도록 하였다. 컨베이어 벨트위에 놓인 치패 를 LabVIEW의 머신비전기반 알고리즘을 구현하여 계수함으 로써 그 결과가 신뢰성이 높고 성능이 우수함을 확인하였다.

    2하드웨어 구성

    Fig. 1은 기존의 근접센서를 이용하여 계수되는 치패계수 기를 나타내고 있다(www.friendeng.com). 폭이 약 50mm인 두 개의 컨베이어 벨트가 설치되어 있고 이동속도는 최대 100 meter/min이다. 객체를 계수하기 위해 대부분은 근접센서 가 사용되고 있으며, 이는 하나의 라인마다 센서를 설치해 검출해야 하므로 많은 수의 객체를 동시에 계수하기 위해서 는 라인과 센서 등을 추가로 설치해야 한다. 하지만 Fig. 2와 같이 머신비전을 적용하여 설치하면 카메라만 설치하면 되 므로 장비의 구성이 간단해질 수 있다. 컨베이어 벨트를 지 나가는 약 2×2 cm의 치패를 카메라로 영상을 획득하였으 며, 카메라에 입력된 영상은 컴퓨터로 보내어지고 LabVIEW 기반의 계수알고리즘을 통하여 양쪽 컨베이어 벨트의 전복 치패를 동시에 계수하게 된다.

    본 연구에서는 LabVIEW의 머신비전 기능을 이용하여 계 수하는 알고리즘을 제안한다. Fig. 3은 전체적인 계수과정 순 서도이다. 먼저, 컨베이어 벨트위의 치패를 카메라를 이용하 여 영상을 획득한 후 객체와 배경을 분리하기 위해 전처리 를 한다. 이후 프레임 내의 1st ROI를 선정하여 물체를 검출 하고 획득한 객체 정보를 기반으로 하여 다음 프레임에서의 2nd ROI를 선정하여 객체를 검출한다. 그리고 1st ROI와 2nd ROI에서 얻은 각각의 첫 번째 객체정보와 두 번째 객체정보 의 위치와 크기를 비교하여 계수여부를 판단하는 방법을 제 안한다.

    3.1Threshold

    배경으로부터 물체를 정확하게 검출하기 위해 물체와 배 경을 구분(Threshold)하는 전처리(Pre-processing) 과정이 필요 하다. Fig. 4는 이진화하는 과정을 나타낸 것이다. (a)는 카메 라로부터 획득한 원래의 RGB 영상이고, (b)는 영상처리를 하기 위해 원래의 영상을 명암도(Intensity) 영상인 흑백영상 (Graysacle)으로 변환한 것이다. (c)는 전체 영상에서 계수에 필요한 부분만 잘라낸 것으로, 연산에 소요되는 시간을 줄 일 수 있다. (d)는 배경을 어둡게 하고 물체를 밝게 하기 위 해 영상의 픽셀 강도를 반대로 하여 적용한다. (e)는 외부 조 명 변화에 강인하게 하기 위해 BCG(Brightness, Contrast, Gamma) Lookup을 적용한 것이다. (f)는 위와 같은 과정으로 부터 얻은 영상에서 적절한 기준치를 설정하여 이진화한 것 을 나타내고 있다. Fig. 5는 Threshold과정을 Labview의 블록 다이어그램(Block Diagram)으로 간략히 나타낸 것이다.

    3.2Morphology

    물체를 명확히 구분시키고, 또한 노이즈를 없애기 위해 형태학적(Morphology) 필터를 사용한다. Fig. 6은 형태학적 필 터의 블록 다이어그램으로 각각 침식(erosion)과 팽창(dilation) 의 마스크(Mask)와 반복횟수를 설정할 수 있다. 형태학적 필 터는 각 픽셀의 값을 주위 픽셀 값과 비교하여, 강조 또는 감소시키는 것이다(Haralick et al., 1987).

    Fig. 7은 영상을 형태학적으로 변형시키는 과정이다. (a)는 원래의 영상을 BCG Lookup까지 영상처리를 한 것이고, (b)는 (a)를 이진화한 것이다. (b)에서는 두 개의 물체가 하나의 물 체인 것처럼 이어져 있는 것을 확인할 수 있다. 이는 빠른 속도로 움직이는 컨베이어 벨트 위의 두 물체가 근접하여 지나가는 경우로 명암도 영상처리만으로는 분류하기 어려 움이 있다. (c)는 침식필터로 대상 픽셀이 이웃픽셀보다 밝 기가 약한 경우 대상 픽셀을 약화시키는 것이다. 가장자리 부터 밝은 픽셀의 이미지는 줄어들게 함으로서 분류할 수 있다 는 팽창필터로 . (d) 대상 픽셀이 이웃 픽셀보다 밝기가 강한 경우 대상 픽셀을 강화시키는 것이다. 침식필터로 인 해 픽셀의 크기가 작아진 것을 가장자리부터 픽셀을 채워 크기를 키워 명확히 하였다.

    4실 험

    4.1실험구성

    본 연구에서는 제안한 알고리즘을 실제 전복 치패 영상에 적용하여 실험하였다. 실험환경은 약 62.8 meter/min의 속 도로 동작하는 컨베이어 벨트위로 약 2×2 cm의 치패를 이 동시켜 FUJIFILM 사의 FinePix XP80 모델인 1080p, 60 fps, CMOS 타입의 카메라로 영상을 획득하였으며, PC사양은 Intel(R) Core(TM) i7-4770 CPU, 3.4GHz, 16GB RAM의 Windows 7환경에서 Labview 2015 Vision Development Module을 사용하 였다. 카메라로부터 얻은 원래의 856×480 RGB 영상을 170 ×278 흑백영상으로 변환시키고, 이를 다시 이진화하여 형 태학적 연산방법으로 치패를 검출하였다. 객체를 형태학적 연산으로 계수할 시 오류를 줄이기 위해 ROI에 접하는 객체 와 노이즈, 기타 물질로부터 발생하는 일정크기 이하는 계 수하지 아니하였다. 치패의 명암도 차이로 인해 객체 안에 있는 생기는 구멍을 메워줬으며, 최소 객체 크기, 검출영역 과 검출된 객체에 경계 사각형, 중심점 그리고 숫자 수를 표 시하였다. Fig. 8은 IMAQ Count Object 2 노드의 설정을 나타 내고 있다.

    4.2단독 치패 계수 (분리된 치패의 계수)

    전처리 과정과 형태학적 연산을 통하여 분리된 치패는 함 수노드에 의해 검출한다. Fig. 9는 한 프레임 차이의 영상으 로 분리된 치패가 이동하는 과정을 나타낸 것이다. (a)는 미 리 설정해 놓은 1st ROI 로부터 치패를 검출한 것으로 중심 점의 위치와 경계선, 면적 등의 정보를 얻을 수 있다. 컨베 이어 벨트는 한 방향으로만 움직이기 때문에 프레임의 증가 에 따라 물체의 위치도 변하게 되는데, 세로축 방향으로만 이동하는 특징을 이용하여 위에서 얻은 객체의 정보를 바탕 으로 다음 프레임에서 객체의 위치 범위를 알 수 있다. (b)는 한 프레임 이후의 영상으로 2nd ROI의 범위는 1st ROI에서 검 출한 치패의 위치정보를 기반으로 1st ROI를 세로축으로 이 동시킨 후 객체를 검출한 것을 나타낸다.

    컨베이어 벨트는 한 방향으로만 이동하므로 동일한 치패 는 (a)프레임의 1st ROI와 (b)프레임의 2nd ROI에서 얻은 객체 의 정보 중 중심점의 위치는 같게 되고, 이때 계수를 수행한 다. 다른 새로운 치패가 카메라의 영역으로 들어오면 1st ROI 에 새로운 중심점 정보가 생성되고, 다음 프레임의 2nd ROI 에서 정보를 획득한 후 중심점의 위치를 비교하여 계수하는 과정을 반복함으로서 같은 치패를 중복되지 않고 계수할 수 있다.

    4.3복수의 치패 계수 (분리되지 않은 치패의 계수)

    치패가 컨베이어 벨트를 통해 이동 중 분리되지 않고 겹 치기나 붙어서 이동하는 경우가 발생한다. Fig. 10은 형태학 적 연산으로 분리되지 않아 두 개의 치패를 하나로 인식하 는 것을 나타내고 있다. 이 경우는 검출한 치패의 면적 정보 를 이용하여 해당 면적에 속하는 값으로 계수할 수 있도록 하였다. Fig. 11은 1st ROI와 2nd ROI에서 IMAQ Count objects 2 노드의 설정에 의해 획득한 치패의 정보를 비교하는 간략화 한 블록다이어그램으로, 중심점, 경계영역, 면적, 방향, 형상 비, 구멍 수 등을 확인할 수 있다.

    4.4실험결과 및 고찰

    기존의 근접센서를 사용한 치패 계수시스템은 컨베이어 벨트에서 이송되는 과정에 따라 약 3% 정도의 오차율을 가 지고 있으며, 본 실험에서도 비슷한 오차율을 보였다. 이는 ROI 영역과 설정 면적에 따라 다르게 되기 때문으로, 3개 이 상의 여러 치패가 줄 지어서 이송되는 경우 ROI 영역에서 치패 전체를 검출할 수 없어 계수하지 못하였으며 치패가 뭉쳐서 이동하는 경우에는 설정한 면적정보와의 차이로 인 해 오차가 발생하였다. 고성능의 카메라를 사용하여 치패가 이동하는 영상을 넓고 정밀하게 획득하거나, 계수기에 유입 되는 치패를 기구적으로 간격을 조정하면 오류는 감소할 수 있을 것이다. 치패의 계수를 근접센서가 아닌 카메라를 사 용함으로서 장비의 구성이 간단해졌으며, 검출과 추적의 방 식이 아닌 형태학적 방법으로 계수를 수행함으로서 연산에 소요되는 시간을 줄일 수 있었다. 또한, LabVIEW 기반의 환 경이므로 GUI 제작 및 데이터 관리 등의 편리성을 가지고 있다. Fig. 12는 계수 시스템의 프런트 판넬을 나타내는 것으 로 원래의 영상과 이미지 처리한 후의 영상, 각각의 라인의 계수, 그리고 합산된 계수를 확인할 수 있다.

    5결 론

    본 논문에서는 컨베이어 시스템에서 LabVIEW의 머신비 전을 이용하여 치패를 계수하는 알고리즘을 제안하였다. 우 선 설정한 첫 번째 검출 영역에서 치패를 검출하게 되면 획 득한 정보를 이용하여 다음 프레임에서의 두 번째 영역이 결정되고 그 영역 내의 치패를 검출하여 비교 후 계수하였 다. 계수 시 가장 중요한 것은 중복하여 계수하지 않는 것으 로 검출 영역을 변경함으로서 중복하여 계수하지 않도록 하 였다. 카메라의 성능과 컨베이어의 부하 변화로 인해 불규 칙한 픽셀의 변화와 처리속도를 보였으나, 치패가 분리되어 이송하는 경우 계수는 정확히 이루어짐을 확인하였다.

    본 실험에서는 근접센서를 이용하는 컨베이어 시스템에 서 머신 비전으로 변경함으로서 계수 시스템의 구성을 유연 하게 할 수 있으며, 치패 이외에도 다양한 다른 분야에도 적 용될 수 있을 것이다.

    Figure

    KOSOMES-23-415_F1.gif

    Abalone young shells Counter.

    KOSOMES-23-415_F2.gif

    Layout of the experimental system.

    KOSOMES-23-415_F3.gif

    A flow chart of system.

    KOSOMES-23-415_F4.gif

    Progress of threshold.

    KOSOMES-23-415_F5.gif

    Blcok diagram of threshold.

    KOSOMES-23-415_F6.gif

    Block diagram of morphology.

    KOSOMES-23-415_F7.gif

    Process of Morphology.

    KOSOMES-23-415_F8.gif

    Settings of IMAQ Count Objects 2.

    KOSOMES-23-415_F9.gif

    Object movement per frame.

    KOSOMES-23-415_F10.gif

    In case of connected two objects.

    KOSOMES-23-415_F11.gif

    Block diagram of comparison between objects.

    KOSOMES-23-415_F12.gif

    Front panel of counting system.

    Table

    Reference

    1. Bartolini F , Cappellini V , Giani C (1996) Motion estimation and tracking for urban traffic monitoring , Proceedings of 3rd IEEE International Conference on Image Processing, Vol.3 ; pp.787-790
    2. Brunelli R , Poggio T (1997) Template Matching, Matched Spatial Filters and Beyond , Pattern Recognition Society, Vol.30 (5) ; pp.751-768
    3. Haralick R M , Sternberg S R , Zhuang X (1987) Image Analysis Using Mathematical Morphology , IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.PAMI-9 (4) ; pp.532-550
    4. Isard M , Blake A (1996) Contour Tracking by Stochastic Propagation of Conditional Density In Proc , European Conference Computer vision, ; pp.343-356
    5. Kim J H (2013) Technology trend and future of Machine Vision , Institute of Control, Robotics and Systems, Vol.19 (4) ; pp.23-91
    6. Navid N V , Paulo V. K. Roberts J M (2012) A Study of Feature Extraction Algorithms for optical Flow Tracking , Proceedings of Australasian Conference on Robotics and Automation, Vol.N/A ; pp.1-7
    7. Salesmbier P , Torres L , Meyer F , Gu C (1995) Region-based Video Coding using Mathematical Morphology , Proc. of the IEEE, Vol.83 (6) ; pp.843-857
    8. Sebastiani F (2002) Machine Learning in Automated Text Categorization , ACM Computing Surveys, Vol.34 ; pp.1-47
    9. Wang J , Wu X , Zhang C (2005) Support vector machines based on K-mean clustering for real-time business intelligence system , International Journal Business Intelligece and Data Mining, Vol.1 (1) ; pp.54-64
    10. (2017) www.friendeng.com (2017. 03. 04),
    11. Yokoyama M , Poggio T (2005) A Contour-Based Moving Object Detection and Tracking , ICCN '05 Proceedings of the 14th International Conference on Computer Communication and Networks, ; pp.271-276
    12. Zheng B , Xu X , Dai Y , Lu Y (2012) Object Tracking Algorithm Basd on Combination of Dynamic Template Matching and Kalman Filter , International Conference on Intelligent Human-Machine Systems and Cybernetics, Vol.2 ; pp.136-139