Journal Search Engine
Search Advanced Search Adode Reader(link)
Download PDF Export Citaion korean bibliography PMC previewer
ISSN : 1229-3431(Print)
ISSN : 2287-3341(Online)
Journal of the Korean Society of Marine Environment and Safety Vol.31 No.6 pp.1071-1079
DOI : https://doi.org/10.7837/kosomes.2025.31.6.1071

3D Point Cloud-based V-Groove Weld Line Detection Method and Comparative Analysis of Vision Sensor Performance

Ki-Seok Jung*, Bon-Yeong Park**, Dong-Kun Lee***
*PhD Candidate, Department of Ocean System Engineering, Graduate School, Mokpo National Maritime University, Mokpo 58628, Korea
**Professor, Department of Ocean Mobility and Smart Engineering, Mokpo National Maritime University, Mokpo 58628, Korea
***Professor, Department of Naval Architecture and Ocean Engineering, Mokpo National Maritime University, Mokpo 58628, Korea

* First Author : ksjung@mmu.ac.kr


Corresponding Author : dklee@mmu.ac.kr
December 1, 2025 December 24, 2025 December 26, 2025

Abstract


Welding automation in the shipbuilding industry is advancing, centered on collaborative robots, to overcome skilled labor shortages and high-risk environments. However, three-dimensional(3D) vision sensors used for measuring ship block interiors present quality degradation issues depending on the measurement distance. This study proposes a 3D point cloud-based V-groove weld line detection algorithm for collaborative robot welding automation. In particular, this study quantitatively compares sensor technologies to identify one that provides the high precision required for automated welding at close ranges of less than 1 m. A comparative evaluation of Active IR Stereo and Time-of-Flight (ToF) LiDAR sensors was performed at distances of 400, 600, and 800 mm using a 90° groove angle specimen. The results show that the Active IR Stereo sensor exhibited critical angle errors due to data distortion caused by the limitations of the triangulation principle and that it failed to detect the groove plane at 800 mm. Conversely, the ToF LiDAR sensor demonstrated robusnesst against data distortion, with the lowest mean groove angle error of 4.4° recorded at 400 mm, and stably detected the planes at all distances. This quantitatively demonstrates that the ToF method provides significantly higher reliability and precision than the Active IR Stereo method for close-range V-groove measurements.



3차원 포인트 클라우드 기반 V-개선 용접선 검출 기법 및 비전 센서 성능 분석

정기석*, 박본영**, 이동건***
*국립목포해양대학교 대학원 해양시스템공학과 박사과정
**국립목포해양대학교 첨단해양모빌리티학과 교수
***국립목포해양대학교 조선해양공학과 교수

초록


조선해양산업의 용접 자동화는 숙련 인력 부족과 고위험 환경 극복을 위해 협동로봇 중심으로 발전하고 있으나 선박블록 내부 공간을 계측하기 위한 3차원 비전 센서의 경우 계측 거리에 따라 품질이 저하되는 문제가 있다. 본 연구는 협동로봇 용접 자동화를 위해 3차원 포인트 클라우드 기반의 V-개선 용접선 검출 알고리즘을 제안하였으며 특히 자동화 용접에 필수적인 1m 미만 근거리에서 비전 센서 기술에 따른 계측 정밀도 및 검출된 평면의 개선각을 정량적으로 비교 검증하였다. 대중적으로 활용되고 있는 Active IR Stereo와 Time-of-Flight(ToF) LiDAR 센서를 400mm, 600mm, 800mm 거리에서 90° 개선각 시편으로 비교 평가한 결과 Active IR Stereo 센서는 삼각 측량 원리의 한계로 인한 데이터 왜곡으로 상당한 각도 오차를 보였으며 800mm에서는 개선면 검출에 실패하였다. 반면 ToF LiDAR 센서는 데이터 왜곡에 강건하여 400mm에서 4.4°의 가장 낮은 평균 개선각 오차를 기록했으며 모든 거리에서 안정적으로 평면을 검출하였다. 이를 통해 근거리 V-개선 형상 계측에는 ToF LiDAR 방식이 Active IR Stereo 방식보다 높은 정밀도를 제공하여 용접선 검출에 더 적합함을 정량적으로 검증하였다.



    1. 서 론

    1.1 연구 배경

    조선해양산업은 전통적으로 생산성, 안전성, 그리고 품질의 균일성 확보를 위해 자동화 기술을 지속적으로 도입해왔다. 최근 이러한 자동화의 범위는 표준화된 대형 블록 조립을 넘어 비정형 형상이 많고 구조가 복잡한 선박블록 내부 공정으로까지 확대되고 있다. 특히 용접, 도장 등은 대표적인 고위험·고강도 작업으로 분류되며 숙련공의 부족 현상과 맞물려 자동화의 필요성이 시급한 분야로 대두되고 있다. 이로 인해 인간 작업자와의 협업이 용이하고 유연한 경로 생성이 가능한 협동로봇(Collaborative Robot)을 중심으로 한 정밀 작업 자동화 연구가 활발히 진행되는 추세이다.

    선박블록 내부와 같이 협소하고 곡면이 포함된 환경에서 협동로봇을 운용하기 위한 다양한 기반 기술이 연구되었으며 Lee et al.(2024)은 선체 도장 공정에 협동로봇을 적용하기 위해 임피던스 접촉 모델 기반의 제어기를 제안하고 도장 면과의 접촉 강성 변화에 따른 추종 성능을 실험적으로 검증하였다. 이는 블록 내부 공정 자동화에서 로봇 제어 전략의 실효성을 입증하며 기술적 토대를 제공한다. 이처럼 협동로봇 기반의 용접 또는 도장 자동화를 지능화하는 핵심 기술로 3차원 스캐닝과 LiDAR(Light Detection And Ranging)를 포함한 센싱 기술이 주목받고 있으며 센서 하드웨어의 발전과 보급에 따라 대용량 포인트 클라우드를 안정적으로 계측, 정합, 해석하는 파이프라인의 중요성 역시 커지고 있다. 하지만 선박블록 내부는 3D 센싱에 열악한 환경을 가지고 있으며 협소한 공간으로 인한 센서의 제한된 시야와 거리가 가까워짐에 따른 최소 측정 거리 제약 등이 있다. 또한 깊이가 변하는 형상에서 발생하는 문제가 계측 품질 저하의 주요 요인이 되며 협동로봇의 경로 인식에 위협이 된다.

    1.2 연구 동향

    이러한 제약에도 불구하고 선박블록 환경에서 포인트 클라우드 데이터를 활용하려는 연구는 다각도로 시도되어 왔다. Lee et al.(2022a)는 이중선체 작업 환경 센싱을 위한 포인트 클라우드 데이터 취득 시스템 프로토타입을 개발하여 블록 내부 환경에서의 데이터 획득 체계와 운용상의 제약을 제시하였다. Jung et al.(2025)는 오픈소스 알고리즘을 활용한 포인트 클라우드 후처리 파이프라인을 제안하여 정합, 필터링, 특징 추출의 가능성을 보였으며 Ha and Ku(2024)는 LiDAR 기반 장애물 인식 알고리즘을 통해 작업 안전성 확보를 위한 요구사항을 구체화하였다. 또한 Song et al.(2025)의 총톤수(GT) 측정 디지털 전환 사례는 3D 스캐닝 기반 계측이 검사 및 품질관리 영역에서 전통적 방식을 대체할 수 있음을 입증하였다. 한편, 대용량 포인트 클라우드 처리와 객체 인식 측면에서 Lee et al.(2022b)은 PointNet과 RandLA-Net 을 포함한 학습 기반 기법의 성능을 비교 분석하여 대규모 데이터 처리 효율과 예측 성능 간의 균형과 전처리·정합 품질의 중요성을 강조하였다.

    이와 같이 협동로봇 기반 선박블록 공정 자동화의 수요 증가와 3D 스캐닝 및 LiDAR 센싱 등 하드웨어의 발전과 보급, 오픈소스 생태계를 중심으로 한 후처리, 정합, 분석 알고리즘의 고도화가 맞물리면서 선박블록 내부의 센싱–해석–제어를 유기적으로 연결하는 자동화 기술의 필요성이 높아지는 추세이다. 그러나 실제 협동로봇의 용접 자동화 관점에서 보면 근거리 센싱이 필요한 선박블록 내부 환경에서 용접선을 안정적으로 추출해 협동로봇의 경로로 변환하는 과정에는 여전히 기술적 공백이 존재한다.

    1.3 연구 목적 및 방법론

    자동화 용접에서 가장 중요한 요소 중 하나는 용접 개선 (groove)의 형상을 정확히 인식하는 것이다. 용접 품질은 로봇이 개선의 형상과 개선각(groove angle)을 얼마나 정확하게 측정하고 이를 경로로 생성하느냐에 따라 결정된다. 기존의 상용 센서들의 성능을 비교한 연구들이 존재하지만 이는 대부분 일반적인 3D 객체 인식이나 특정 환경에서의 성능 평가에 초점을 맞추고 있다. 즉 자동화 용접에 필수적인 1m 미만의 근거리에서 개선각이라는 특정 기하학적 형상을 측정 하는데 있어 어떤 센서 기술이 더 높은 정밀도를 제공하는 지에 대한 정량적 비교 연구는 부족한 실정이다. 이에 본 연구에서는 3차원 포인트 클라우드 기반의 용접선 검출 성능을 정량적으로 평가하기 위해 두 가지 다른 원리의 3D 비전 센서를 비교하였으며 Active Infrared Radiation(IR) Stereo 방식의 Intel RealSense D455와 Time-of-Flight(ToF) LiDAR 방식의 Intel RealSense L515 센서를 대상으로 하였다.

    본 연구에서는 통제된 실내 실험실 환경에서 두 센서의 근본적인 계측 성능을 비교하는데 초점을 맞추었으며 개선 각이라는 기하학적 형상을 근거리에서 얼마나 정확히 구현 해내는지를 평가하는데 목적을 두었다. 이를 달성하기 위해 용접 환경을 모사하는 가상의 용접 시편 제작 시 표면 광학적 변수의 영향을 줄이기 위하여 난반사의 발생이 적은 무광의 3D 프린팅 소재를 사용하였다.

    또한 두 센서를 각각 400mm, 600mm, 800mm의 세 가지 다른 거리에서 고정하여 용접 시편의 3차원 포인트 클라우드 데이터를 계측하였으며 계측된 포인트 클라우드 데이터에 평면 분할 알고리즘을 적용하여 용접 시편의 개선면(groove planes)에 해당하는 두 평면을 추출하고 두 평면의 간의 각도를 계산하여 개선각을 도출하였다. 최종적으로 각 센서와 거리 조건에 따라 측정된 개선각을 실제 3D 프린팅 모델의 설계값과 비교하여 센서별/거리별 용접선 검출 성능을 정량적으로 평가하였다.

    2. 3D 비전 센서 기반 포인트 클라우드 계측 실험 환경

    2.1 3D 비전 센서 비교

    본 연구에서는 3차원 포인트 클라우드 계측을 위해 서로 다른 측정 원리를 가진 두 종류의 비전 센서인 Active IR Stereo 방식과 Time-of-Flight LiDAR 방식의 센서를 선정하여 용접선 검출 성능을 비교하였다. 이 두 센서는 유사한 가격대에서 서로 다른 측정 방식을 대표하며 이들의 근본적인 측정 원리 차이가 어떤 성능 차이로 이어지는지 확인하는 것이 본 연구의 주요 목표 중 하나이다. 다음 Table 1에는 각 센서의 사양을 비교하였다.

    Active IR Stereo 방식은 기하학적 삼각 측량(triangulation) 원리에 기반하며 Fig. 1(a)에 나타낸 바와 같이 적외선(Infrared Radiation, IR)을 투사하는 IR projector와 두 개의 Image sensors로 구성된다. 먼저 IR projector는 객체 표면에 구조광(structured light)이라 불리는 적외선 패턴(예: 점 또는 선)을 투사한다. 이 패턴은 객체의 3차원 형상에 따라 왜곡되며 일정한 간격의 베이스라인(baseline) 만큼 떨어져 있는 두 개의 이미지 센서가 이 왜곡된 패턴을 동시에 촬영한다. 시스템은 두 이미지 센서가 촬영한 이미지 간의 패턴 시차를 픽셀 단위로 계산하고 이 시차 값과 센서의 베이스라인 길이, 초점 거리 등 내부 파라미터를 삼각 측량 공식에 대입하여 각 픽셀의 깊이(depth) 정보를 정밀하게 계산한다. 이 과정을 통해 고밀도의 3차원 포인트 클라우드가 생성되며 이 방식은 일반적으로 근거리에서 고밀도 데이터 획득에 유리하지만 투사된 패턴이 왜곡되기 쉬운 금속의 반사면에 취약하고 주변 광원의 영향을 받는 단점이 있다.

    Time-of-Flight LiDAR 방식은 빛의 비행시간(Time of Flight)을 직접 측정하여 거리를 산출하는 원리에 기반하며 Fig. 1(b)에 나타낸 바와 같이 레이저(laser)와 수신기(receiver)로 구성된다. 레이저가 객체를 향해 펄스(pulse) 형태의 빛을 발사하면 빛은 객체 표면에 도달한 후 반사되며 수신기는 이 반사된 빛을 감지한다. ToF LiDAR 센서의 핵심은 빛이 발사된 시점과 수신기에 도달한 시점 간의 미세한 시간 차이 (Δt)를 측정하는 것이다. 빛의 속도(c)는 일정하므로 측정된 거리(measured distance, d = (cΔt)/2)라는 수식을 통해 직접 계산된다. ToF LiDAR 센서는 이 과정을 고속으로 계측하여 3차원 공간 전체의 포인트 클라우드를 생성하며 능동적인 광원을 사용하므로 외부 조명 변화에 영향이 적고 삼각 측량에 비해 왜곡에 강건한 특성이 보이며 일반적으로 Active IR Stereo 센서 보다 긴 측정 거리를 지원한다.

    2.2 실험 환경 구성

    본 연구는 Active IR Stereo와 ToF LiDAR 센서의 근본적인 계측 특성을 정량적으로 비교하기 위해 외부 변수의 영향을 최소화한 통제된 실험 환경을 구축하였다. 이를 위해 Fig. 2(a)와 같이 맞대기 용접(butt weld)에 사용되는 V-개선(V-groove) 형상을 3D CAD로 모델링하였으며 시편은 140mm × 140mm × 10mm의 규격을 갖도록 설계하였다. 중앙부에는 90°의 개선각과 2mm의 루트 간격(root gap)을 부여하여 실제 용접부 형상을 모사하였다.

    또한 Fig. 2(b)와 같이 시편 제작은 PLA(Polylactic Acid) 소재를 사용한 3D 프린팅 방식으로 제작하였으며 실험 환경은 Fig. 2(c)와 같이 센서 고유의 계측 성능만을 평가하기 위하여 외부 광원에 따른 반사·저조도 등의 실제 현장 변수를 배제한 실내조명 환경만으로 구축하였다.

    두 종류의 비전 센서는 삼각 거치대를 활용하여 동일한 자세와 설치 조건을 유지하도록 고정하였으며 시편은 센서의 정면을 이루도록 배치하였다. 센서와 시편 간 거리는 1m 미만의 근거리(400mm, 600mm, 800mm)로 구분하여 순차적으로 변경시켰으며 각 거리 조건에서 단일 프레임의 3차원 포인트 클라우드를 계측하였다. 이는 다중 정합이나 후처리에 따른 오차 누적을 배제하고 순수하게 센서 측정 원리에 기인한 성능 차이를 분석하기 위한 설정이다.

    본 연구에서 핵심이 되는 성능 지표는 개선각 오차이며 계측된 3차원 포인트 클라우드로부터 평면 분할을 수행하여 두 개의 개선면을 추출하고 각 개선면의 법선 벡터(normal vector)가 이루는 기하학적 각도를 계산하였다. 이후 이 계산된 개선각을 설계각인 90°와 비교함으로써 비전 센서 방식 및 계측 거리 변화에 따른 성능 차이를 평가하였다.

    3. 계측 데이터 품질 분석

    본 연구는 추출된 평면의 적합도를 평가하기 위한 지표로 RMSE(Root Mean Squared Error)를 활용하였다. RMSE는 3차원 포인트 클라우드 내에서 추출된 평면과 3D CAD 모델이 얼마나 일치하는지를 나타내는 지표이며 RMSE의 계산 수식을 식 (1)에 나타내었다. 여기서 N 은 추출된 평면에 속하는 점들의 총 개수이며 dii번째 점이 3D CAD 모델로부터 수직으로 떨어진 거리를 의미한다. 즉 RMSE가 낮을수록 추출된 평면의 노이즈가 적고 높은 정확도의 점들로 평면이 구성되어있음을 의미한다.

    R M S E = 1 N i = 1 N ( d i ) 2
    (1)

    각 조건에서 계측된 3차원 포인트 클라우드의 점의 개수와 RMSE 결과를 Table 2에 나타내었다. 계측 거리가 증가함에 따라 두 센서 모두 계측된 점의 개수가 감소하는 3차원 센서의 특성을 보여주었으며 ToF LiDAR 센서의 경우 Active IR Stereo 센서에 비해 대략 4배 이상의 많은 점의 개수를 보여주었다. 특히 Active IR Stereo 센서는 800mm에서 2,878개의 희소한 점들을 계측하여 데이터의 밀도가 급격히 저하되었다. 반면 ToF LiDAR 센서는 가장 먼 거리에서도 12,116개의 점을 계측하여 Active IR Stereo 센서의 가장 가까운 거리의 10,605개 보다 많은 점을 계측하여 데이터 계측 안정성을 보여주었다.

    RMSE의 경우 센서에 따라 거리 의존성을 보여주었다. Active IR Stereo 센서의 RMSE는 400mm에서 2.833mm였으나 600mm에서 3.199mm, 800mm에서 3.479mm로 지속적으로 증가하였으며 이는 삼각 측량 원리가 측정 거리에 크게 의존하며 거리가 증가할수록 깊이에 대한 거리 오차가 증가되는 한계를 보여준 것으로 판단된다. 반면 ToF LiDAR 센서는 400mm에서 3.475mm, 600mm에서 3.484mm, 800mm에서 3.730mm로 상대적으로 RMSE가 높은 것으로 나타났다.

    Fig. 3에는 Case 별 계측된 3차원 포인트 클라우드의 각 점과 3D CAD 모델간의 거리 오차를 시각화하여 나타내었다. 시각적 분석 결과 Active IR Stereo 센서의 경우 Case-1은 3D CAD 모델과 비교하여 V-개선 모서리의 오차를 확인하였으며 Case-2는 거리가 증감함에 따라 품질이 저하되어 V-개선 형상이 더욱 왜곡된 것을 확인하였다. 또한 Case-3의 경우 V-개선의 형상을 구분하기 어려울 정도로 품질이 저하되었다. 반면에 ToF LiDAR 센서의 경우 Case-4는 V-개선 형상의 각도가 가장 선명하게 계측된 것을 확인하였으며 Case-5의 경우 거리가 증가했음에도 불구하고 Case-1, 2, 3에 비해 비교적 선명하게 V-개선이 계측되었다. 다만 V-개선 형상의 각도가 점진적으로 완만하게 왜곡되기 시작하였으며 Case-6은 Case-4, 5, 6 중에서는 가장 심한 왜곡을 나타내었다.

    Fig. 4는 계측된 3차원 포인트 클라우드를 X방향 10등분, Y방향 10등분하여 총 100개의 격자(grid)로 분할한 뒤 각 셀의 개별 RMSE를 계산하여 히트맵(heatmap)으로 나타내었다. 이를 통해 V-개선부 특정 영역의 왜곡 현상을 정량적인 수치로 비교하였다. Active IR 센서의 Case-2, 3의 경우 셀 전반에 걸쳐 RMSE가 불균일한 반면 ToF LiDAR 센서의 경우 Case-4, 5의 RMSE는 대부분의 셀에서 평면부는 낮고 V-개선부는 높은 균일한 양상을 보여주었다. 이처럼 V-개선부 영역(Grid X 4, 5)의 RMSE는 평탄한 용접판 영역에 비해 상당히 높은 값을 나타내었으며 특히 Case-4의 경우 평탄한 용접 판의 RMSE가 약 2mm 내외인 반면 중앙부 영역은 5mm에서 8mm 이상의 RMSE를 나타내었다. 이러한 중앙부는 V-개선의 이음부로서 두 센서 모두 오차가 집중되는 경향을 보였으며 이러한 원인으로는 V-개선의 두 경사면에서는 센서의 구조광과 펄스가 경사 입사하게 되며 이로 인하여 왜곡이 더 쉽게 발생하는 것으로 판단된다. 뿐만 아니라 거리가 멀어질수록 경사면에서 반사되어 돌아오는 신호가 불안정해져 개선면이 완만하게 계측되는 왜곡 현상이 발생하는 것으로 판단된다. 한편 Case-5와 Case-6의 중앙부 RMSE가 더 낮음에도 불구하고 각 개선면의 형상 왜곡이 Case-4와 비교하여 크게 발생하였으며 이는 Case-4의 V-개선 형상이 가장 예리하게 계측되어 3D CAD 모델과의 거리가 멀어짐에 따라 RMSE가 오히려 증가한 것으로 확인되었다.

    4. 용접선 검출 알고리즘 및 평가

    4.1 용접선 검출 알고리즘

    앞서 계측된 PLY(Polygon File Format) 형식의 3차원 포인트 클라우드 원본 데이터는 용접 시편의 기하학적 형상을 포함하고 있으나 용접 자동화를 위해서는 이를 활용 가능한 3차원 경로로 변환하는 알고리즘을 필요로 한다. 이에 따라 본 장에서는 V-개선 형상을 분석하고 3차원 경로로 변환하기 위한 3차원 포인트 클라우드 처리 알고리즘을 다루었다. Fig. 5에 나타낸 흐름도와 같이 용접선 검출 알고리즘은 RANSAC(Random Sample Consensus) 기법을 기반으로 다중 평면 분할, 평면의 기하학적 특성을 이용한 교차선(intersection line) 계산 그리고 최종 용접선 경로 시각화 과정을 거쳐 수행된다.

    본 연구에서 평면을 추출하기 위해 사용되는 RANSAC 기법은 Fig. 6과 같이 2차원 선 추정(line estimation)의 간단한 예시를 통해 설명할 수 있다. 먼저 선을 정의하기 위한 최소한의 샘플 포인트 2개를 선정하여 무작위 가설(hypothesis)을 구성하고 지지도가 가장 높은 가설을 선택한다. 다음으로 가설을 만족하는 정상치(inlier) 포인트로부터 모델의 매개변수를 추정하고 마지막으로 최신 모델과 일치하는 포인트를 새로운 정상치로 설정하여 모델을 재평가하는 단계로 이루어 진다. 이처럼 RANSAC 기법은 다수의 이상치(outlier)를 포함하는 데이터에서 특정 모델(직선, 원, 평면 등)의 파라미터를 추정하는데 효과적인 방법이다.

    용접선 검출 알고리즘은 초기 파라미터 설정 및 PLY 파일 로드에서 시작되며 핵심 분기점은 단일 평면을 추출할 것인지 혹은 다중 평면을 추출할 것인지를 결정한다. 본 연구의 목적인 V-개선 용접선 검출은 두 개 이상의 평면이 만나 형성하는 기하학적 특징을 분석해야 하므로 다중 평면 추출 경로를 따라야 하며 단일 평면 추출 경로는 일반적인 편평도 분석 혹은 V-개선면이 명확히 추출되지 않는 예외적인 경우를 대비하여 구현되었다.

    다중 평면을 추출한 후 V-개선에 해당하는 두 개의 주요 평면을 식별하기 위해 방향성(orientation) 및 특징(features)을 기준으로 평면을 정렬하며 이 과정을 통해 Fig. 7(b)와 같이 개선면(Plane-2, Plane-3)이 상판(Plane-1)과 구분된다. 다음으로 분할되고 정렬된 평면의 정상치 포인트 클라우드를 기반으로 식(2)의 평면의 방정식을 활용하여 수학적 모델을 생성하고 메쉬를 생성한다.

    A x + B y + C z + D = 0
    (2)

    알고리즘의 최종 단계는 자동 용접을 위한 실제 용접 경로를 생성하는 것이며 본 연구에서 용접선은 정렬된 두 개의 개선면의 평면 방정식을 연립하여 기하학적으로 교차하는 교차선을 계산하였다.

    Fig. 7에는 이 다중 평면 추출 파이프라인을 통해 V-개선 용접선이 검출되는 일련의 예시 과정을 시각적으로 나타내었다. Fig. 7(a)의 3차원 포인트 클라우드를 시작으로 Fig. 7(b) 에서 RANSAC을 통해 다중 평면을 분할하고 이를 기반으로 Fig. 7(c)의 메쉬 평면을 생성한 뒤 최종적으로 Fig. 7(d)의 두 평면이 교차하는 용접선을 도출한다.

    특히 RANSAC 알고리즘을 활용한 평면 추출 단계에서는 노이즈 환경에서도 높은 정밀도를 확보할 수 있도록 파라미터를 설정하였다. 거리 임계값(Distance threshold)은 1.0mm로 설정하였으며 이는 해당 범위 이내의 평면에 부합하는 정상치만을 선별하여 형상 정확도를 극대화하였다. 또한 노이즈로 인한 이상치 비율이 높은 환경에서도 최적의 평면을 추정할 수 있도록 반복 횟수(Iteration number)를 2,000회로 설정하여 탐색 확률을 충분히 확보하였다.

    특히 확률적 특성을 가진 RANSAC 알고리즘이 노이즈가 많은 포인트 클라우드 데이터에서 매번 상이한 결과를 도출하는 문제를 방지하고 재현성을 확보하기 위하여 두 가지 방안을 적용하였다. 첫 번째로 난수 생성 시드를 고정하여 동일한 입력 데이터에 대해 항상 동일한 샘플링이 수행되도 록 하였다. 두 번째로 다중 평면 추출 시 노이즈에 의해 평면의 검출 순서가 뒤바뀌는 현상을 방지하기 위해 기하학적 특성 기반 정렬 알고리즘을 추가하였으며 이는 추출된 평면들을 단순히 검출된 순서로 분할하는 것이 아닌 법선 벡터의 방향을 기준으로 재정렬하여 분할되도록 하였다. 결과적으로 복잡한 전처리나 필터링 없이도 최적화된 RANSAC 파라미터와 정렬 기법의 적용만으로 용접 시편의 평면을 일관성 있고 안정적으로 추출할 수 있도록 하였다.

    4.2 성능 평가 및 결과 분석

    성능 평가를 위한 지표는 용접 자동화 관점에서 보다 직접적인 지표인 평균 개선각 오차(mean groove angle error)를 활용하였다. 평균 개선각 오차는 검출된 V-개선의 두 평면 법선 벡터가 이루는 각도와 용접 시편의 원본 설계값인 90° 간의 차이를 의미한다.

    Case-1 ~ Case-6에 대해 4.1절의 알고리즘을 적용하여 1차, 2차, 3차 반복 계측 결과를 Table 3에 정리하고 Fig. 8에 검출된 평면을 나타내었다. Active IR Stereo 센서의 경우 Case-1, Case-2의 평균 개선각 오차는 각각 29.4°와 44.9°로 나타나 설계값 대비 매우 큰 편차를 보였으며 Case-3에서는 평면 검출 자체에 실패하여 개선각 산출이 불가하였다. Szeliski(2022)에 따르면 Active IR Stereo 센서의 경우 깊이 오차는 거리의 제곱에 비례하여 증가하는 특성을 가지며 이에 따라 깊이 분해능 저하가 주된 원인으로 판단된다. Case-1에서 Case-3으로 측정 거리가 2배로 증가할 때 이론적인 깊이 오차는 4배로 급증하게 되며 800mm 거리에서는 패턴 시차 또한 현저히 작아져 픽셀 단위의 매칭 불확실성이 증폭된다. 이로 인한 깊이 정보의 심각한 왜곡이 평면 검출 실패의 주된 원인으로 분석되며 1차 계측부터 평면 검출에 실패하였기 때문에 추가 반복 계측을 수행하더라도 유의미한 개선을 기대하기 어려워 2, 3차 계측은 불필요하다고 판단하였다.

    반면 ToF LiDAR 센서는 모든 거리에서 3회 반복 계측 동안 평면 검출에 성공하였으며 평균 개선각 오차도 Active IR Stereo 센서에 비해 상대적으로 안정적인 결과를 보였다. Case-4의 평균 개선각 오차는 4.4°로 가장 낮은 오차를 나타내었으며 Case-5와 Case-6의 경우 거리가 증가함에 따라 평균 개선각 오차가 13.4°와 20.7°로 증가하는 경향을 보였다.

    특히 Case-1과 Case-4의 비교 시 전체 평균 RMSE와 실제 개선각 오차 사이에 역설적인 결과가 나타났다. Active IR Stereo 센서인 Case-1의 경우 평면부(Grid X 0~3, 6~9)에서는 0.27~2.28mm 수준의 낮은 RMSE 분포를 보여 높은 정밀도를 기록하였으나 V-개선부(Grid X 4, 5)에서는 4.71~6.80mm로 상승하는 경향을 보였다. 이처럼 평면부의 낮은 분산이 전체 평균 RMSE를 낮추는데 효과를 주었으나 실제 개선각 검출의 핵심인 V-개선부에서는 삼각 측량의 한계로 인한 데이터 왜곡이 발생한 것으로 판단된다.

    ToF LiDAR 센서의 경우 평면부에서 0.34~3.05mm의 분포를 보이며 상대적으로 높은 분산 특성을 보였으며 V-개선부에서는 RMSE가 5.61~8.43mm까지 급증하여 Active IR Stereo 센서 보다 불안정해지는 결과를 보였다. 그러나 Case-4가 V- 개선부에서 더 높은 RMSE를 기록하였음에도 불구하고 평균 개선각 오차는 4.4°로 Case-1의 29.4° 대비 정확하였으며 이러한 원인은 ToF LiDAR 센서의 포인트 클라우드가 거칠게 계측되었을지라도 V-개선 형상 자체는 실제와 유사하게 계측 되었기 때문으로 분석된다. 즉 RMSE가 낮게 나타났다는 것은 해당 평면에 속하는 점들이 서로 균일한 평면을 형성하고 있음을 의미하지만 이것은 반드시 그 해당 평면이 실제 물리적 형상과 일치한다는 것을 보장하지 않으며 이는 계측 원리에 따른 센서의 한계로 판단된다.

    Active IR Stereo 센서의 경우 400mm 이상의 거리에서는 삼각 측량의 구조적 한계로 인하여 실용적인 용도로 사용하기 어려운 수준의 오차를 보여주었다. 반면 ToF LiDAR 센서는 동일한 조건에서 800mm 거리까지 안정적으로 평면을 검출 하였고 400mm 거리에서 가장 정확하게 개선각을 계측하였다. 비록 거리가 증가함에 따라 오차가 증가하였으나 용접선 경로를 지속적으로 추출 할 수 있다는 점에서 용접 자동화를 위한 센서로 활용하기에 적합하다고 판단된다. 이와 같이 평면 검출 및 V-개선각을 비교함으로써 실제 협동로봇 기반 용접 자동화에 적합한 센서를 판단할 수 있었으며 1m 이내의 근거리 V-개선 용접선 계측에는 ToF LiDAR 센서가 전반적으로 월등한 성능과 신뢰성을 보여주었다.

    또한 본 연구는 센서 고유의 기하학적 계측 성능을 평가하기 위해 PLA 소재를 사용하였으나 금속 표면에서는 재질 특성에 따라 노이즈와 왜곡이 증폭될 수 있다. Active IR Stereo 센서의 경우 금속 표면에서 발생하는 강한 반사로 인하여 투사된 IR 패턴이 소실되거나 번지는 현상이 발생할 수 있으며 이는 데이터의 결측이나 급격한 이상치를 증가시키는 원인이 될 수 있다. ToF LiDAR 센서의 경우 V-개선과 같은 오목한 형상에 발사된 레이저가 표면 간에 여러 번 반사되어 수신기로 들어오는 다중 경로 간섭이 발생할 수 있으며 이는 모서리 부분이 둥글게 뭉개지는 형상 왜곡을 야기할 수 있으므로 현장 적용 시에는 신호 강도 기반의 필터링 기법이 추가적으로 요구될 것으로 판단된다.

    5. 결론 및 향후 연구

    본 연구는 선박블록 내부와 같은 복잡한 환경에서 협동로봇 용접 자동화를 구현하기 위한 핵심 기술로 3차원 포인트 클라우드 기반의 V-개선 용접선 검출 기법을 제안하고 서로 다른 측정 원리를 가진 두 비전 센서의 계측 데이터를 정량적으로 비교 평가하였다. 먼저 센서 측정 원리가 V-개선 정밀도에 결정적인 영향을 미친다는 것을 확인하였으며 Active IR Stereo 센서는 삼각 측량 원리의 한계로 인해 V-개선과 같은 특정 형상에서 근본적인 데이터 왜곡 현상을 보였다. 이는 낮은 RMSE에도 불구하고 29.4° 이상의 치명적인 개선각 오차를 발생시켰으며 800mm 거리에서는 평면 검출에 실패하여 해당 방식이 V-개선 측정에 부적합함을 확인하였다.

    반면 ToF LiDAR 센서는 근거리 형상 계측에 더 높은 신뢰성을 제공하였으며 데이터 왜곡에 강건하여 상대적으로 낮은 개선각 오차를 나타내고 400mm의 근거리에서 4.4°라는 가장 낮은 평균 개선각 오차를 기록하였다. 실제 조선소의 선박 블록 용접 공정에서 요구되는 토치의 작업각 허용 공차는 일반적으로 V-개선 형상의 이등분선을 기준으로 ±5° 범위로 관리된다. 따라서 4.4°의 평균 개선각 오차는 협동로봇이 V-개선 중심을 향해 토치를 정렬할 때 약 2.2°의 토치 기울기 오차를 유발할 것으로 추정되며 이는 일반적인 허용 공차 범위 이내에 해당하므로 치명적인 결함을 피할 수 있을 것으로 판단된다. 다만 보다 정밀한 용접을 위해서는 실제 용접 중 발생하는 아크 신호를 이용한 제어로 잔여 오차를 실시간으로 보정하는 전략이 필요할 것으로 판단된다.

    한편 본 연구는 3D 프린팅으로 제작된 PLA 시편을 실험실 환경에서 진행하였다는 한계를 가지고 있으며 향후 연구에서는 다음과 같은 방향으로 확장할 필요가 있다. 첫째 실제 용접 환경에서 발생하는 금속 표면의 난반사가 ToF LiDAR 센서의 정밀도에 미치는 영향을 검증하기 위해 실제 강철(steel) 용접 시편을 대상으로 비교 평가가 수행되어야 한다. 둘째 단일 스캔뿐만 아닌 실제 선박블록 내부의 복잡한 구조물을 대상으로 다중 시점 정합을 포함한 알고리즘을 개발할 필요가 있다. 마지막으로 본 연구에서 검증된 ToF LiDAR 센서와 RANSAC 기반 알고리즘을 협동로봇에 통합하여 생성된 용접 경로를 따라 이동하는 자동화 시스템을 구현하는 것이 필요하다.

    Acknowledgement

    이 논문은 2025년도 정부(교육부)의 재원으로 한국연구재단 국립대학육성사업의 지원을 받아 수행된 연구입니다.

    Figure

    KOSOMES-31-6-1071_F1.jpg

    Comparison of 3D sensor measurement principles.

    KOSOMES-31-6-1071_F2.jpg

    Experimental configuration.

    KOSOMES-31-6-1071_F3.jpg

    Comparison of measured 3D point cloud distributions.

    KOSOMES-31-6-1071_F4.jpg

    Comparison of Grid RMSE Values.

    KOSOMES-31-6-1071_F5.jpg

    Experimental configuration.

    KOSOMES-31-6-1071_F6.jpg

    Process of RANSAC algorithm (Civera et al., 2010).

    KOSOMES-31-6-1071_F7.jpg

    Process of V-groove weld line.

    KOSOMES-31-6-1071_F8.jpg

    Results of plane segmentation on the V-groove.

    Table

    Comparison of 3D vision sensor specification

    Comparison of 3D point cloud quality by sensor type

    Result of groove angle measurement

    Reference

    1. Civera, J., O. G. Grasa, A. J. Davison, and J. M. Montiel ( 2010), 1‐ Point RANSAC for extended Kalman filtering: Application to real‐ time structure from motion and visual odometry, Journal of Field Robotics, Vol. 27, No. 5, pp. 609-631.
    2. Ha, S. and N. K. Ku ( 2024), Development and validation of a point cloud data processing algorithm for obstacle recognition in double hull block, Journal of Ocean Engineering and Technology, Vol. 38, No. 5, pp. 210-217.
    3. Jung, K. S., J. S. Kim, B. Y. Park, and D. K. Lee ( 2025), Post-processing methods and applications for ship block 3D scanning data based on open-source point cloud algorithms, Journal of the Society of Naval Architects of Korea, Vol. 62, No. 1, pp. 57-66.
    4. Lee, D. K., S. H. Ji, and B. Y. Park ( 2022b), PointNet and RandLA-Net algorithms for object detection using 3D point clouds, Journal of the Society of Naval Architects of Korea, Vol. 59, No.5, pp. 330-337.
    5. Lee, J. J., H. S. Lee, and H. Yi ( 2024), Control of collaborative robot based on impedance contact model for ship hull painting operations, Transactions of the KSME C Industrial Technology and Innovation, Vol. 12, No. 2, pp. 157-162.
    6. Lee, J. W., N. K. Ku, and J. Y. Lee ( 2022a), Development of point cloud data acquisition system prototype for sensing working environment in double hull block, Korean Journal of Computational Design and Engineering, Vol. 27, No. 4, pp. 375-381.
    7. Song, B. H., B. Y. Park, and D. K. Lee ( 2025), A case study on the introduction of an advanced ship inspection method: Gross Tonnage measurement 3D point clouds, International Journal of Naval Architecture and Ocean Engineering, Vol. 17, 100677.
    8. Szeliski, R. ( 2022), Computer vision: algorithms and applications, Springer Nature.