Journal Search Engine
Search Advanced Search Adode Reader(link)
Download PDF Export Citaion korean bibliography PMC previewer
ISSN : 1229-3431(Print)
ISSN : 2287-3341(Online)
Journal of the Korean Society of Marine Environment and Safety Vol.28 No.7 pp.1274-1280
DOI : https://doi.org/10.7837/kosomes.2022.28.7.1274

Prediction of Resistance Performance for Low-Speed Full Ship using Deep Neural Network

TaeWon Park*, JangHoon Seo**, Dong-Woo Park***
*Researcher, Shipbuilding & Marine Simulation Center, Tongmyong University, Busan 48520, Korea
**Researcher, Shipbuilding & Marine Simulation Center, Tongmyong University, Busan 48520, Korea
***Professor, School of Naval Architecture & Ocean Engineering, Tongmyong University, Busan 48520, Korea

* First Author : darkptw@tu.ac.kr, 051-629-3662


Corresponding Author : dwpark@tu.ac.kr, 051-629-1654
December 5, 2022 December 26, 2022 December 28, 2022

Abstract


The resistance performance evaluation of general ships using computational fluid dynamics requires a lot of time and cost, and various methods are being studied to reduce the time and cost. Existing methods using main particulars or cross sections of ships have limitations in estimating resistance performance that is greatly dependent on the shape of the ship. In this paper, we propose a deep neural network model that can quickly predict the resistance performance of the hull surface by inputting the geometric information of the hullform mesh. The proposed deep neural network model based on Perceiver IO can immediately predict resistance performance, unlike computational fluid dynamics techniques that require calculation in each time step. It shows the result of estimating the resistance performance with an average error of less than 1% in the data set for a 50 K tanker ship, a type of low-speed full ship.



심층신경망을 이용한 저속비대선의 저항성능 추정

박 태원*, 서 장훈**, 박 동우***
*동명대학교 조선해양시뮬레이션센터 연구원
**동명대학교 조선해양시뮬레이션센터 연구원
***동명대학교 조선해양공학과 교수

초록


전산유체역학을 사용하는 일반적인 선박의 저항성능 평가는 많은 시간과 비용이 필요하며, 이를 줄이기 위한 다양한 방법이 연구되고 있다. 선박의 주요 치수나 단면을 이용하는 기존의 방법들은 선형에 크게 좌우되는 저항성능을 추정하는데 한계가 있다. 본 논 문에서는 선형 격자의 기하학적 정보를 입력으로 선체 표면의 저항성능을 빠르게 추정할 수 있는 심층신경망 모델을 제안한다. Perceiver IO 기반의 제안하는 심층신경망 모델은 시간 단계별로 계산이 필요한 전산유체역학 기법과 달리 바로 저항성능 추정이 가능하며, 저속비 대선의 일종인 50K 탱커 선박을 대상으로 한 데이터집합에서 평균 1% 미만의 오차로 저항성능을 추정하는 결과를 보인다.



    1. 서 론

    선박의 선형 설계 및 주요 치수를 선정하기 위해서는 여 러 성능에 대한 해석 및 계산이 필요하다. 대표적인 선박의 성능은 저항, 자항 및 조종 운동 성능 등이 있으며, 그중 선 박의 저항성능은 선형 및 주요 기관을 설계하기 위한 주요 인자 중 하나이다.

    최근 저항성능 평가는 초기 선형에서부터 전산유체역학 (Computational Fluid Dynamics, CFD) 해석을 사용하여 저항성 능을 예측하고, 모형 시험을 통해서 최종 평가하는 방법을 사용하고 있다. CFD 해석을 이용한 저항성능평가는 기존에 많은 시간이 소요되었으나, 대형 조선사의 경우 최근 전산 장비의 비약적인 발전으로 더 정확하고 빠른 저항성능 해석 을 수행하고 있다. 반면에 중소형 조선사의 경우 전산장비 가 대형 조선사에 비해 상대적으로 잘 갖춰지지 않아, CFD 해석을 이용한 저항성능 평가에 많은 시간이 소요되거나, 제한된 조건에서의 평가만을 수행하는 실정이다.

    이러한 선박의 저항성능을 추정하기 위한 CFD 해석 및 모형 시험의 시간과 비용을 절약하기 위해 다양한 방법이 연구되고 있다. Cho et al.(2019)은 선박의 초기 설계 단계에 서 주요 치수를 이용하여 저항성능을 추정할 수 있는 심층 학습 모델을 제안하였다. Kim et al.(2020)은 기계학습 기법을 이용하여 저속 비대선의 잉여 저항 계수를 추정하였으며, Kim et al.(2022)은 합성곱 신경망을 이용하여 선박의 단면 형 상을 입력으로 선박의 잉여 저항 계수를 추정하였다.

    기존의 선행 연구는 주요 치수 또는 선박의 단면 형상 이 미지를 단독으로 사용하였다. 하지만 선박의 저항성능은 선 형에 의해 크게 좌우되며, 저항성능의 향상을 위한 선형 설 계는 국부 영역에서의 저항 계수 변화를 확인이 필요하다. 이에 실제 저항성능을 예측하기 위한 모델의 훈련에서는 선 형과 국부 영역에서의 저항성능이 필수로 고려되어야 한다. 또한 소형 선박에 대한 저항성능 예측에 대한 선행 연구는 이루어지지 않고 있으나, 중소형 선박의 저항성능 예측에 대한 필요성은 상대적으로 대형 선박에 비해 더 클 것으로 추정된다.

    본 논문에서는 심층신경망(Deep Neural Network, DNN) 모 델을 사용해서 Fig. 1과 같이 시간 단계별 계산이 필요없는 방식으로 저속 비대선인 50K 탱커 선박 선형의 저항성능을 빠르게 예측하는 기법을 제안한다. 2장에서는 선형 격자의 기하학적 정보를 처리하는 모델의 구조를, 3장에서는 실험 대상인 50K 탱커 선박과 CFD 해석 결과를 사용한 데이터집 합 수집 및 심층학습 방법을 설명한다. 4장에서는 테스트용 데이터집합에 대해 제안한 기법의 저항성능 추정 결과를 보 인다.

    2. 심층신경망 모델

    2.1 심층신경망의 입력과 출력

    심층신경망의 입력은 선박 선형의 기하학적 정보인 각 셀 의 중심점 좌표의 집합 p N c e l l × 3 와 법선벡터의 집합 n N c e l l × 3 이다. 그리고 저항성능 추정을 위한 물리량인 압력, 좌표축별 벽 전단응력 그리고 부가적으로 물 부피분 율을 결합한 물리량 집합 q N c e l l × 5 를 출력한다.

    2.2 심층신경망 구조

    선형에 대한 저항성능을 추정하기 위한 심층신경망 모델 은 선형의 전체적인 기하학적 특징을 파악해야 하는데, 이 를 위해서는 각 셀에 대한 정보를 통합해서 처리해야만 한 다. 이와 유사하게 언어 인공지능 모델은 문장에서 단어 간 의 정보를 통합해서 처리할 필요가 있는데, 이런 서열 데이 터를 처리하기 위해서 사용하는 대표적인 심층신경망 모델 이 Transformer(Vaswani et al., 2017) 모델이다.

    Transformer 모델에서 가장 핵심적인 부분은 Fig. 2에서 볼 수 있는 MHA(multi-head attention)층으로 입력 특징을 위한 V N K × d 서열, 입력 위치를 위한 K N K × d 서열, 출 력 위치를 위한 Q N Q × d 서열을 사용한다. scaled dot product attention은 식(1)과 같이 먼저 Q 행렬과 K 행렬의 내 적을 특징 벡터의 길이 d의 제곱근의 역수로 크기를 조절하 고 softmax 함수를 행 단위로 적용해서 입력 서열에 대한 attention 점수를 계산한다. 이렇게 계산된 attention 점수 행렬 과 V 행렬을 곱하여 NQ 길이의 출력 서열이 완성된다.

    A t t e n t i o n ( V , K , Q ) = softmax( Q K T d ) V
    (1)

    MHA에서 각 headi의 처리과정은 식(2)와 같이 V, K, Q에 가중치 행렬 W i V , W i K , W i Q 를 각각 곱한 다음 식(1)을 적용 한다. 그 후에 h개의 headi의 결과를 특징 축을 기준으로 결 합하고 가중치 행렬 WO 를 곱하여 출력 서열을 완성한다.

    MHA ( V , K , Q ) = Concat ( head 1 , , head h ) W O
    (2)

    where headi = Attention ( V W i V , K W i K , Q W i Q )

    Transformer 모델은 Fig. 3과 같이 왼쪽의 부호화(encode) 부 분과 오른쪽의 복호화(decode) 부분으로 나누어 서열 데이터 를 처리한다. 부호화 부분에서는 MHA의 V , K, Q에 모두 같은 입력 서열 xin을 사용하는데 이것을 SA(self-attention)라 고 부른다. SA를 적용한 서열은 식(3)과 같이 ReLU 활성함수 가 중간에 있는 2개의 선형변환으로 구성된 FFN(feed forward network)을 적용하여 부호화 과정 한 단계가 이루어진다.

    FFN ( x ) = max ( 0, W 1 x + b 1 ) W 2 + b 2
    (3)

    여러 단계의 부호화 과정을 원활히 학습하기 위해서 잔차 연결(residual connection)과 층 정규화(layer normalization, LN) 가 사용된다(He et al., 2016;Ba et al., 2016). 식(4)와 식(5)는 Transformer의 부호화 과정을 순서대로 나타낸다.

    x i n LN ( x i n + MHA ( x i n , x i n , x i n ) )
    (4)

    x i n LN ( x i n + FFN ( x i n ) )
    (5)

    Transformer의 복호화 부분에서는 먼저 출력 서열 xout이 SA 과정을 수행한 후에 두 번째 MHA의 Q로만 사용된다. 이 때 V, K에는 부호화된 입력 서열 xin을 사용하며, 이런 식 으로 SA와 다르게 V , KQ에 서로 다른 입출력 서열을 사 용하는 것을 CA(cross-attention)라고 부른다. 식(6)과 식(7), 식 (8)은 Transformer의 복호화 과정을 순서대로 나타내며 부호 화 부분처럼 여러 단계를 거쳐서 수행된다.

    x o u t LN ( x o u t + MHA ( x o u t , x o u t , x o u t ) )
    (6)

    x o u t LN ( x o u t + MHA ( x i n , x i n , x o u t ) )
    (7)

    x o u t LN ( x o u t + FFN ( x o u t ) )
    (8)

    위에서 소개한 Transformer 모델은 언어, 시각 등 여러 인 공지능 분야에서 성공적으로 사용되고 있지만, attention 점수 행렬을 계산하기 위해서는 서열 길이의 제곱만큼의 연산 및 저장 자원이 필요한 단점이 있다. 본 논문에서 다루는 각 선 형의 셀 개수는 수만 개이기 때문에 Transformer 모델을 직접 적용하는 것은 비용이 너무 크다.

    Perceiver IO(Jaegle et al., 2021)는 다양한 차원의 멀티모달 데이터를 단일한 구조로 처리할 수 있는 MHA 기반의 신경 망 모델이며, Fig. 4와 같이 부호화, 처리, 복호화 단계를 거 쳐서 서열 데이터를 처리한다.

    Perceiver IO 모델은 입력 서열보다 훨씬 길이가 짧은 잠재 서열 개념을 도입하여, Transformer 모델과 달리 입력 서열 길이의 제곱만큼의 자원을 필요로 하지 않는다는 장점이 있 다. 따라서 본 논문은 Perceiver IO 모델을 사용하여 선형의 수만 개 셀을 CA를 통해 잠재 서열로 부호화하며, 잠재 서 열을 SA로 처리하여 전체적인 특성을 파악한다. 출력을 위 한 질의 서열은 입력 서열을 그대로 다시 활용하면 셀 개수 만큼의 출력 서열을 만들 수 있다. 그 후에 잠재 서열에서 각 셀의 추정 물리량을 CA로 복호화한다.

    3. 대상 선박 및 실험 방법

    3.1 대상 선박

    Fig. 5는 실험 대상인 50K 탱커 선박의 선형을 보여주며, Fig. 6은 해당 선박의 CFD 해석을 위한 격자를 보여준다. CFD 계산을 위한 소프트웨어는 STAR-CCM+를 사용하였으 며, 대상 선박에 대한 주요 제원과 CFD 시뮬레이션 매개변 수는 Table 1과 같다.

    3.2 학습 데이터

    기본 50K 탱커 선형에서 폭은 31 m에서 33.4 m까지 0.2 m 간격으로, 흘수는 10 m에서 12 m까지 0.2 m 간격으로 조절한 142개의 선형을 추가로 만들었다. CFD 해석을 통해서 총 143개의 선형 격자에 대해서 각 셀의 기하학적 정보로는 중 심점 좌표와 법선벡터를, 물리량으로는 압력, 좌표축별 벽 전단응력, 물 부피분율을 데이터집합으로 수집하였다. 임의 로 선택한 100개의 데이터를 신경망 학습용으로 사용하였고 나머지 43개의 데이터를 테스트용으로 사용하였다.

    3.3 심층학습

    저항성능 R은 압력 P와 전단응력 S 의 합으로 구하였으 며, PS 는 각각 식(9)와 식(10)의 방식으로 계산하였다. 각 셀에 대해 Pcell은 압력, Acell은 면적, S c e l l x x축 벽 전단응력, A c e l l x x축 면적을 의미하며, x축은 유체가 흐르는 축이다.

    P = c e l l P c e l l × A c e l l x
    (9)

    S = c e l l S c e l l x × A c e l l
    (10)

    학습을 위한 손실 L은 식(11)과 같이 2가지 손실의 가중치 합으로 구성하였다. λ는 두 손실 중에 어느 한쪽으로 학습 이 치우치는 것을 방지하기 위한 가중치다. L surface는 식(12) 와 같이 선체 표면 각 셀의 물리량 q c e l l T 와 추정 물리량 q c e l l P 의 평균 오차이며, L resist는 식(13)과 같이 저항성능 R T와 추정 저항성능 R P의 오차다. error는 오차를 계산하기 위한 함수 를 의미한다.

    L t o t a l = L s u r f a c e + λ L r e s i s t
    (11)

    L s u r f a c e = 1 N c e l l c e l l error( q c e l l T , q c e l l P )
    (12)

    L r e s i s t = error ( R T , R P )
    (13)

    두 가지 입력인 중심점 좌표와 법선벡터 특징을 하나로 통합하기 위해서 결합(concat)과 덧셈(add) 두 가지 방법으로, 손실 계산을 위한 오차는 평균절대오차(MAE), 평균제곱오차 (MSE), smooth L1 세 가지 방법으로 비교 실험을 진행하였 다. 제곱오차의 경우 극단치(outlier)에 영향을 많이 받는 단 점이 있는데, smooth L1 함수는 식(14)와 같이 오차의 절대값 이 β 이상일 경우 절대오차로 바꿔서 극단치 문제를 보완한 다(Girshick, 2015).

    smooth L1 ( a , b ) = { 0.5 ( a b ) 2 / β if | ( a b ) | < β | ( a b ) | 0.5 β otherwise
    (14)

    심층학습을 위한 초매개변수는 Table 2와 같다. 총 1000번 의 에포크 동안 학습을 진행하였고 배치크기는 1로 설정하 였다. 심층신경망 모델의 매개변수 최적화을 위해 Adam을 사용하였고 학습률은 1.0×10-4으로 설정하였다. 잠재 서열의 길이는 32, 잠재 서열의 특징 벡터의 길이는 64로 설정하였 다. 모든 MHA의 head의 개수 h는 2를 사용하였고 잠재 서열 의 SA 층 개수 L은 2로 적용하였다. FFN의 은닉 벡터의 길 이는 256으로, 은닉층의 활성함수는 ReLU를 사용하였다. 손 실 가중치 λ는 1.0×10-2으로 설정하였고 smooth L1 함수에서 β는 1.0으로 사용하였다.

    4. 결 과

    Fig. 7은 테스트용 데이터의 저항성능을 등고선으로 시각 화한 그래프로 x축은 선형의 너비, y축은 흘수를 나타낸다. Fig. 8은 입력 통합방식과 손실함수의 종류에 따라 6가지의 실험결과를 보여준다. 결합 방식이 덧셈 방식에 비해서 데 이터집합의 복잡한 저항성능 형태를 더 잘 추정하는 것으로 보이며, 덧셈 방식은 저항성능을 비교적 단순한 형태로 추 정하는 것을 확인할 수 있다. 손실함수로 비교해보면 MAE 방식이 가장 데이터집합의 비선형성을 잘 추정하고 있으며, MSE와 smooth L1 손실 방식은 MAE 방식에 비해서 선형적 인 형태로 저항성능을 추정하는 것을 확인할 수 있다.

    Fig. 9는 CFD를 통해 계산된 선형 표면의 물리량과 심층 신경망으로 예측한 결과를 시각화한 예시이며, Table 3은 입 력 특징 통합방식과 손실함수 종류에 따른 저항성능 추정 오류율을 보여준다. 전반적으로 smooth L1 손실 방식이 가장 낮은 테스트 오류율을 보이며, MAE나 MSE는 상대적으로 높은 오류율을 보이는 것을 확인할 수 있다. 그리고 모든 방 식이 1 % 미만의 오류율을 보여 본 논문에서 제안하는 심층 신경망 모델이 테스트용 50K 선박 선형 데이터집합의 저항 성능을 잘 추정하는 것을 확인할 수 있다.

    5. 결 론

    본 논문은 선박 선형의 기하학적 정보를 바탕으로 선형 표면의 물리량 및 저항성능을 추정하는 심층신경망 모델을 제안하고 저속비대선인 50K 탱커 선박 선형 데이터집합으 로 성능을 검증하였다. 선형 격자의 각 셀의 중심점 좌표와 법선벡터 집합의 전체적으로 통합해서 처리하기 위해 MHA 기반의 심층신경망 모델을 사용하였다. attention 점수 행렬 계산에 서열 길이의 제곱만큼 비용이 필요한 SA를 수만 개 의 셀 입력 서열에 직접 적용하기는 어렵다. 따라서 학습가 능한 짧은 길이의 잠재 서열로 CA를 수행한 후에 SA를 적 용하는 방식으로 비용을 줄인 심층신경망으로 효율적인 저 항성능 추정 모델을 구현하였다. 이렇게 구현한 심층신경망 모델은 50K 탱커 선형 데이터집합에서 높은 정확도로 선체 표면의 물리량과 저항성능을 추정하는 결과를 보였다. 또한 제안하는 방법은 CFD 방식와 달리 시간 단계별로 계산이 필 요 없기에 빠르게 추정이 가능한 장점이 있다.

    본 연구에서 사용한 선형의 폭과 흘수 두 가지 변수로 만 들어진 데이터집합으로 일반적인 저속비대선 전체를 반영 하기는 어렵다. 따라서 더욱 다양한 모양과 많은 변수를 가 진 대규모 저속비대선 데이터집합을 구축하고 심층신경망 모델을 검증하는 추가 연구가 필요하다고 생각된다.

    후 기

    이 연구는 산업통상자원부의 스마트특성화 기반구축사업 중 실물-가상연계 조선해양 기본설계 기술지원 사업(P0021213) 과제의 지원을 받아 수행되었습니다.

    Figure

    KOSOMES-28-7-1274_F1.gif

    Difference in the process for estimating resistance performance between CFD and DNN.

    KOSOMES-28-7-1274_F2.gif

    Structure of multi-head attention layer.

    KOSOMES-28-7-1274_F3.gif

    The Transformer model architecture. Embedding and positional encoding layers are omitted for simplicity.

    KOSOMES-28-7-1274_F4.gif

    The Perceiver IO model architecture.

    KOSOMES-28-7-1274_F5.gif

    Hull form of 50K tanker ship.

    KOSOMES-28-7-1274_F6.gif

    Computational grid for CFD.

    KOSOMES-28-7-1274_F7.gif

    Visualization of resistance performance test data set.

    KOSOMES-28-7-1274_F8.gif

    Visualization of resistance performance prediction results.

    KOSOMES-28-7-1274_F9.gif

    Example of hull form physical quantity prediction. (breadth: 32.6 m, draft: 10.4 m).

    Table

    Specification of 50K tanker ship and CFD parameters

    Hyperparameters to train deep neural network

    Comparison of resistance performance prediction error

    Reference

    1. Ba, J. L. , J. R. Kiros, and G. E. Hinton (2016), Layer Normalization. arXiv preprint arXiv:1607.06450.
    2. Cho, Y. I. , M. J. Oh, Y. S. Seok, S. J. Lee, and M. I. Roh (2019), Resistance Estimation of a Ship in the Initial Hull Design Using Deep Learning, 24.2, pp. 203-210.
    3. Girshick, R. (2015), Fast R-CNN. Proceedings of the IEEE International Conference on Computer Vision, pp. 1440-1448
    4. He, K. , X. Zhang, S. Ren, and J. Sun (2016), Deep Residual Learning for Image Recognition. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 770-778.
    5. Jaegle, A. , S. Borgeaud, J.-B. Alayrac, C. Doersch, C. Ionescu, D. Ding, and J. Carreira (2021), Perceiver IO: A General Architecture for Structured Inputs & Outputs. arXiv preprint arXiv:2107.14795.
    6. Kim, Y. C. , K. S. Kim, S. H. Hwang, and S. M. Yeon (2022), Prediction of Residual Resistance Coefficient of Ships using Convolutional Neural Network, Journal of the Society of Naval Architects of Korea, Vol. 59, No. 4, pp. 243-250.
    7. Kim, Y. C. , Y. K. Yang, M. S. Kim, Y. Y. Lee, and K. S. Kim (2020), Prediction of Residual Resistance Coefficient of Low-Speed Full Ships Using Hull Form Variables and Machine Learning Approaches, Journal of the Society of Naval Architects of Korea, Vol. 57, No. 6, pp. 312-321.
    8. Vaswani, A. , N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. N. Gomez, Ł. Kaiser, and I. Polosukhin (2017), Attention is all you need. Advances in Neural Information Processing Systems, pp. 5998-6008.