딥러닝 기반의 수중 IoT 네트워크 BER 예측 모델

2020 
수중 IoT 네트워크에서 센서 노드는 지속적인 전력 공급이 어렵기 때문에 제한된 상황에서 소비 전력과 네트워크 처리량의 효율성이 매우 중요하다. 이를 위해 기존의 무선 네트워크에서는 SNR(Signal Noise Rate)과 BER(Bit Error Rate)의 높은 연관성을 기반으로 적응적으로 통신 파라미터를 선택하는 AMC(Adaptive Modulation and Coding) 기술을 적용한다. 하지만 본 논문의 실험 결과, 수중에서 SNR과 BER 사이의 상관 관계가 상대적으로 감소함을 확인하였다. 따라서 본 논문에서는 SNR과 함께 다중 파라미터를 동시에 사용하는 딥러닝 기반 BER 예측 모델(MLP, Multi-Layer Perceptron)을 적용한다. 제안하는 BER 예측 모델은 처리량이 가장 높은 통신 방법을 찾아낼 수 있고, 시뮬레이션 결과 85.2%의 높은 정확도와 네트워크 처리량은 기존 처리량 보다 4.4배 높은 성능을 보여주는 우수한 성능을 확인하였다.
    • Correction
    • Source
    • Cite
    • Save
    • Machine Reading By IdeaReader
    0
    References
    0
    Citations
    NaN
    KQI
    []