헬로티 이동재 기자 |
KAIST 전산학부 이재길 교수 연구팀이 적은 양의 훈련 데이터가 존재할 때도 높은 예측 정확도를 달성할 수 있는 새로운 딥러닝 모델 훈련 기술을 개발했다고 27일 밝혔다.
기술이 적용되면 기존에 수작업으로 진행돼 많은 노동력과 시간이 소모되던 레이블링(Labeling) 과정을 보다 효과적으로 수행할 수 있다.
이번에 개발된 기술은 심층 학습 모델의 훈련에서 바람직하지 않은 특성을 억제해 충분하지 않은 훈련 데이터를 가지고도 높은 예측 정확도를 달성할 수 있게 해주는 기술이다.
연구팀은 바람직하지 않은 특성을 억제하기 위해서 분포 외(out of distribution) 데이터를 활용했다. 다량의 분포 외 데이터를 추가로 활용해 추출된 특성이 영(0) 벡터가 되도록 심층 학습 모델의 훈련 과정을 규제해, 바람직하지 않은 특성의 효과를 억제하는 원리다.
기존에 딥러닝 과정에서 분포 외 데이터는 쓸모없는 것이라 여겨지고 있었으나, 이번 연구에선 오히려 훈련 데이터 부족을 해소할 수 있는 유용한 보완재로 탈바꿈됐다.
연구팀은 이 정규화 방법론을 ‘비선호 특성 억제’라고 이름 붙이고 이미지 데이터 분석의 세 가지 주요 문제에 적용했다. 그 결과, 기존 최신 방법론과 비교했을 때, 이미지 분류 문제에서 최대 12% 예측 정확도를 향상했고, 객체 검출 문제에서 최대 3% 예측 정확도를 향상했으며, 객체 지역화 문제에서 최대 8% 예측 정확도를 향상했다.
박동민 박사과정 학생은 "이번 기술은 훈련 데이터 부족 현상을 해결할 수 있는 새로운 방법ˮ 이라면서 "분류, 회귀 분석을 비롯한 다양한 기계 학습 문제에 폭넓게 적용될 수 있어, 심층 학습의 전반적인 성능 개선에 기여할 수 있다ˮ고 밝혔다.
이재길 교수는 "이 기술이 텐서플로우(TensorFlow) 혹은 파이토치(PyTorch)와 같은 기존의 심층 학습 라이브러리에 추가되면 기계 학습 및 심층 학습 학계에 큰 파급효과를 낼 수 있을 것ˮ이라고 말했다.