검색 본문 바로가기 회사정보 바로가기

KAIST, 소량의 데이터로 딥러닝 정확도 높이는 기술개발

비선호 특성 억제 방법 활용
기존대비 최대 12% 정확도↑

(대전=뉴스1) 심영석 기자 | 2021-10-27 13:00 송고
연구팀에서 개발한 `비선호(比選好) 특성 억제' 방법론의 동작 개념도. (KAIST 제공) © 뉴스1
연구팀에서 개발한 `비선호(比選好) 특성 억제' 방법론의 동작 개념도. (KAIST 제공) © 뉴스1

KAIST 전산학부 이재길 교수 연구팀이 딥러닝 훈련 데이터 부족 현상을 완화할 새로운 모델 훈련 기술을 개발했다.

현재 적용되고 있는 방법 대비 최대 12% 정확도를 향상시킨 이 기술은 오는 12월 국제학술대회 ‘신경정보처리시스템학회 2021’에서 발표될 예정이다. 

27일 KAIST에 따르면 이번에 개발된 기술은 심층 학습 모델의 훈련에서 바람직하지 않은 특성을 억제해 충분하지 않은 훈련 데이터를 가지고도 높은 예측 정확도를 달성할 수 있게 해준다.

연구팀은 바람직하지 않은 특성을 억제하기 위해 분포 외(out-of-distribution) 데이터를 활용했다.

훈련 데이터에 존재하는 바람직하지 않은 특성은 분포 외 데이터에도 존재할 수 있다는 점에 주목했다.

따라서 다량의 분포 외 데이터를 추가로 활용해 여기에서 추출된 특성은 영(0) 벡터가 되도록 심층 학습 모델의 훈련 과정을 규제해 바람직하지 않은 특성의 효과를 억제했다.

연구팀은 이 정규화 방법론을 ‘비선호 특성 억제’라 명명하고, 이를 이미지 데이터 분석의 세가지 주요 문제에 적용했다.

그 결과, 기존 최신 방법론에 비해 이미지 분류 문제에서 최대 12% 예측 정확도를 향상시켰다.

또, 객체 검출 문제에서 최대 3% 예측 정확도가 높아졌으며, 객체 지역화 문제에서는 최대 8% 예측 정확도를 끌어 올렸다.

이재길 교수는 “이 기술이 텐서플로우(TensorFlow) 혹은 파이토치(PyTorch)와 같은 기존의 심층 학습 라이브러리에 추가되면 기계 학습 및 심층 학습 학계에 큰 파급효과를 낼 수 있을 것”이라고 말했다.


km5030@news1.kr

이런 일&저런 일

    더보기