AI도 '모른다'고 말한다…과신 줄이는 메타인지 학습 접근법 제시

KAIST 뇌인지과학과 백세범 석좌교수 연구팀

인공지능 모델이 예열학습을 통해 신뢰도 보정을 한 경우와 그렇지 않은 경우(AI 생성 이미지·KAIST 제공) /뉴스1

(대전=뉴스1) 김종서 기자 = 한국과학기술원(KAIST)은 뇌인지과학과 백세범 석좌교수 연구팀이 딥러닝에서 널리 사용돼 온 무작위 가중치 초기화가 인공지능의 과신을 유발하는 근본적인 원인일 수 있음을 규명했다고 27일 밝혔다.

연구팀은 이를 해결하기 위해 실제 데이터를 학습하기 전 무작위 노이즈로 신경망을 짧게 학습시키는 예열 전략을 제안했다.

연구팀은 인공지능(AI)의 과신 문제가 학습 이후만이 아니라 학습의 출발점인 초기화 단계에서부터 이미 나타난다는 점에 주목했다.

실제로 무작위로 초기화된 신경망에 임의의 데이터를 입력한 결과, 아직 아무것도 배우지 않은 상태임에도 불구하고 높은 확신도를 보이는 현상이 확인됐다. 이 특성은 생성형 AI에서 사실과 다른 내용을 만들어내는 환각 문제로 이어질 수 있다.

연구팀은 해결의 실마리를 생물학적 두뇌에서 찾았다. 인간의 두뇌는 태어나기 전부터 외부 자극 없이도 '자발적 신경 활동'을 통해 신경회로를 형성한다.

연구팀은 이 개념을 인공신경망에 적용해 실제 학습에 앞서 무작위 노이즈 입력으로 짧은 사전 학습을 수행하는 '예열 단계'를 도입했다. 이는 인공지능이 본격적으로 학습을 시작하기 전 자신의 불확실성을 먼저 조정하는 과정에 해당한다.

예열 과정을 거친 AI 모델은 초기 확신도가 우연 수준에 가까운 낮은 값으로 정렬되며, 기존 초기화에서 나타나던 과신 편향이 크게 완화됐다.

실제 데이터를 배우기 전 '나는 아직 아무것도 모른다'는 상태를 먼저 학습하게 되는 것이다. 그 결과, 모델의 정확도(예측이 맞는 비율)와 확신도(모델이 스스로 맞는다고 믿는 정도)가 자연스럽게 일치하는 방향으로 개선됐다.

KAIST 백세범 석좌교수(왼쪽)와 천정환 석사(KAIST 제공) /뉴스1

처음 보는 데이터에 대한 반응에서도 차이가 나타났다. 기존 모델은 학습하지 않은 데이터에도 높은 확신을 보이며 잘못된 답을 제시하는 경향을 보인다. 반면 예열 학습을 적용한 모델은 확신도를 낮춰 '모른다'고 판단하는 능력이 뚜렷하게 향상됐다.

이를 통해 학습 데이터와 다른 분포를 가진 데이터를 구별하는 분포 밖 데이터 탐지에서도 높은 성능을 보였다.

이번 연구는 AI가 단순히 정답을 맞히는 수준을 넘어 '무엇을 아는가, 모르는가'를 구분하는 능력 '메타 인지'를 갖출 수 있는 가능성을 제시했다.

백 교수는 "이번 연구는 두뇌 발달 과정을 모사함으로써 AI가 인간과 좀 더 유사하게 자신의 지식 상태를 인식할 수 있음을 보여준 사례"라며 "정확도를 높이는 것을 넘어 인공지능이 자신의 불확실성을 판단하는 원리를 제시했다는 데 의의가 있다"고 설명했다.

이번 기술은 자율주행, 의료 AI, 생성형 AI 등 AI 전반의 신뢰성을 높이는 핵심 기술로 활용될 것으로 기대된다.

KAIST 천정환 뇌인지과학과 석사가 제1저자로 참여한 이번 연구는 인공지능 분야 국제 학술지 '네이처 머신 인텔리전스(Nature Machine Intelligence)'에 온라인 게재됐다. 주목할 만한 논문으로 선정돼 '뉴스 앤 뷰스(News & Views)'에도 소개되었다.

연구는 한국연구재단의 이공분야기초연구사업과 KAIST 싱귤래러티 연구 사업의 지원을 받아 수행됐다.

jongseo12@news1.kr