IT·테크2026. 04. 27.

KAIST, "모른다"고 말하는 AI 구현…예열 학습으로 과신 편향 해결

by 황지민 (기자)

#it테크#kaist#인공지능#ai신뢰성#딥러닝

황지민 | 기자 작성일 2026년 04월 27일

KAIST AI 불확실성 인식 연구

KAIST 연구팀이 AI가 스스로 불확실성을 인식하도록 하는 새로운 학습법을 개발했다.

KAIST 연구진이 인공지능(AI)의 가장 큰 위험으로 꼽혀온 '과도한 확신' 문제를 해결할 새로운 접근법을 제시했습니다. AI가 모르는 상황을 스스로 인식하도록 하는 학습 방법을 개발해 AI 전반의 신뢰성을 높일 기반을 마련했습니다.

한국과학기술원(KAIST·총장 이광형)은 백세범 뇌인지과학과 석좌교수팀이 딥러닝에서 널리 사용돼 온 '무작위 가중치 초기화'가 AI 과신을 유발하는 근본 원인일 수 있음을 규명했다고 27일 밝혔습니다.

실제 무작위로 초기화된 신경망에 임의의 데이터를 입력한 결과, 아직 아무것도 배우지 않은 상태임에도 높은 확신도를 보이는 현상이 확인됐습니다. 이런 특성은 생성형 AI에서 사실과 다른 내용을 만들어내는 환각 문제로 이어질 수 있습니다.

연구팀은 해결 실마리를 인간의 두뇌에서 찾았습니다. 인간은 태어나기 전부터 외부 자극 없이도 '자발적 신경 활동'으로 신경회로를 형성합니다. 연구팀은 이 개념을 인공신경망에 적용, 실제 학습 전 무작위 노이즈 입력으로 짧은 사전 학습을 수행하는 '예열 단계'를 도입했습니다.

예열을 거친 AI 모델은 기존 과신 편향이 크게 완화됐습니다. 확신도를 낮춰 '모른다'고 판단하는 능력이 뚜렷하게 향상됐으며, 학습 데이터와 다른 분포의 데이터를 구별하는 '분포 밖 데이터 탐지'에서도 높은 성능을 보였습니다.

백세범 석좌교수는 "이번 연구는 두뇌 발달 과정을 모사함으로써 AI가 인간과 좀 더 유사하게 자신의 지식 상태를 인식할 수 있음을 보여준 사례"라며, "정확도를 높이는 것을 넘어 AI가 스스로의 불확실성을 판단하는 원리를 제시했다"고 설명했습니다.

이번 연구는 천정환 KAIST 뇌인지과학과 석사가 제1저자로 참여했으며, 국제학술지 '네이처 머신 인텔리전스'에 4월 9일 온라인 게재됐습니다. 또한 주목할 만한 논문으로 선정돼 '뉴스 앤 뷰스'에도 소개됐습니다.