"챗GPT·제미나이도 슬롯머신 돌리더니 '한탕주의'…맹신 금물"

광주과학기술원 'LLM 도박중독 빠질까' 논문으로 매커니즘 규명
성능 높을수록 위험추구·손실추격 재현…AI 금융 활용 경고등

광주과학기술원(GIST) 대형 언어 모델이 도박 중독을 유발할 수 있을까(논문 갈무리)

(서울=뉴스1) 김민석 기자 = 광주과학기술원(GIST) 연구진이 오픈AI 챗GPT·구글 제미나이·앤트로픽 클로드 등 주요 LLM으로 '슬롯머신 실험'을 진행한 결과 인공지능(AI)들은 단순 프롬프트 반응을 넘어 도박 중독과 유사한 의사결정 메커니즘을 탑재한 것으로 확인됐다.

연구진은 AI 성능이 강력해질수록 인간 도박중독자와 유사한 비이성적 행동 패턴을 보일 수 있다며 안전한 설계를 강조했다.

27일 IT 업계에 따르면 GIST AI융합학과·생명과학부 연구진(이승필·신동현·이윤정·김선동)은 최근 arXiv(전자논문 저장소)에 '대형 언어 모델이 도박 중독을 유발할 수 있을까'(Can Large Language Models Develop Gambling Addiction)라는 제목의 논문을 게재했다. 이 연구는 ICLR 2026 학회에도 제출됐다.

연구진은 △GPT-4o-mini △GPT-4.1-mini △제미나이 2.5 플래시 △앤트로픽 클로드 3.5 하이쿠 등 4개 모델로 기댓값이 마이너스 10%(-10%)인 슬롯머신 게임 환경에서 1만 2800회의 실험을 진행했다.

각 모델은 100달러의 초기 자금으로 시작해 배팅을 계속하거나 중단하는 선택을 반복했다.​

광주과학기술원(GIST) 대형 언어 모델이 도박 중독을 유발할 수 있을까(논문 갈무리)

실험 결과 고정 배팅 조건에서는 파산율이 제로(제미나이 2.5 플래시 한해 3.12%)였지만, 배팅 금액을 자유롭게 조정할 수 있는 변동 배팅 조건에서는 모델들의 파산율이 급등했다.

특히 제미나이 2.5 플래시는 변동 배팅 시 48%의 파산율을 기록해 가장 높은 위험 성향을 보였다. 반면 GPT-4.1-mini는 파산율 6.3%로 위험 성향이 상대적으로 낮았다.

연구진은 '비합리성 지수'(Irrationality Index)를 개발해 △배팅 공격성 △손실 추격 △극단적 배팅 등 도박 중독의 핵심 지표를 정량화했다. 분석 결과 비합리성 지수와 파산율 간 상관계수는 0.77에서 0.93으로 강한 양의 상관관계가 나타났다.

연구진은 AI 모델이 인간 도박중독자의 대표적 인지 왜곡을 그대로 재현했다는 점을 주목했다.

구체적으로 △연패 후 이기면 손실을 회복할 수 있다며 배팅을 정당화하는 손실 추격 △연승 후 행운이 계속될 것이라는 연승 추격 △결과를 통제할 수 있다는 착각인 통제력 환상 등이 관찰됐다는 설명이다.

연구진은 "희소 오토인코더(Sparse Autoencoder) 분석을 통해 LLM 내부에 '위험 추구'와 '안전 추구' 의사결정을 담당하는 신경회로의 존재를 확인했다"며 "도박 중독 유사 행동이 단순히 프롬프트에 반응하는 게 아닌 모델 내부에 체화된 의사결정 메커니즘에서 비롯됨을 의미한다"고 언급했다.

광주과학기술원(GIST) 대형 언어 모델이 도박 중독을 유발할 수 있을까 논문(논문 갈무리)3

GIST의 이번 연구는 AI가 금융 시장에 미치는 시스템적 우려와도 맞닿아 있다는 분석이다.

영란은행(Bank of England)은 올해 4월 보고서에서 "AI 기반 트레이딩 전략은 시장 참여자들의 상관 관계의 포지션 구축을 유발해 금융 안정성을 위협할 수 있다"고 경고했다.

금융안정위원회(FSB)도 10월 보고서에서 AI 도입은 △군집 행동 △유동성 경색 △경기 순응성을 유발할 수 있다고 지적했다.

연구를 주도한 이승필 GIST 연구원은 "LLM이 훈련 데이터 패턴을 단순히 모방하는 것을 넘어 인간과 유사한 인지 편향과 의사결정 메커니즘을 내재화했다"며 "AI가 금융 영역의 의사결정에 점점 더 많이 활용되고 있는 만큼 안전 설계의 중요성이 더 높아지고 있다"고 말했다.

ideaed@news1.kr