티오리, 언어모델 편향성 보안 영향 연구…AAAI학회 채택 성과
- 윤주영 기자

(서울=뉴스1) 윤주영 기자 = 티오리는 소속 연구원이 참여한 논문이 세계 최고 권위의 인공지능(AI) 학회 'AAAI 2026' 워크숍에 채택되는 성과를 냈다고 3일 밝혔다.
AAAI는 AI 분야에서 가장 영향력 있는 국제 학회 중 하나로, 전 세계 연구기관과 기업 소속 연구자들이 최신 연구 성과를 발표하는 자리다. 올해는 지난달 20일부터 27일까지 싱가포르에서 열렸다.
채택된 논문은 "거대언어모델(LLM) 내부 윤리적 편향이 대형 언어 모델의 탈옥 취약점에 미치는 영향 분석"이다. LLM이 내포한 윤리적 편향과 보안 취약점 간의 관계를 분석했다.
구체적으로 LLM이 특정 윤리적·사회적 편향 요소를 포함한 입력에 어떻게 안전 반응을 보이는지 실험적으로 분석했다. 사용자가 비윤리적 요청을 악용하면 출력돼서는 안 되는 정보값이 나오는 등 LLM '탈옥'이 가능하다. 안전장치를 우회하는 공격으로 이해하면 된다.
연구는 윤리적 편향과 이같은 탈옥 공격 간의 관계를 측정하기 위한 분석 프레임워크 '편향 탈옥(BiasJailbreak)'을 제안했다. 편향 기반 공격을 완화하기 위한 대응 방식으로 '편향 방어(BiasDefense)'를 함께 제시했다.
연구는 티오리의 LLM 보안 설루션 '알파프리즘(aprism)'의 위험 탐지 기능 설계에도 쓰였다. 구체적으로 편향 기반 입력을 탐지·대응하는 모델을 설계하는 데 활용했다.
한편 티오리는 오펜시브(공격자 관점에서의 방어전략 수립) 사이버보안 전문 기업이다. 구글·마이크로소프트·옥타·삼성전자 등 국내외 주요 기업·기관에 보안 컨설팅을 제공하고 있다. 이 밖에도 웹 애플리케이션 보안 자동화 솔루션 '진트', 회원 7만 명 이상의 사이버보안 교육 플랫폼 '드림핵' 등을 운영하고 있다.
legomaster@news1.kr
Copyright ⓒ 뉴스1. All rights reserved. 무단 전재 및 재배포, AI학습 이용금지.









