LG, 한국판 AI 위험분류체계 공개…글로벌 윤리 표준 주도한다
인류 보편 가치·한국적 특수성 결합…K-AUT로 신뢰 확보
유네스코와 협력 윤리 교육…구광모식 준법 경영 가속
- 원태성 기자
(서울=뉴스1) 원태성 기자 = LG(003550)가 인류 보편적 가치와 한국적 특수성을 결합한 인공지능(AI) 위험분류체계를 공개하며 글로벌 AI 윤리 기준 수립의 퍼스트 무버로 나섰다.
LG AI연구원이 지난 20일(현지시간) 인도 뉴델리 바라트 만다팜에서 열린 '인도 AI 정상회의'에서 책임 있는 AI 생태계 구축을 위한 글로벌 협력 방안과 실행 성과를 공유했다고 22일 밝혔다.
LG AI연구원은 서울과 파리에 이어 올해 인도까지 3차례 연속 AI 정상회의에 초청받아 국내 AI 업계의 목소리를 전달하며 글로벌 AI 거버넌스 논의를 주도하는 대표 기업으로서 입지를 공고히 했다.
김유철 LG AI연구원 전략부문장은 이번 정상회의에서 LG AI연구원이 개발한 범용 AI 위험분류체계 한국판(K-AUT)을 공개했다.
김 부문장은 "LG가 개발한 AI 위험분류체계는 유엔 세계인권선언 등 인류 보편적 가치를 기본 토대로 설계하면서도 보편적 원칙만으로는 포착하기 어려운 위험에 대응하기 위해 한국 사회의 법적, 사회적, 문화적 특수성과 멀티 AI 에이전트의 담합, AI 안전장치 우회 등 미래에 발생할 수 있는 위험 요소까지 포괄할 수 있도록 개발했다"고 설명했다.
범용 AI 위험분류체계 한국판은 잠재적 위험을 △인류 보편적 가치 △사회 안전 △한국적 특수성 △미래 위험 등 4개 핵심 영역, 226개 세부 위험 항목으로 구성된다. 항목별 5가지 구체적 판별 기준이 있어 하나의 위반 사항만 발생해도 AI가 부적절한 응답을 했다고 분류한다.
LG AI연구원은 새로운 위험분류체계를 AI 모델과 AI 서비스의 안전성을 검증하고 강화하는 도구로 개발해 LG의 AI 파운데이션 모델인 엑사원(EXAONE)의 안전성 검증에 활용하고 그 결과를 공개하고 있다.
또한 한국적 특수성 부분은 각 국가 및 지역의 고유한 특수성을 반영하는 위험 항목으로 대체할 수 있도록 설계해 향후 다른 국가와 지역으로 확장 적용할 수 있도록 했다.
현장에 참석한 페기 힉스 유엔 인권최고대표사무소 국장은 "LG가 보편적 인권 가치를 토대로 하면서도 특정 사회와 문화의 맥락을 반영할 수 있는 접근 방식을 선보인 것은 우리가 바라는 방향과 정확히 맞닿아 있다"고 했다.
LG AI연구원은 오는 5월 서울에서 글로벌 론칭을 앞둔 'AI 윤리 MOOC 프로젝트'도 소개했다. 이 프로그램은 LG AI연구원과 유네스코가 추진 중인 글로벌 프로젝트로 공공 및 민간 분야의 AI 윤리 역량을 강화하기 위한 프로젝트다.
LG AI연구원은 이를 위해 독자적으로 개발한 윤리영향평가와 데이터 컴플라이언스 AI 에이전트 등 실전 운영 노하우와 AI 기술들을 투명하게 공개하고, 10명의 글로벌 전문가를 선발해 AI 윤리의 기초부터 안전성, 공정성, 지속가능성, 거버넌스 등 글로벌 핵심 의제를 다루는 10개 모듈로 강의를 구성했다.
미국 하버드대학교, 뉴욕대학교, 노트르담대학교, 유엔대학교, 모질라 재단, 세계과학기술윤리위원회 등 세계적 AI 연구 기관의 15명의 석학으로 구성된 국제자문위원회도 운영하고 있다.
지난해에는 '글로벌 AI 윤리 우수 사례 공모전'을 개최하고 120건 이상의 AI 윤리 실천 모범 사례를 교육 과정에 접목해 전 세계의 개발자와 정책 입안자들이 각자의 상황에 맞춰 모범 사례를 벤치마킹할 수 있도록 했다.
LG는 단순한 위험 관리 차원을 넘어 국제 표준에 부합하는 컴플라이언스 경영을 기업 생존 전략의 핵심 축으로 삼고 신뢰할 수 있는 기술 개발로 경쟁력을 높여가고 있다.
구광모 LG 대표는 지난해 3월 주주총회에서 "LG는 컴플라이언스가 최고경영진에서부터 사업의 일선까지 단단히 뿌리내리도록 각별히 노력해 왔고, LG의 컴플라이언스 체계가 시대와 사회 변화를 적시에 반영하도록 지속적으로 고도화할 것"이라고 강조했다.
pkb1@news1.kr
Copyright ⓒ 뉴스1. All rights reserved. 무단 전재 및 재배포, AI학습 이용금지.









