오픈AI "챗GPT '연령예측모델' 도입 착수…보호장치 자동 적용"

"연령 확신 없으면 '18세 미만' 간주"

미국 인공지능(AI) 회사 오픈AI가 개발한 AI 채팅로봇 '챗GPT' ⓒ 로이터=뉴스1 ⓒ News1 김성식 기자

(서울=뉴스1) 윤다정 기자 = 오픈AI가 챗GPT에 청소년 보호 장치를 자동 적용하는 '연령 예측 모델' 도입 작업에 착수했다.

18일(현지시간) 오픈AI는 "챗GPT 소비자 플랜에서 연령 예측 모델을 단계적으로 도입하는 초기 작업 중"이라고 밝혔다.

회사는 "계정 이용자가 미성년자일 가능성이 있다는 판단이 들면 청소년 보호 장치를 자동 적용하는 데 도움이 될 것"이라며 "연령에 대한 확신이 없거나 정보가 불완전하다면 기본적으로 '18세 미만(U18) 원칙'을 적용하고, 성인에게는 연령을 확인할 수 있는 방법을 제공할 것"이라고 설명했다.

이번 챗GPT 업데이트에 도입되는 'U18 원칙'은 13~17세 청소년을 대상으로 안전하고 연령에 적합한 경험을 제공하도록 안내하는 것이 골자로, 미국심리학회(APA) 등 전문가 자문을 거쳐 마련했다.

핵심 내용은 △다른 목표와 충돌하더라도 청소년 안전을 최우선으로 할 것 △오프라인 관계와 신뢰할 수 있는 자원을 장려해 현실 세계의 지원을 받도록 독려할 것 △청소년을 낮춰 보지도, 성인처럼 대하지도 않는 등 청소년답게 대우할 것 △투명성을 확보할 것 등이다.

그룹 채팅, 챗GPT 아틀라스 브라우저, 영상 생성 플랫폼 '소라'(Sora) 등에도 청소년 보호 기능을 확장 적용했다.

오픈AI는 "이런 맥락에서 자해·자살, 로맨틱·성적 역할극, 노골적·외설적 콘텐츠, 위험한 활동과 물질, 신체 이미지와 섭식 장애, 위험한 행동을 비밀로 해 달라는 요청 등 위험도가 높은 영역을 다룰 때 모델이 각별한 주의를 기울이도록 하는 보호장치를 구현했다"고 밝혔다.

또한 "대화가 위험도가 높은 영역으로 이동할 경우 청소년은 더 강한 가드레일, 더 안전한 대안, 신뢰할 수 있는 오프라인 지원을 찾도록 하는 권유를 접하게 된다"며 "즉각적인 위험이 있는 경우에는 응급 서비스나 위기 지원 자원에 연락하도록 권고한다"고 덧붙였다.

오픈AI는 챗GPT가 일부 이용자들에게 망상을 심거나 생명을 위태롭게 하는 답변을 하고 있다는 우려와 관련 소송이 이어지자 안전장치를 계속해서 마련해 왔다.

미국 캘리포니아주에서는 챗GPT와 대화를 나눈 지 몇 시간 만에 스스로 목숨을 끊은 채 발견된 애덤 레인(16)의 부모가 지난 8월 오픈AI를 상대로 소송을 제기했다.

이들은 손해 배상을 포함, 자해와 관련한 모든 대화의 자동 종료와 미성년 자녀를 위한 보호 기능 같은 안전 조치를 명령해달라고 법원에 요구했다.

maum@news1.kr