오픈AI, 미성년자 전용 챗GPT 출시…"안전이 최우선"

18세 미만 사용자 분리…자살·자해 등 부적절 콘텐츠 차단

샘 올트먼 오픈AI 최고경영자(CEO). 2025.2.4/뉴스1 ⓒ News1 오대일 기자

(서울=뉴스1) 나연준 기자 = 오픈AI가 미성년자 보호 기능이 강화된 '18세 미만 전용' 챗GPT를 이달 말 출시할 예정이라고 17일 밝혔다.

오픈AI는 사용자가 챗GPT를 어떻게 활용하는지를 분석해 나이 예측 시스템을 구축하고 이에 따라 18세 미만 사용자를 분리할 계획이다. 나이 예측 과정에서 조금이라도 불확실한 부분이 있을 경우 18세 미만으로 분류되고, 일부 국가 또는 상황에 따라 신분증 확인 절차를 밟아야 할 수도 있다.

18세 미만 전용 챗GPT에서는 미성년자에게 부적절한 콘텐츠는 자동으로 걸러지게 된다. 또한 부모가 자녀의 계정을 확인하고, 사용 시간 등도 제한할 수 있다.

만약 미성년자인 사용자가 스스로 목숨을 끊는 것이나 자해 관련 내용 등을 언급한다면 부모에게 이를 알리고, 위급한 상황이라고 판단될 경우에는 관련 내용을 사법 당국에 전달하는 시스템도 구축된다.

샘 올트먼 오픈AI 최고경영자(CEO)는 "10대들에게 있어서는 프라이버시, 자유보다 안전이 최우선"이라고 강조했다.

올트먼은 "프라이버시, 자유 등의 원칙과 충돌할 수 있다는 것을 잘 알고 있다"며 "일부 성인들에게 프라이버시 침해가 될 수도 있지만 (10대들의 안전을 위해) 가치 있는 절충안이 될 것"이라고 말했다.

한편 오픈AI는 지난달 미국 캘리포니아주에서 스스로 목숨을 끊은 10대 소년의 부모에게 소송을 당했다. 이들은 챗GPT가 자살에 도움을 주는 답변을 하는 등 아들 사망에 오픈AI도 책임이 있다고 주장하고 있다.

yjra@news1.kr