AI 기본법 개정 방향은?…"아동·청소년 특화 안전 설계 필요"

"현행 AI 기본법에 아동·청소년 특화 안전 의무 부재"

31일 서울 여의도 국회의원회관에서 'AI 윤리 정책의 미래와 AI 기본법 개정 방향'을 주제로 토론이 진행되고 있다. 2026.3.31 ⓒ 뉴스1 이기범 기자

(서울=뉴스1) 이기범 기자 = '인공지능(AI) 기본법'을 놓고 아동·청소년에 특화한 안전 설계를 의무로 두도록 법 개정이 이뤄져야 한다는 지적이 나왔다.

박형빈 서울교대 신경윤리가치AI융합교육연구소장은 31일 서울 여의도 국회의원회관에서 'AI 윤리 정책의 미래와 AI 기본법 개정 방향'을 주제로 특별강연에 나서며 이같이 밝혔다.

국회 AI 포럼 초청으로 열린 이번 강연에서 박 소장은 한국의 AI 기본법이 유럽연합(EU)의 AI법(EU AI Act)와 비교해 윤리와 신뢰성 측면에서 취약한 부분이 있다고 했다. 구체적으로 △아동·청소년 특화 안전 의무 △알고리즘 편향·차별 방지 기준 △AI 동반자·정서 지원 서비스 △제재 수준 △적합성 평가 체계 등에서 상대적으로 뒤처진다고 짚었다.

박 소장은 "중요한 건 취약계층별 AI 위험과 법적 공백에 대해 우리가 얼마나 논의를 해왔는지 생각할 필요가 있다"며 "특히 10대 이전의 아동과 10대 아이들, 20대, 성인들이 똑같은 콘텐츠와 플랫폼을 이용하더라도 전혀 다른 결과가 나온다"고 말했다.

생성형 AI 등 서비스가 뇌 발달이 성숙하지 않은 아동·청소년의 정신건강에 큰 영향을 미친다는 지적이다. 실제 2024년 미국 플로리다에서는 14세 소년이 AI 챗봇과 대화를 나누다 스스로 목숨을 끊었다며 관련 소송이 제기된 바 있다.

그러나 현행 AI 기본법과 시행령에는 아동·청소년 대상 AI의 감정 유도, 자살·자해 대응, 연령별 사용자경험(UX)에 관한 세부 규정이 부재하다.

이를 두고 박 소장은 거시 AI 윤리에서 미시 AI 윤리로 전환해 이를 정책에 반영할 필요가 있다고 말했다. 공정성·투명성·책임성 등 거대 AI 윤리에서는 도메인·대상별 구체적 위해를 포착하기 어렵기 때문에 아동·청소년·노인·장애인 등 대상별 세분화된 AI 설계 기준이 필요하다는 설명이다.

나아가 이를 바탕으로 AI 기본법을 개정해야 한다고 주장했다. 특히 아동·청소년 특화 안전 설계가 필요하다고 강조했다. AI 서비스 및 개발사에 아동·청소년 이용자를 고려한 AI 사용 사실 고지, 위험 대응 연계 체계, 시스템 감사 로그 확보, 조작적·기만적 AI 설계 금지 등 의무를 부여해야 한다는 주장이다.

박 소장은 "인간의 번영은 자동으로 이뤄지지 않는다"며 "AI가 생산성을 높이고 의료를 혁신할 수 있지만, 반영은 설계된 책임 위에서만 가능하다. 이 같은 원칙을 만들지 않으면 AI 발전은 중간에 좌초할 수도 있다"고 말했다.

이날 토론에 참석한 정부 관계자들은 아동·청소년을 위한 AI 법과 제도가 필요하다는 박 소장의 의견에 공감하면서도 세부 입법 방향을 놓고는 신중해야 한다고 밝혔다.

최우석 과학기술정보통신부 인공지능안전신뢰지원과장은 "(아동·청소년의) 과의존 문제를 AI 기본법에 붙여 풀어나가는 게 맞을지, 기존에 있는 교육법이나 의료법을 고도화해 해결할지에 대해선 생각을 해봐야 한다"며 "어떻게 진행해 나가는 것이 효율적이고, 중복 규제를 막을 수 있는지 고민을 해봐야 한다"고 말했다.

이지현 교육부 인공지능융합인재양성과장은 "지금 AI 기본법 수준에서 아동·청소년 보호를 위한 규정이 상대적으로 미비하든 점은 교육부도 인지하고 있고, 교육기본법 등 관련 법률 개정을 추진하고 있다"면서도 "AI 발전 속도가 워낙 빠르기 때문에 관련 규정을 모두 법령에 담기에는 한계가 있기 때문에 가이드라인이나 지침이 필요하다"고 말했다.

이어 "교육부는 과기정통부와 협업해 학교에서 안전하게 생성형 AI를 활용할 수 있게 초·중·고 학생용, 교사용, 개발자용 등으로 세분화된 생성형 AI 가이드라인을 개발하고 있다"고 덧붙였다.

Ktiger@news1.kr