AI 기본법 시행 레벨4 자율주행도 '사전 고지' 의무…사전 검토 필수

레벨4부터 고영향 AI 가능성…AI 거버넌스 구축 필요
개인정보·저작권 리스크 확대도 대비해야

장준영 법무법인 세종 AI센터장(변호사)이 25일 제주신화월드에서 열린 제13회 국제 e-모빌리티 엑스포 내 '모빌리티 산업 자율주행·AI 신규 트렌드와 규제 방향' 세미나에서 발표를 하고 있다.

(제주=뉴스1) 박기범 기자 = 지난 1월부터 인공지능(AI) 기본법이 시행됨에 따라 레벨4(고도 자율주행) 이상 자율주행 자동차는 '사전 고지' 등의 조치를 취해야 한다는 지적이 나왔다. 특히 관련 법령과 가이드라인을 체계적으로 관리하고 지속적으로 업데이트하는 구조를 갖춰야 한다는 설명이다.

장준영 법무법인 세종 AI센터장(변호사)은 25일 제주신화월드에서 열린 제13회 국제 e-모빌리티 엑스포 내 '모빌리티 산업 자율주행·AI 신규 트렌드와 규제 방향' 세미나에서 "자율주행 분야는 아직 AI 기본법의 직접 적용 범위가 넓지는 않다"면서도 "생성형 AI나 고도화된 AI가 서비스 제공 과정에 활용될 경우 표시 의무 등 규제가 적용될 수 있다"고 설명했다.

AI 기본법은 △고영향 AI △생성형 AI △대규모 AI 등으로 구분된다. 특히 규제는 고영향 AI에 집중돼 있다. 인공지능 사업자는 자사 서비스가 고영향 AI에 해당하는지 사전에 검토하고 이에 해당할 경우 안전성과 신뢰성을 확보하기 위해 '사전 고지' 등의 조치를 해야 한다.

장 센터장에 따르면, 과학기술정보통신부의 가이드라인상 자율주행 자동차는 레벨4(고도 자율주행) 이상일 때 '고영향(고위험) AI'에 해당할 가능성이 크다. 이는 레벨3까지는 운전자 개입이 전제되는 반면, 레벨4부터는 시스템이 주행을 주도하기 때문이다.

장 센터장은 다만 "레벨3라 하더라도 인간의 개입이 최소화된 구조라면 고위험 영역으로 분류될 수 있어 사전 검토가 반드시 필요하다"고 했다.

개인정보 문제도 주요 쟁점이다. AI는 고도화된 데이터 처리 기술인 만큼, 그 과정에서 발생하는 저작권 침해와 개인정보 유출 사고가 기업에 치명적인 타격을 줄 수 있는데 자율주행·모빌리티 서비스는 영상·위치정보 등 민감 데이터 활용이 필수적이다.

다행히 '영상 정보' 활용에 대해서는 긍정적인 변화가 있다고 장 센터장은 설명했다. 그는 "기존에는 규제 샌드박스 등을 통해 예외적으로 원본 영상을 활용했지만, 이제 자율주행자동차법과 개인정보 보호법 개정을 통해 AI 성능 개선을 위한 원본 활용 특례 제도가 체계화되고 있다"고 설명했다.

장 센터장은 이같은 변화 속 'AI 거버넌스 체계' 구축을 해결책으로 제시했다. 장 변호사는 "AI 리스크 관리는 결국 컴플라이언스(준법 감시) 문제"라며 "관련 법령과 가이드라인을 체계적으로 관리하고 지속적으로 업데이트하는 구조를 갖춰야 한다"고 강조했다.

특히 데이터 흐름을 단계별로 분석해 위험 요소를 사전에 점검하는 방식이 중요하다. 서비스 전 과정에서 어떤 데이터가 수집·가공·활용되는지를 파악하고, 개인정보·저작권 침해 가능성을 사전에 차단해야 한다는 설명이다.

그는 "규제 기관은 사고 발생 시 기업이 할 수 있는 모든 조치를 다 했는지를 중요하게 본다"며 "데이터의 흐름을 시각화한 '데이터 플로우 차트' 등을 통해 단계별 안전성을 확보하고 리스크를 컨트롤하는 능력이 향후 기업의 성패를 가를 것"이라고 조언했다.

정부와 공공기관 차원의 안전 설계 방안도 구체화했다. 이정기 한국교통안전공단 자동차안전연구원(KATRI) 부원장은 국제 기준의 다변화에 대응하기 위한 한국형 안전 인증 체계 구축이 필요하다고 강조했다.

이날 국내 자율주행 기술의 현황과 발전 방향도 제시됐다. 김건우 카카오모빌리티 미래플랫폼 경제연구소장은 자율주행 산업이 수직 계열에서 역할의 전문화로 발전할 것으로 전망했다. 현재 한 기업이 자율주행 기술과 서비스를 모두 제공한다면, 향후에는 기술과 서비스가 구분되면서 관련 산업이 세분화할 것이란 설명이다.

그는 "애플은 소프트웨어와 하드웨어 사업을 모두 갖고 있지만, 반대(안드로이드)는 그렇지 않다"고 설명했다.

pkb1@news1.kr