[이성엽의 IT프리즘]인공지능 영향평가 어떻게 해야 하나

(서울=뉴스1) 이성엽 고려대 기술경영전문대학원 교수/기술법정책센터 센터장 = 나날이 발전하는 인공지능 기술이 이제 우리 일상으로 점점 파고들고 있다, 인공지능 로봇이 식당에서 서빙을 하거나 청소를 하는 것은 물론 그림을 그리기도 하도, 챗봇은 무료한 일상에 말벗이 되어주기도 한다. 산업적으로도 AI 활용은 산업 전반의 생산성을 제고할 것으로 예상된다. 예컨대 국내 금융분야는 AI 활용 초기단계이지만 로보어드바이저, 챗봇, 상품추천, 이상거래탐지, 신용평가 및 여신심사 등에서 활용되고 있는데, 향후 금융산업의 디지털 전환 및 생산성 혁신을 이끄는 핵심기술로서 금융산업의 지형을 근본적으로 변화시킬 것으로 보인다,

이러한 AI가 가지는 사회경제적 파급효과가 두려운 이유 중 하나는 언젠가 AI가 사실판단의 영역을 넘어서는 가치판단에서도 인간을 능가하지 않을까 하는 것이다. 이러한 예상되는 위험을 사전에 방지하기 위해 도입이 검토되는 것이 인공지능 영향평가(impact assessment)이다. 일반적으로 영향평가라 함은 신규 기술, 비즈니스 등이 도입되면서 발생하는 위험, 부작용 등을 사전에 평가하여 이에 대한 개선안을 강구하는 과정이라고 할 수 있다. 이미 교통영향평가, 규제영향평가, 환경영향평가, 개인정보영향평가 등 다수의 영향평가제도가 도입되어 있다.

2021년 11월 채택된 유엔 산하기구인 UNESCO의 AI 윤리권고안에서도 인공지능 윤리영향 평가를 권고하고 있다. 이에 따르면 AI 윤리영향 평가의 목적은 AI 시스템의 혜택, 우려 및 위험을 식별·평가하고 적절한 위험 예방, 완화, 모니터링 조치를 개발하기 위한 것이다. 이러한 영향평가는 소외계층, 취약계층 혹은 취약한 상황에 노출된 개인의 권리, 근로권, 환경 및 생태계, 윤리·사회적 의미와 같이 인권 및 기본 자유에 영향을 미치는 요소를 식별하고, 본 권고안에 제시된 가치 및 원칙을 따라 시민 참여를 촉진해야 한다고 규정하고 있다.

주요 내용을 보면 다음과 같다. 첫째, 회원국은 AI 시스템이 빈곤에 미치는 사회경제적 영향을 평가하고, 국내 그리고 국가 간 빈부 격차와 정보 격차에 따른 갭이 현재와 미래에 대규모로 도입될 AI 기술로 인해 심화되지 않도록 해야 한다. 둘째, 인권에 대한 잠재적 위협으로 식별된 AI 시스템의 경우 시장에 출시되기 전 AI 행위자들에 의해 윤리영향평가의 일환으로 광범위한 테스트를 거쳐야 한다. 셋째, 회원국과 비즈니스 기업은 AI 시스템 수명주기의 모든 단계를 모니터링하기 위해 의사결정에 사용된 알고리즘, 데이터, 관계된 AI 행위자의 모니터링과 같은 적절한 조치를 시행해야 한다. 특히, 최종 사용자와의 상호작용이 필요한 공공 서비스의 경우 윤리영향평가의 일환으로 이러한 조치가 이뤄져야 한다.

한국의 경우에도 지능정보화기본법 제56에서 인공지능 서비스의 사회적 영향평가를 도입하고 있다. 국가 및 지방자치단체는 국민의 생활에 파급력이 큰 지능정보서비스 등의 활용과 확산이 사회ㆍ경제ㆍ문화 및 국민의 일상생활 등에 미치는 영향에 대하여 지능정보서비스 등의 안전성 및 신뢰성, 정보격차 해소, 사생활 보호, 지능정보사회윤리 등 정보문화에 미치는 영향, 고용ㆍ노동, 공정거래, 산업 구조, 이용자 권익 등 사회ㆍ경제에 미치는 영향, 정보보호에 미치는 영향을 사항을 조사ㆍ평가할 수 있도록 하고 있다.

국가인권위원회도 2022년 5월 11일 인공지능 개발과 활용 과정에서 발생할 수 있는 인권침해와 차별을 방지하기 위하여 ‘인공지능 개발과 활용에 관한 인권 가이드라인’을 마련하였는데, 그 내용 중 AI 인권영향평가가 포함되어 있다. 즉, 국가는 인공지능 개발 및 활용과 관련하여 인권침해나 차별이 발생할 가능성을 고려한 인권영향 평가제도를 마련하고, 평가 결과 부정적 영향이나 위험성이 드러난 경우 이를 방지할 수 있는 조치사항을 적용하며 그 내용을 공개하여야 한다고 규정하고 있다.

이처럼 AI 영향평가가 윤리, 서비스, 인권. 기술 측면 등에서 속속 도입되고 있지만 실제 시행까지는 상당한 난항이 예상된다. 첫째, 영향평가가 가져올 혁신에 대한 부작용을 고려하면 이를 의무적 사항으로 제도화하는 것에는 신중할 필요가 있다. 이에 따라 현재까지 논의는 권고나 가이드라인 등 연성규범의 형태를 띠고 있다. 둘째, AI 영향평가를 제도화하는 경우에도 대상, 절차, 평가방법, 운영방법를 어떻게 할 것인지, 영향평가 결과를 어떻게 활용할 것인지, 즉, 어떤 조치를 하도록 할 것인지에 대한 논의도 쉽지 않다. 사회적 파급효과가 큰 공공부문에 먼저 도입하는 방안이 유력하지만, 대기업과 중소기업, 국내기업과 글로벌기업을 어떻게 차별화할 것인지도 과제이다. 셋째, AI 윤리영향 평가의 경우 윤리를 법적으로 제도화한다는 것 자체가 자기모순으로 자칫하면 윤리의 범규범화를 초래할 우려가 있다는 점을 유의해야 할 것이다. 또한 윤리라는 것이 속성상 역사적, 지역적 고유성을 지닌다는 점을 고려하면 유네스코의 권고의 실효성이 높다고 하기도 어렵다.

결국 AI 영향평가는 제도 자체의 순수성에도 불구하고 기업들에게 강력한 사전규제로 작용할 가능성이 있다는 점을 고려해 공공부문 우선 도입 원칙, 연성규범을 통한 자율규제 원칙, 광범위한 사회적 공론화와 합의 원칙을 준수하면서 진행하는 것이 타당할 것이다.

2brich@news1.kr