
(서울=뉴스1) 오현주 기자 = 국가정보원이 챗GPT 같은 생성형 인공지능(AI)을 활용할 때 지켜야 할 보안 가이드라인을 29일 공개했다. 생성형 AI가 일으킬 보안 문제를 예방하기 위해서다.
이번 가이드라인은 △해외 생성형 AI 기술 동향 △보안 위협 사례 △기술 사용 방안 △국가·공공기관의 AI 모델 구축시 고려사항 및 보안대책 등을 담았다.
필수 보안 수칙으로는 △비공개·개인정보 등 민감 정보 입력 금지 △생성물의 정확성·윤리성·적합성 등 재검증 △생성물 활용 시 지적 재산권·저작권 등 법률 침해·위반 여부 확인 △연계 확장프로그램 사용 시 보안 취약 여부 등 안전성 확인 △로그인 계정에 대한 보안 설정 강화가 꼽혔다.
국정원은 공공기관과 지자체뿐만 아니라 교육부와도 협업해 국내 국립·공립·사립대학교(총 420여 곳)에 가이드라인을 배포한다.
AI가 대학 등 일선 연구·교육현장에서 적극 활용되고 있지만 뚜렷한 보안대책이 없었기 때문이다.
국정원 관계자는 "챗GPT 등이 각광을 받으면서 여러 공공기관이 해당 기술을 활용하려고 했지만, 정부 차원의 보안 대책이 없어 기술도입이 어려운 상황이었다"며 "국가 사이버안보 정책을 수립·시행하는 기관으로서 가이드라인을 통해 각급기관이 생성형 AI기술을 적극 활용할 수 있는 기반을 마련했다"고 말했다.
한편 이번 가이드라인은 국정원 국가사이버안보센터 홈페이지에서 확인할 수 있다.
woobi123@news1.kr