쓰기 좋고 성능 좋은 AI 늘수록…'범죄자'들도 웃는다
이스라엘 보안 업체, '챗GPT' 활용한 악성코드 제작 가능 증명
사이버 범죄 전문가들 "딥페이크·AI 보이스피싱 우려"…MS, 3초면 음성 합성 가능한 AI 개발
- 김승준 기자
(서울=뉴스1) 김승준 기자 = 인공지능(AI) 기술이 점차 발전해나가며 인공지능 범죄에 대한 우려도 커지고 있다.
인공지능의 성능과 접근성이 좋아지고 활용이 쉬워질수록 선량한 이용자뿐만 아니라 범죄자가 인공지능을 악용할 가능성이 커지기 때문이다.
◇강력한 챗GPT, 기술 지식 적어도 악성프로그램 작성 가능
최근에는 열광적인 반응을 이끌어 내고 있는 챗봇 '챗GPT'(ChatGPT)도 마찬가지다. GPT3.5라는 초거대 인공지능을 기반으로 만들어진 챗GPT는 세계 최대 수준의 방대한 데이터를 기반으로 만들어진 인공지능인 만큼 진보된 성능을 자랑한다.
챗GPT는 정보탐색, 작문뿐 아니라 프로그램 코딩 추천 등 다방면에서 그럴듯한 성능을 내고 있다. 일각에서는 작문·교육·시험 등에 악용돼 표절 우려가 나오기도 한다.
문제는 표절을 넘어서는 우려도 제기되고 있다는 점. 이스라엘의 사이버 보안회사 '체크포인트'는 자사 연구 기관 블로그를 통해 챗GPT를 활용한 사이버 범죄의 진화에 대해서 소개했다.
체크포인트는 "코드 생성의 기준을 낮추면 덜 숙련된 위협 행위자가 손쉽게 사이버 공격을 시작할 수 있다"며 "숙련도가 낮은 위협 행위자가 피싱 캠페인을 실행하고 악성코드를 개발하는 데 필요한 진입 장벽을 낮추기도 한다"고 밝혔다.
이어 체크포인트는 챗GPT와 코덱스(Codex)라는 인공지능 코드 작성 프로그램을 활용해 △피싱메일 작성 △엑셀문서의 악성 VBA코드 생성 등의 과정을 공개했다.
또 체크포인트에 따르면 해킹 정보가 공유되는 커뮤니티에 챗GPT를 활용한 해킹 프로그램 구현 정보가 공유되고 시작했다. 체크포인트에서는 일부 게시물의 코드를 분석한 결과, "매우 기본적이지만 더 정교한 위협 행위자가 AI 기반 도구를 나쁜 용도로 사용하도록 개선하는 것은 시간문제"라고 평가했다.
◇인공지능으로 새로운 범죄 생기고, 기존 범죄도 진화
딥페이크 기술은 현재 온라인상에서 쉽게 정보를 얻을 수 있고 관련 프로그램 획득도 어렵지 않은 상태다. 가상 인간 및 고인 영상의 복원, 신변 보호와 같은 다양한 방면에서 선용되고 있다. 하지만 동시에 지인을 성적인 방식으로 모욕하기 위한 용도로 활용되고 있는 사례도 늘어나고 있다.
딥페이크와 같은 AI를 이용한 신종 범죄의 출현과 챗GPT 악용과 같이 '범죄 비용 감소'는 이미 학계에서는 예측된 수순이었다.
2020년 유니버시티 칼리지 런던(University College London·UCL) 소속 연구진은 후보가 될만한 AI 범죄 후보를 추려 관련 학계 전문가, 경찰, 보안 기관에서 AI 전문 지식을 갖춘 31명을 대상으로 심각성을 평가하게 했다.
연구진은 딥 페이크 같은 인공지능 기술을 이용해 만든 가짜 콘텐츠는 탐지 및 피해 방지가 어렵고 다양하게 활용될 여지가 있다고 지적했다.
이들은 지금까지 주로 지적됐던 정치인 등 공인을 합성한 가짜 영상부터 영상·음성 통화에서 지인을 사칭해 돈을 가로채는 보이스피싱(사기전화)까지 다양한 방식으로 기술이 악용될 수 있다고 봤다. 연구진은 이러한 범죄로 인한 직접적 피해뿐 아니라, 사회 전반으로 광범위한 불신이 퍼져 사회적 비용이 커질 수 있다는 점을 우려했다.
최근 마이크로소프트(MS)는 인공지능 음성합성 시스템 'VALL-E'에 대한 논문을 공개했다. 인공지능 모델이 아닌 논문 공개 수준이지만, 논문에 따르면 3초 정도의 음성만 확보하면 목소리를 다양한 어조로 합성할 수 있다. 이를 악용하면 유명인이 아니더라도 인스타그램이나 유튜브 등에서 추출한 목소리로 음성을 합성해 피해자의 지인에게서 보이스 피싱 형식으로 대화하며 돈을 갈취할 수 있다는 얘기다.
유니버시티 칼리지 런던 소속 연구진이 제기한 다른 심각한 범죄는 △무인차량 제어권 탈취 △데이터 분석을 통한 맞춤형 피싱 메시지 △광범위 데이터 수집을 통한 협박 범죄 △AI 작성 가짜 뉴스 양산 △인공지능 제어 시스템 방해 등이다.
seungjun241@news1.kr
Copyright ⓒ 뉴스1. All rights reserved. 무단 전재 및 재배포, AI학습 이용금지.









