닫기

[아투포커스] 낯선 전화에 무심코 ‘여보세요’…“딥보이스 악용 의심해 봐야”

기사듣기 기사듣기중지

공유하기

닫기

  • 카카오톡

  • 페이스북

  • 트위터 엑스

URL 복사

https://api1.asiatoday.co.kr/kn/view.php?key=20241114010007413

글자크기

닫기

김형준 기자 | 공주경 인턴 기자

승인 : 2024. 11. 14. 18:00

대답만 듣고 끊는 스팸전화…딥보이스 제작 의심
관련 대책 미비, SNS 관리 등 개인 경각심 필요
2183994955
사진은 기사와 관련 없음/게티이미지
최근 모 회사 임원 A씨는 파견직 비서 B씨로부터 직장 내 괴롭힘과 성희롱 신고를 당했다. 노동청은 B씨가 제출한 성희롱하는 육성이 담긴 음성파일과 녹취록 여러 건을 근거로 A씨를 조사했다. 그러나 B씨는 해당 발언을 한 사실이 없다고 강력하게 주장했다. 그러던 중 B씨를 대리한 법무법인이 일반인도 딥보이스 기술을 이용해 위조 음성을 얼마든지 제작할 수 있다는 점을 근거로 음성파일 자체가 조작됐을 가능성을 제기했다. 결국 노동청이 음성파일의 진위를 조사한 결과 조작된 파일로 확인돼 B씨의 무고로 드러났다.

인공지능(AI) 기술을 이용해 타인의 얼굴을 도용해 성적 모욕을 주는 '딥페이크 성범죄'가 사회적 문제로 대두된 가운데 이번엔 타인의 목소리까지 복사해 보이스피싱 범죄에 활용하는 '딥보이스' 범죄가 잇따라 발생하고 있다.

14일 경찰청 국가수사본부 등에 따르면 올해 9월까지 납치 빙자형 전화금융사기 사건이 174건 발생한 것으로 집계되는 등 딥보이스 관련 범죄는 유의미한 통계가 생겨날 정도로 확대되는 중이다.

최근엔 '여보세요'와 같은 한 마디로도 충분히 딥보이스 제작이 가능하다. 단 3~4글자의 짧은 음성 샘플만으로도 말하는 패턴, 속도, 음량 등을 분석할 수 있고, 특정 단어만으로 화자의 특징을 70% 이상 유추할 수 있다는 것이다.
황석진 동국대 정보보호대학원 교수는 "과거 일본에서도 노인에게 전화를 걸어 손자 행세를 하며 소액을 편취하는 '오레오레 사기(전화금융사기)'가 유행했는데, 딥보이스 기술이 더해지면 납치·사기뿐 아니라 다양한 형태의 사기로도 변질될 수 있다"며 "유명인 행세나 상대방 평판을 훼손시키는 허위 신고가 발생할 수도 있다"고 말했다.

딥보이스에 대비하기 위해 경찰청은 내년부터 2027년까지 3년간 총 91억원을 투입해 딥러닝 기반 허위조작 콘텐츠 복합 탐지기술을 개발한다. 최신 인공지능 기법을 활용한 허위영상물까지 탐지할 수 있도록 소프트웨어를 고도화하는데 5억원을 편성했다. 김민전 국민의힘 의원도 지난달 28일 AI기술을 이용해 만든 제작물에 워터마크를 의무화하는 내용이 담긴 정보통신망 이용촉진 및 정보보호 등에 관한 법률 일부개정법률안을 발의했다.

다만 딥보이스 범죄의 경우 실제 처벌까지 이어진 사례가 많지 않아 해외 규율 등을 참고해 관련 법률을 조속히 마련해야 한다는 지적이다. 이근우 법무법인 화우 변호사는 "딥보이스는 대부분 보이스피싱 사기로 악용되고 있지만, 아직 규율이 거의 마련되지 않았다"며 "미국의 경우, 연방통신위원회(FCC)가 AI로 음성을 만들어 전화하는 것 자체를 불법으로 보는 정책을 마련했다"고 설명했다.
김형준 기자
공주경 인턴 기자

ⓒ 아시아투데이, 무단전재 및 재배포 금지

기사제보 후원하기