3초 샘플 목소리 복제해 AI 변조
AI(인공지능) 기술로 가족 등 가까운 사람의 목소리를 위조해 보이스피싱 범죄에 악용하는 사례가 늘고 있는 가운데, 최근 미국에서 SNS에 올린 영상 속 단 3초의 목소리를 AI로 복제해 몸값을 요구한 사건이 벌어졌습니다.
12일(현지시간) 미국 뉴욕포스트 등에 따르면 애리조나주에 사는 제니퍼 데스테파노는 최근 모르는 번호로 '딸을 납치했다'는 전화를 받았습니다.
납치범은 제니퍼에게 "여기 당신의 딸이 있다. 경찰에 전화하면 딸의 장기에 마약을 가득 채울 것"이라고 협박하며 몸값으로 100만 달러(약 13억 원)를 요구했습니다.
이어 수화기 너머로 딸 브리아나가 겁에 질린 채 흐느끼는 목소리가 들렸습니다.
엄마 제니퍼는 딸이 친구들과 스키 여행을 갔다는 사실을 알고 있었지만, 갑작스러운 딸의 울부짖음을 듣고 혼란에 빠졌습니다.
제니퍼는 당시 상황에 대해 "납치범과 통화를 하고 있는데도 계속 수화기 너머로 딸이 '엄마 살려줘'라며 애원하는 목소리가 들렸다"며 "납치범과 협상 끝에 금액을 5만 달러(약 7000만 원)로 낮췄다"라고 전했습니다.
이때 제니퍼와 함께 있던 지인이 수상한 통화 내용을 의심했고, 제니퍼는 911에 전화를 걸어 딸이 무사하다는 사실을 확인한 후에야 납치범의 통화가 보이스피싱임을 알아차릴 수 있었습니다.
▲ 엄마 제니퍼(왼쪽)와 딸 브리아나(오른쪽)
한편 위처럼 AI로 목소리를 변조한 보이스피싱 전화를 받은 피해 사례가 잇따르고 있습니다.
지난해 12월과 지난달에도 다른 두 명의 피해자들이 사기 전화를 받고 1000달러(약 130만 원)의 몸값을 지불했는데, 이들 모두 실제 음성과 꼭 닮은 목소리가 들려 혼란스러웠다고 전했습니다.
실제로 음성 복제는 AI 기술을 활용해 사람의 목소리를 시뮬레이션하는 방식으로 진행되는데, 온라인에서 무료로 배포하는 프로그램으로 누구나 단 몇 초만에 음성을 복제하고 위조할 수 있어 비슷한 악용 사례가 계속 발생하고 있습니다.
이 같은 상황에 대해 AI · 컴퓨터 과학 전문가인 수바리오 캄밤파티 애리조나주립대학 교수는 "예전에는 AI로 목소리를 복제하기 위해선 충분한 길이의 샘플이 필요했지만, 이제는 단 3초만으로도 목소리를 복제할 수 있다"며 "샘플의 양이 많아질수록 사람의 감정까지 모방할 수 있다"라고 엄중히 경고했습니다.
이에 전문가들은 AI 음성 복제 사기를 최소화하기 위해 "음성 복제 기술과 관련된 위험성을 인식하고, 일단 모르는 번호로 오는 연락은 피하는 게 좋다"며 "온라인상 개인 정보가 노출될 수 있는 SNS 프로필은 비공개로 유지하고, 복제 가능성이 있는 휴대폰 내 음성 파일은 수시로 정리하라"고 권고했습니다.
SBS