본문 바로가기
카테고리 없음

딥페이크, 신종 보이스피싱 사례

by ◈⊙‡♧§▒ 2024. 3. 15.

중국에서 딥페이크로 만들어진 가짜 동영상에 속아 친구에게 8억 원을 보내는 보이스피싱 사건이 발생하였습니다. 딥페이크 보이스피싱이 무엇인지와 사례와 예방법에 대해 알아보겠습니다.

 

 

 

딥페이크 보이스피싱

딥페이크는 인공지능 기술을 활용해 기존 영상에 유명인의 얼굴을 입혀 가짜로 만든 동영상을 말합니다. 최근에 조인성과 송혜교 님이 한 업체를 홍보하는 동영상이 있었는데 알고 보니 실제 사람이 출연한 것이 아니고 인공지능 기술을 이용해 얼굴과 목소리를 똑같이 만들어낸 가짜 동영상이었습니다. 딥페이크 기술을 사용해 보이스피싱으로 악용하는 사례가 늘고 있어 조심해야 합니다.

 

 

딥페이크 보이스피싱 사례

중국에서 딥페이크 보이스피싱으로 8억 원의 사기가 발생했습니다. 사업가 A 씨는 친구에게 걸려온 영상통화를 받았습니다. 영상통화에는 친구의 얼굴이 보였고 목소리가 들렸습니다. 친구가 사업자금이 필요하다고 도움을 요청했고 바로 계좌이체로 보냈는데 알고 보니 친구 얼굴과 목소리를 똑같이 만들어낸 가짜 동영상이었습니다. 조작된 영상으로 지인을 사칭해 금전을 요구한 사례입니다.

 

딥페이크 보이스피싱 예방법

동영상만 보고 그대로 믿기보다는 의심해 보고 구글이나 네이버에 검색하여 관련된 보이스피싱이 있는지 찾아봅니다. 또 가족 또는 지인을 사칭한 경우에는 당사자에게 직접 전화해서 확인해 봅니다. 인공지능 기술은 학습을 거듭할수록 정교한 영상을 만들어 냅니다. 동영상을 그대로 믿지 마시고 가짜 동영상이 있다는 점을 알고 계셔야 합니다.

 

 

댓글