딥페이크(Deepfake)는 인공지능(AI) 기술을 사용하여 실제 사람의 목소리나 영상을 합성하거나 조작하여 만든 가짜 음성이나 영상을 말합니다. 보이스 피싱에서 딥페이크 기술이 악용되는 경우, 피해자가 잘 알고 있는 사람의 목소리를 흉내 내어 피해자를 속이는 데 사용됩니다.
예를 들어, 보이스 피싱 범죄자들은 피해자의 가족이나 지인의 목소리를 딥페이크 기술로 합성하여, 마치 실제 가족이나 지인이 전화를 걸어 돈을 요구하는 것처럼 가장할 수 있습니다. 이를 통해 피해자는 더욱 쉽게 속을 수 있고, 결과적으로 보이스 피싱 피해로 이어질 수 있습니다.
딥페이크 기술의 발달로 인해 보이스 피싱이 더욱 정교해지고 있어, 피해 예방을 위해서는 금융 기관이나 공공 기관에서 개인 정보를 요구하거나 돈을 요구하는 경우 반드시 본인이 먼저 해당 기관에 전화를 걸어 확인하는 것이 중요합니다.