中国同胞收到女儿被绑架的视频,对方索要8亿韩元!新型诈骗“DEEP FAKE”通过AI合成换脸
近日,在韩国出现一种新型诈骗方式“DEEP FAKE” (人工智能图像合成),诈骗组织使用人工智能生成的技术,将个人的声音、面部表情及身体动作拼接合成虚假内容,有许多中国同胞和韩国国民因此遭受巨额损失!
上个月,中国同胞A某从匿名者那里收到了女儿哭着求救的视频短信。几天前,他的女儿去济州岛旅行了,本应在旅途中的女儿在视频中却身处狭窄的房间,手脚被胶带捆住哭喊着“爸爸,救我”。发短信的人威胁说:"绑架了你女儿,汇8亿韩元的话会将她释放。"
A某向中国驻济州领事馆通报了这一事实,领事馆向济州警察厅报了案。接到报警后出动的警察却发现A某的女儿并未遭到绑架。经专家分析,中国同胞A某收到的视频是电话诈骗组织制作的Deep Fake(人工智能图像合成)视频。
利用AI技术制造假影像和声音进行诈骗
警察厅国家调查本部7日表示,利用人工智能(AI)技术制作子女的假影像、假声音后,利用该技术威胁父母后索要钱财的新型诈骗正在国内外扩散。
今年5月,居住在京畿南杨州市的30多岁男性B某接到了一个陌生号码的电话。打电话的人说"哥哥是我,弟弟",然后拜托说情况紧急,请给他寄钱。因为对方和弟弟的声音一模一样,B某毫无疑义地汇了6000万韩元。电话诈骗组织通过被称为"deep voice"的语音合成技术再现了弟弟的声音。诈骗犯们给目标周围的熟人打电话,录下声音,然后合成假声音。
这种诈骗方式在中国国内也十分猖獗。今年2月,在中国香港,跨国企业职员收到首席财务官(CFO)的电子邮件后,汇了约2500万美元(约334亿韩元)的公司资金。虽然刚开始怀疑突然要求汇巨款的指示,但是邮件中附加的视频中出现了CFO和自己的同事们,因此打消了疑虑。然而这也是电话诈骗团伙制作的Deep Fake视频。
上传到Instagram的脸部照片被恶意利用为犯罪
警方表示,上传到社交网络服务(SNS)的面部照片、影像、语音等有可能被恶意利用在诈骗上,并嘱咐大家注意。由于Deep Fake技术的成果非常精巧,连专家和调查机关也很难用肉眼掌握真伪。
最近,得益于警方对电信诈骗的宣传、国民认识增加等,相关损失呈减少趋势,但如果更加精巧的Deep Fake、Deep Voice诈骗扩散,损失也会再次增加。警方相关人士担忧道:"最近被恶意利用在犯罪上的deep fake精巧到与实际无法区分的程度,市民们的损失可能会增加"。
专家们表示,尽量不要在SNS上公开个人信息,并嘱咐大家注意。顺天乡大学警察行政学系教授吴允成嘱咐道:"熟人或周围人突然打来不认识的号码要求金钱时,首先要挂断电话,再打对方原来的电话号码,确认身份,被恶意利用在犯罪上的照片和视频大部分都是通过SNS获得的,因此养成不公开账号的习惯也很重要"。