谨防骗子利用AI声音冒充亲人诈骗

  骗子们的手段日新月异,大家一定要谨防骗子利用AI声音冒充亲人诈骗。 目前AI语音生成软件可以让骗子模仿亲人的声音,诈骗者利用AI声音冒充亲人窃取了大量钱财,光是在2022年,这些假冒行为导致人们在2022年被骗走1100万美元,而且老年人占目标人群的大多数。p1A鹰网事原创频道!
p1A鹰网事原创频道!

  人工智能语音生成软件一直受到业界关注,最开始,这种软件需要几句话才能令人信服地再现扬声器的声音和语气。现在,该技术已经发展到只需几秒钟的对话就足以准确模仿某人的程度。p1A鹰网事原创频道!

  根据外媒公布的报告,数以千计的受害者声称他们被冒充亲人的顶替者所欺骗。这类冒名顶替诈骗已成为美国第二大热门的欺诈类型,2022年提交的案件超过36000起。FTC官员进一步表示,在这36000起案件中,超过5000名受害者通过电话被骗走钱财,损失总额达1100万美元。p1A鹰网事原创频道!

  和其他地方一样,这些诈骗者主要针对老年人。这并不奇怪,因为在涉及金融诈骗时,老年人是最脆弱的群体之一。p1A鹰网事原创频道!

  在最新技术的加持下,AI合成语音正越来越逼真,对话效果越来越好。不过新技术也被一些犯罪分子利用。据多家外媒报道,最近美国和加拿大各地使用AI合成语音进行电信诈骗的案例多发,不少上当的都是老年人。加拿大警方称,最近加拿大各地都有不少类似案件发生,涉案金额已达数百万加元。有受害者表示,犯罪分子使用的声音和她儿子的声音简直一模一样。在美国,类似的诈骗案件近期也呈上升趋势。p1A鹰网事原创频道!

上一篇: 邯郸丛台闹市白色越野车疯狂冲撞车祸 是否报复社会未知
下一篇: 返回列表