我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
9月18日消息,随着AI技术发展,电信诈骗分子也开始通过AI换脸、AI拟声等手段试图骗取受害人的钱财。如今,这一新型骗局已经成为全球多国需要面对的问题。
当地时间18日,据Metro报道,Starling银行面向英国3000多人进行的一项调查显示,“拟声”诈骗现已成为当地的一个普遍问题,该技术能够利用AI从短短三秒的音频中“创造”出受害者亲友的声音。
图源Pixabay
最新数据显示,超过四分之一的英国成年人(28%)表示,他们在过去一年中成为了高科技声音克隆骗局的目标。更令人担忧的是,近一半的人(46%)甚至完全不知道有“拟声”诈骗的可能,因此,如果他们成为目标,就更有可能成为受害者。
当前,超过3秒的语音内容在社交平台上相当常见,诈骗分子即可通过各种技术“找到”当事人的家庭成员,并利用克隆的声音拨打电话、发送语音信息或语音邮件,利用受害者的心理来骗取钱财。
在调查中,每10人中就有近1人(8%)表示在这种情况下他们会发送任何需要的信息,即使自己认为这通电话“看起来很奇怪”。
Starling银行敦促人们不要只相信自己的耳朵,而是要与自己的亲人商定一个暗语或短语,这样他们就有办法核实对方的身份。报道称,英格兰和威尔士的金融欺诈犯罪呈上升趋势,去年猛增了46%。
不仅如此,据IT之家此前报道,在2022年一整年内,美国的老年人因为诈骗而损失了16亿美元(当前约113.6亿元人民币),其中就有许多诈骗是利用AI技术来“克隆”熟人的声音,以及其他依靠AI生成的伎俩。
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2024-09-19 14:45:08
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: