我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
本文转自:太原晚报 和你视频对话的,或许并不是其本人……数字化浪潮席卷社会的方方面面,诈骗手段也随之更新迭代。近期,有不法分子盯上了AI技术,通过AI换脸、AI换声等虚假音视频实施诈骗,在保险金融领域此类案件也时有发生。对此,山西省保险行业协会近日发布提醒,广大保险金融消费者,要提高警惕,加强防范。
AI诈骗是指不法分子利用AI技术,通过声音合成,伪造成特定人物的声音;通过换脸技术,伪装成特定人物,实时与他人进行音视频通话。更换后的面部表情自然,以假乱真,能够冒充他人身份联系消费者,博取消费者信任后实施诈骗。
据介绍,利用声音合成,骗子一般是通过骚扰电话录音等来提取声音,获取素材后进行声音合成,从而用伪造的声音来实施诈骗。AI换脸前,骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群,并用AI技术换脸,伪装成目标人的亲戚、朋友等重要关系人,通过视频方式进行信息确认骗取信任,来实施诈骗。另外,有不法分子还会通过AI技术,转发微信语音实施诈骗。他们盗取微信号后,便向其好友“借钱”,为取得对方的信任,会转发之前的语音,进而骗取钱款。
消费者如何防范AI电信诈骗?首先是要保护个人信息,防范个人信息泄露,在生活中加强个人信息保护意识,切勿接受陌生人邀请的视频验证或语音聊天,切勿在网上公开或提供给陌生人或不明平台姓名、照片、声音、联系方式等;其次,对于不明来源或可疑内容的视频或语音通话要谨慎接听或回复,涉及钱款时,要提高安全意识,通过电话、视频等多种方式确认对方是否为本人;另外要注意对方的声音、人脸是否有不协调的特征,多数假脸都是使用睁眼照片合成,假脸极少甚至不会眨眼。
记者 梁丹 马向敏
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2023-10-09 09:45:03
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: