• 我的订阅
  • 科技

150万条多语种音频数据!浙大清华发布语音伪造检测框架SafeEar,兼顾隐私保护|CCS 2024

类别:科技 发布时间:2024-09-27 13:40:00 来源:新智元

150万条多语种音频数据!浙大清华发布语音伪造检测框架SafeEar,兼顾隐私保护|CCS 2024

【新智元导读】SafeEar是一种内容隐私保护的语音伪造检测方法,其核心是设计基于神经音频编解码器的解耦模型,分离语音声学与语义信息,仅利用声学信息检测,包括前端解耦模型、瓶颈层和混淆层、伪造检测器、真实环境增强四部分。

近年来,语音合成和语音转换等技术取得快速发展,基于相关技术能够合成逼真、自然的音频。然而,攻击者可利用该技术进行语音伪造,即「克隆」特定对象语音,为用户隐私安全与社会稳定带来严重威胁。

目前,已有较多基于卷积神经网络、图神经网络等的伪造检测方法取得了优越的检测效果。但现有工作通常需要采用音频波形或频谱特征作为输入,即需要访问语音完整信息,在该过程中存在语音隐私泄露问题。同时,已有研究证实音色、响度等声学特征在语音伪造检测上的重要性[1,2],这为仅基于声学特征进行深度伪造检测带来潜在可能。

针对此问题,浙江大学智能系统安全实验室(USSLAB)与清华大学联合提出SafeEar,一种内容隐私保护的语音伪造检测方法。

150万条多语种音频数据!浙大清华发布语音伪造检测框架SafeEar,兼顾隐私保护|CCS 2024

论文地址:https://safeearweb.github.io/Project/files/SafeEar_CCS2024.pdf

论文主页:https://safeearweb.github.io/Project/

代码地址:https://github.com/LetterLiGo/SafeEar

CVoiceFake数据集地址:https://zenodo.org/records/11124319

SafeEar的核心思路是,设计基于神经音频编解码器(Neural Audio Codec)的解耦模型,该模型能够将语音的声学信息与语义信息分离,并且仅利用声学信息进行伪造检测(如图1),从而实现了内容隐私保护的语音伪造检测。

该框架针对各类音频伪造技术展现良好的检测能力与泛化能力,检测等错误率(EER)可低至2.02%,与基于完整语音信息进行伪造检测的SOTA性能接近。同时实验证明攻击者无法基于该声学信息恢复语音内容,基于人耳与机器识别方法的单词错误率(WER)均高于93.93%。

150万条多语种音频数据!浙大清华发布语音伪造检测框架SafeEar,兼顾隐私保护|CCS 2024

图1 SafeEar原理示意图

方法概述

SafeEar采用一种串行检测器结构,对输入语音获取目标离散声学特征,进而输入后端检测器,主要框架如图2所示。

150万条多语种音频数据!浙大清华发布语音伪造检测框架SafeEar,兼顾隐私保护|CCS 2024

图2 SafeEar框架示意图。(虚线方框内的④Real-world Augmentation仅在训练时出现,推理阶段仅有①②③模块)

主要包括以下四个部分:

1. 基于神经音频编解码器的前端解耦模型(Frontend Codec-based Decoupling Model, Frontend CDM)

受SpeechTokenizer[3]等前期工作的启发,该部分基于神经音频编解码器结构,在语音特征分离与重建的过程中实现语音特征解耦。如图3所示,包括编码器(Encoder)、多层残差向量量化器(Residual Vector Quantizers, RVQs)、解码器(Decoder)、鉴别器(Discriminator)四个核心部分。

其中,RVQs主要包括级联的八层量化器,在第一层量化器中以Hubert特征作为监督信号分离语义特征,后续各层量化器输出特征累加即为声学特征。

2. 瓶颈层和混淆层(Bottleneck & Shuffle)

如图4所示,瓶颈层被用于特征降维表征和正则化处理。混淆层对声学特征进行固定时间窗范围内的随机打乱重置,从而提升特征复杂度,确保内容窃取攻击者即便借助SOTA的语音识别(ASR)模型,也无法从声学特征中强行提取出语义信息。最终,经过解缠和混淆双重保护的音频可以有效抵御人耳或者模型两方面的恶意语音内容窃取。

3. 伪造检测器(Deepfake Detector)

最近研究表明Transformer分类器在伪造检测方面的潜力[4],SafeEar框架的伪造音频检测后端设计了一种仅基于声学输入的Transformer-based分类器,采用正弦、余弦函数交替形式对语音信号在时域和频域上进行位置编码。该分类器的主要结构如图5所示,包括编码器、池化层和全连接层等部分。

150万条多语种音频数据!浙大清华发布语音伪造检测框架SafeEar,兼顾隐私保护|CCS 2024

图5 基于声学特征的语音伪造检测分类器。

4. 真实环境增强(Real-world Augment)

鉴于现实世界的信道多样性,采用具有代表性的音频编解码器(如G.711、G.722、gsm、vorbis、ogg)进行数据增强,模拟实际环境中带宽、码率的多样性,以推广到不可见通信场景。

实验结果

伪造检测效果

本文选择了八个代表性的基线方法,其中包括端到端检测器(AASIST[5]、RawNet2[6]、Rawformer[7])和串行检测器(LFCC+SE-ResNet34[8]、LFCC + LCNN-LSTM[9]、LFCC+GMM[10]、CQCC+GMM[10]、Wav2Vec2+Transformer),测试数据集采用语音伪造检测代表性数据集ASVspoof2019[11]和ASVspoof2021[12],实验结果如表1所示。

SafeEar在信息损失的情况下,仍能实现较为优越的检测效果,在同类型的串行检测器中达到最低等错误率(3.10%),且优于部分端到端检测器。

150万条多语种音频数据!浙大清华发布语音伪造检测框架SafeEar,兼顾隐私保护|CCS 2024

表1 整体伪造检测效果对比

隐私保护效果

对于隐私保护效果,本文讨论了具有不同能力的三类主要攻击者,包括Naive content recovery adversary(CRA1)、Knowledgeable content adversary(CRA2)和Adaptive content adversary(CRA3),通过语音识别(具有代表性的ASR模型和开源ASR API)准确率评价隐私保护的效果。

由于解耦出的声学特征具有信息损失性,攻击者无法有效恢复或重建语音内容,从而证明该方法具有隐私保护能力。同时,论文通过用户测试体现出人耳与机器在内容隐私恢复上均具有较高难度。部分实验结果如下。

150万条多语种音频数据!浙大清华发布语音伪造检测框架SafeEar,兼顾隐私保护|CCS 2024

图6 训练过程中验证集上词错误率变化曲线(CRA1)。可见ASR模型(Conformer、Bi-LSTM)对于SafeEar保护后的语音始终无法识别,WER曲线保持过高数值且震荡;而对于完整音频,ASR模型可迅速收敛并在验证集上取得极低的WER

图7 真实的用户调研表明,ASR模型被认为能够有效识别完整音频(高达Original: 8.99),而对于SafeEar面对不同攻击者等级下的识别效果始终很差(低至CRA2: 1.31、CRA3: 1.31);同理人耳听感的清晰度分别为Original: 9.38、CRA2: 1.10、CRA3: 1.60。当用户模拟攻击者尝试恢复语音内容时,在SafeEar保护下的WER始终高于96.37%

音频示例

原始音频 / SafeEar保护后的音频:

总结与展望

本文在保护语音内容隐私的同时实现了语音深度伪造检测,该方法可被应用于实时语音通话环境,具有优越的检测准确性和泛化能力。

同时,该工作构建了涉及五种主流语言(英语、中文、德语、法语、意大利语)、多声码器(Parallel WaveGAN, Multi-band MelGAN, Style MelGAN, Griffin-Lim, WORLD, DiffWave)的语音伪造检测数据集CVoiceFake,最新数据集涵盖150万个语音样本及其对应转录文本,可作为语音伪造检测和内容恢复攻击的基准数据集。

SafeEar也提供了一种新颖的隐私保护串行检测框架,能够在其他相关任务中沿用和拓展,进而推进智能语音服务安全化发展。

参考资料:

[1] Chaiwongyen A, Songsriboonsit N, Duangpummet S, et al. Contribution of Timbre and Shimmer Features to Deepfake Speech Detection[C]. 2022 Asia-Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA ASC). Chiang Mai, Thailand: IEEE, 2022: 97-103.

[2] Li M, Ahmadiadli Y, Zhang X P. A Comparative Study on Physical and Perceptual Features for Deepfake Audio Detection[C]. Proceedings of the 1st International Workshop on Deepfake Detection for Audio Multimedia. Lisboa Portugal: ACM, 2022: 35-41.

[3] Zhang, X., Zhang, D., Li, S., Zhou, Y. and Qiu, X., 2023. SpeechTokenizer: Unified Speech Tokenizer for Speech Large Language Models. International Conference on Learning Representations (ICLR) 2024.

[4] Liu, X., Liu, M., Wang, L., Lee, K.A., Zhang, H. and Dang, J., 2023, June. Leveraging positional-related local-global dependency for synthetic speech detection. In ICASSP 2023-2023 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) (pp. 1-5). IEEE.

[ 5] Jung J weon, Heo H S, Tak H, et al. AASIST: Audio Anti-Spoofing using Integrated Spectro-Temporal Graph Attention Networks[J]. arXiv, 2021.

[6] Jung J weon, Kim S bin, Shim H jin, et al. Improved RawNet with Feature Map Scaling for Text-independent Speaker Verification using Raw Waveforms[J]. arXiv, 2020.

[7] Liu X, Liu M, Wang L, et al. Leveraging Positional-Related Local-Global Dependency for Synthetic Speech Detection[C]. ICASSP 2023 - 2023 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). Rhodes Island, Greece: IEEE, 2023: 1-5.

[8] Pal M, Raikar A, Panda A, et al. Synthetic Speech Detection Using Meta-Learning with Prototypical Loss[J]. arXiv, 2022.

[9] Wang X, Yamagishi J. A Comparative Study on Recent Neural Spoofing Countermeasures for Synthetic Speech Detection[J]. arXiv, 2021.

[10] ASVspoof2021 challenge organizers. ASVspoof 2021 Baseline CM & Evaluation Package[EB/OL]. 2021. https: //github.com/asvspoof- challenge/2021.

[11] Yamagishi J, Todisco M, Delgado H, et al. ASVspoof 2019: Automatic Speaker Verification Spoofing and Countermeasures Challenge Evaluation Plan[R]. ASV Spoof, 2019: 13.

[12] Delgado H, Evans N, Kinnunen T, et al. ASVspoof 2021: Automatic Speaker Verification Spoofing and Countermeasures Challenge Evaluation Plan[J]. arXiv, 2021.

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2024-09-27 14:45:09

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

清华年度最大校园招聘会启动
...人单位为国际学生提供就业岗位。此外,学校近期推出了多语种一对一职业咨询服务,70余位个体咨询师为国际学生提供中、英、日等多语种职业咨询。(完)
2024-03-15 22:37:00
国家科学技术进步一等奖,为何给了这家AI国家队
...)信息技术有限公司等高校及行业领军企业联合完成的“多语种智能语音关键技术及产业化”项目荣获2023年度国家科技进步奖一等奖。据悉,这是深度学习引发全球人工智能浪潮以来,过去十
2024-06-25 09:30:00
重磅!“国奖”放榜:十年来AI 领域首个国奖一等奖花落科大讯飞
...小米等科技公司出现,而科大讯飞作为第一完成单位的“多语种智能语音关键技术及产业化”项目,更是斩获国家科学技术进步奖一等奖。这是深度学习引发全球人工智能浪潮以来,过去十年人工智
2024-06-26 09:15:00
讯飞听见,中关村论坛年会的“五届元老”非它莫属
...来自中外的现场嘉宾一边演讲,位于两侧的讯飞听见同传多语种系统一边将嘉宾发言进行中英文实时转写和翻译,帮助来宾无障碍交流……在2024年中关村论坛年会亮相的科大讯飞的讯飞同传技
2024-05-01 12:00:00
小语种AI翻译技术新成果,传音荣获WMT 2024国际机器翻译大赛三项冠军
...的结果。目前,传音翻译已成为一个日翻译数十亿字符的多语种机器翻译引擎,支持多语种间的双向翻译,质量达到新兴市场业界领先水平。围绕AI翻译技术,传音深度布局机器翻译生态,不断拓
2024-07-16 16:41:00
博鳌第一现场 | 神话典籍与AI相遇!中央广播电视总台三部AI新品发布
...推出了由CGTN译制的中国首部AI全流程微短剧《中国神话》多语种版本。其英语版本于3月27日面向全球首发。这部由央视频、总台人工智能工作室联合清华大学新闻与传播学院元宇宙文化
2024-03-27 23:06:00
入境能刷卡 支付不“见外”
...服务,重点针对入境人员关注的境内支付方式、移动支付隐私保护、使用场景等开展宣传。在活动周边区域,张贴醒目的支付受理标识,确保活动场馆内及周边区域宣传和服务全覆盖。另外,根据《
2024-03-31 04:00:00
...记者 籍海洋)5月25日,由内蒙古自治区社会科学院北方多语种文献研究所主办的中华民族共同体视域下北方多语种文献研究学术研讨会在呼和浩特市开幕。来自中国社会科学院、中国人民大
2024-05-26 03:35:00
本文转自:厦门日报厦门外国语学校初中多语种将招收270人本报讯 (记者 佘峥)厦门外国语学校初中多语种将招收270人——日前,学校对外发布2024年初中多语种招生简章,报名即日起
2024-05-02 07:37:00
...日报我省出台提升消费环境国际化品质奖励实施细则完成多语种标识牌系统更新改造最高奖20万元本报海口6月22日讯 (记者刘晓惠)随着海南自贸港国际化步伐的加快,广大市民和外籍人士
2024-06-24 07:19:00
更多关于科技的资讯: