我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
10月28日消息,当地时间27日,据美联社报道,超过十位软件工程师、开发人员和学术研究人员称,OpenAI的语音转写工具Whisper存在一个重大缺陷:有时会凭空生成大段甚至整句虚假内容。
这些专家指出,这些生成的文本(IT之家注:业内通常称为“AI幻觉”)可能涉及种族言论、暴力措辞,甚至杜撰的医疗建议。
专家们认为,这一问题尤其令人担忧,因为Whisper已被广泛应用于全球多个行业,包括用于翻译和转录访谈内容、生成常见消费科技文本及制作视频字幕。
更具风险的是,尽管OpenAI已提醒不应在“高风险领域”使用该工具,但一些医疗机构仍在匆忙采用基于Whisper的工具来记录医生与患者的咨询记录。
报道称,研究人员和工程师在工作中经常遇到Whisper的“幻觉”现象,问题的整体规模尚不清楚。例如,密歇根大学一位研究员在研究公共会议时发现,在尝试改进模型前,他所检查的十份音频转录中,八份含有虚构内容。
一位机器学习工程师透露,在最初分析的超过100小时Whisper转录中,他发现大约一半的内容存在“幻觉”现象。一位开发人员进一步指出,在他用Whisper生成的26000份转录中,几乎每一份都带有虚构内容。
即便是音质良好的简短音频样本,也未能幸免于这些问题。计算机科学家们的最新研究表明,他们审查的 13000多段清晰音频片段中,有187段出现了“幻觉”现象。
研究人员认为,这一趋势意味着,在数百万条录音中将可能出现数以万计的错误转录。
OpenAI的发言人表示,该公司持续研究如何减少幻觉,并且感谢研究者的发现,将会在模型更新中采纳反馈。
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2024-10-29 08:45:03
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: