我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
本文转自:中国科学报
本报讯 近日,美国公司OpenAI推出了最新的人工智能(AI)模型——Sora,可以将文字描述转换为逼真的视频。
然而,该视频生成模型在推进AI技术发展的同时,也引发了人们对AI深度伪造视频可能加剧错误信息和虚假信息传播的担忧。
Sora目前可以通过单独的文本指令或文本与图像相结合的指令创建长达60秒的视频。比如根据“一位时尚女性走在充满霓虹灯和城市标志的东京街头”这一文本生成视频,还有一只狗在雪地里嬉戏、车辆在道路上行驶等例子,以及奇幻场景——鲨鱼在摩天大楼间穿梭。
“与生成式AI的其他技术一样,利用文本生成视频的技术会快速升级,这意味着我们距离难以区分真伪的时代越来越近。”美国加利福尼亚大学伯克利分校的Hany Farid表示,如果这项视频生成技术与AI驱动的语音克隆相结合,将在深度伪造人们从未说过和做过的事情方面开辟一个“全新领域”。
据悉,为了更逼真,Sora结合了两种不同的AI技术。一种是类似于DALL-E等AI图像生成系统使用的扩散模型。另一种是将顺序数据根据上下文拼接在一起的“转换器架构”技术,例如,大型语言模型就是使用转换器架构将单词组装成可理解的句子。
不过,Sora生成的视频中仍然有很多错误,比如一个行走的人的左右腿交换位置、一把椅子随意悬浮在半空中、一块被吃过的饼干却没有咬痕等。这表明目前仍然可以检测并鉴别出深度伪造视频。但专家表示,这已然能够欺骗普通人,视频不一定要完美才可信,许多人并没有意识到视频可以像图片一样被操纵。
为此,OpenAI改善模型安全性的“红队网络”专家对Sora进行了测试,试图突破该模型的保护措施,以评估其被滥用的可能性。这项测试至关重要,因为一些人可能会通过生成虚假视频骚扰他人,甚至影响政府选举。
OpenAI表示,在Sora作为产品向公众开放前,他们会采取几项重要的安全措施,旨在防止模型生成涉及极端暴力、性内容、真实政治家或名人等描述的自动化流程。(徐锐)
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2024-02-19 08:45:12
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: