我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
快科技12月29日消息,2024年诺贝尔物理学奖得主、素有“AI教父”之称的辛顿(Geoffrey Hinton)表示,AI有10%-20%可能性在未来30年内导致人类灭亡。
在访谈中,当主持人询问辛顿对可能出现的AI末日和10%发生机率是否有变化时,辛顿称没什么变化,还是10%到20%。
主持人则表示“机率增加了”,辛顿接着表示“如果一定要说,你看,我们以前从未和比我们聪明的东西打交道。”
他认为,建立AGI(通用人工智能)或比人类更聪明的系统,可能导致该技术躲过人类控制而构成人类生存威胁。
“因为我们现在所处的情况是,这个领域大多数专家都认为,也许未来20年内我们将开发出比人类更聪明的AI,这是一个非常可怕的想法。”辛顿表示。
辛顿直言:“仅仅依靠大型公司的利润动机,无法确保他们会安全开发技术。”,“唯一能迫使这些大型公司投入更多资源进行安全研究,正是政府的监管。”
【本文结束】如需转载请务必注明出处:快科技
责任编辑:黑白
文章内容举报
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2024-12-29 11:45:05
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: