我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
6月8日消息,OpenAI首席执行官SamAltman(山姆・阿尔特曼)在访问阿拉伯联合酋长国期间警告说,AI对人类构成了“生存风险”,并建议设立一个类似于国际原子能机构(IAEA)的国际机构来监督AI。
▲ 图源OpenAI
Altman说:“世界面临的挑战是我们将如何管理这些风险,并确保我们仍然可以享受这些巨大的好处,没有人想毁灭世界。”他表示,联合国核监督机构国际原子能机构(IAEA)正是世界如何团结起来监督核电的一个例子。
Altman还表示:“让我们确保全球团结在一起——我希望这个地方能在这方面发挥真正的作用。”他说:“我们把国际原子能机构当作一个榜样,全世界都在表示AI很危险,希望安装一些护栏,我认为我们可以两者兼顾。”
此前报道,今年3月份,包括埃隆・马斯克和史蒂夫・沃兹尼亚克在内的1100多人签署了一封公开信,呼吁“所有人工智能实验室立即暂停训练比GPT-4更强大的人工智能系统,至少6个月”。Altman当时表示,这封信“忽略了我们需要暂停的技术细节”,但同时也承认OpenAI还没有开始训练GPT-5,并且“暂时”不打算这样做。
Altman周三再次反驳了一些对人工智能担忧的声音,称该公司已经通过外部审计、红队测试和安全测试等方式评估了潜在的危险,“当我们完成GPT-4时,我们花了超过6个月的时间才准备好发布它。”
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2023-06-09 06:45:05
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: