我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
本文转自:解放日报
大模型如何更可信可靠可及
中外都在尝试“红队测试”,用一种大模型检测另一种大模型
宰飞/吴丹璐
■本报记者 宰飞 吴丹璐
ChatGPT是这届世界人工智能大会上无法绕开的话题。在惊叹ChatGPT强大能力的同时,人们也表达了深深的忧虑。
幻觉问题
首先是幻觉问题。所谓幻觉,用通俗的话说就是“一本正经说瞎话”。使用过ChatGPT等生成式人工智能的人可能都有过这样的经历:它们常常会斩钉截铁地给出一些看似合理却错误百出的回答。
出现幻觉,是因为机器学习的语料出了问题。云天励飞副总裁肖嵘把人工智能比作有样学样的儿童,大人教了什么,他就说什么。肖嵘认为,要解决幻觉问题,就要对人工智能输入的语料做事实确认。
目前,解决幻觉问题已经有了一些进展。比如,对大模型的输出结果加强防御。中外人工智能领域都在尝试的一种防御方式是“红队测试”,也就是用一种大模型攻击另外一种大模型,以检测受攻击大模型的漏洞。
对齐问题
另一个与幻觉问题相关的问题是对齐。所谓对齐,就是让人工智能的目标与人类的目标一致。ChatGPT这样解释:确保人工智能系统的行为和决定符合人类的价值、目标、道德考量。解决对齐问题的目的是让人工智能为人类所用,并避免产生灾难性后果。
长久以来,科学家一直担忧对人工智能失去控制。1960年,控制论之父维纳就发表了一篇有先见之明的文章,担忧“机器以程序员难以理解的速度学习,并发展出始料未及的策略”。近来,人工智能取得惊人进步,维纳的忧惧显得迫在眉睫。
研究界提出了数据筛检和监管两条策略解决对齐问题。数据筛检与解决幻觉问题的策略相似,就是让人工智能学习的数据更准确、更能反映人类的价值观。但也有不少业内人士指出,随着人工智能系统变得越来越复杂,数据筛检也越来越困难。
更多研究者认为需要加强人工智能的监管。上海人工智能实验室教授乔宇说:“我们不仅需要人工智能界的参与,还需要引入社会科学的学者,共同建立人工智能大模型框架,确保它符合人类的价值观。”
成本问题
如果说大模型是用钱堆出来的,可能并不过分。大模型的各项投入——数据、算力、电力、程序员——都耗资不菲。例如,训练GPT-3使用了1.3吉瓦时的电力(足以向美国121户家庭供电一年),而GPT-4的训练成本高达约1亿美元。
不过,业界认为这只是一个暂时现象,人工智能的成本会逐步下降,大模型会越来越可及,为千行百业和普通人所用。近日,一家美国机构仅花费了2万美元就训练出一款GPT-3同等水平的大模型。此外,受益于一些开源大模型,后来者训练新模型的成本大大降低。
未来,各行各业使用大模型的成本也会降低。阿里云首席技术官周靖人认为,降低使用门槛的重要途径是建立“大模型自由市场”。他说:“有了这样的社区,使用者就知道去哪找大模型;同时,开发者能更高效地查找模型,把模型集成到自己原有的业务体系里,帮助大模型生态不断创新。”
阿里云推出了大模型社区“魔搭”,现已聚集180万开发者和900多个模型。
虽然大模型还存在不少难题等待解决,但是业界普遍看到了人工智能时代的曙光。乔宇借飞机的发展历程展望人工智能。他说,1903年莱特兄弟首次驾机飞行,在那个时代,飞机只是探险者的游戏。但是,100多年后的今天,全球航空工业已非常发达。
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2023-07-08 08:45:21
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: