我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
10月20日消息,斯坦福大学日前发布了AI基础模型“透明度指标”,其中显示指标最高的是Meta的Lama2,但相关“透明度”也只有54%,因此研究人员认为,市面上几乎所有AI模型,都“缺乏透明度”。
据悉,这一研究是由HAI基础模型研究中心(CRFM)的负责人RishiBommasani所主导,调查了海外最流行的10款基础模型:
Meta的Llama2、BigScience的BloomZ、OpenAI的GPT-4、StabilityAI的StableDiffusion、AnthropicPBC的Claude、谷歌的PaLM2、Cohere的Command、AI21Labs的Jurassic-2、InflectionAI的Inflection、亚马逊的Titan。
RishiBommasani认为,“缺乏透明度”一直是AI行业所面临的问题,在具体模型“透明度指标”方面,IT之家发现,相关评估内容主要围绕“模型训练数据集版权”、“训练模型所用的运算资源”、“模型生成内容的可信度”、“模型自身能力”、“模型被诱导生成有害内容的风险”、“使用模型的用户隐私性”等展开,共计100项。
最终调查情况显示,Meta的Lama2以54%的透明度居冠,而OpenAI的GPT-4透明度只有48%,谷歌的PaLM2则以40%排名第五。
▲图源斯坦福大学
在具体指标中,十大模型得分表现均“最好”的是“模型基本信息”(ModelBasics),这一评估内容主要包含“模型训练上是否准确介绍了模型的模式、规模、架构”,平均透明度为63%。表现最差的则是影响(Impact),主要评估基础模型是否会“调取用户信息进行评估”,平均透明度只有11%。
CRFM主任PercyLiang表示,商业基础模型的“透明度”对于推动AI立法,及相关产业、学术界而言,非常重要。
RishiBommasani则表示,较低的模型透明度让企业更难知道它们能否安全地依赖相关模型,也难以令研究人员依靠这些模型来做研究。
RishiBommasani最终认为,上述十大基础模型在透明度方面都“不及格”,虽然Meta的Llama2得分最高,但并不能满足外界需求,“模型透明度最少要达到82%,才能被外界认可”。
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2023-10-21 21:45:05
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: