• 我的订阅
  • 科技

openai发布多语言大规模多任务语言理解

类别:科技 发布时间:2024-09-24 22:07:00 来源:浅语科技

9月24日消息,科技媒体marktechpost昨日(9月23日)发布博文,报道称OpenAI在HuggingFace上发布了多语言大规模多任务语言理解(MMMLU)数据集。

背景

随着语言模型日益强大,评估其在不同语言、认知和文化背景下的能力已成为当务之急。

OpenAI决定推出MMMLU数据集,通过提供强大的多语言和多任务数据集,来评估大型语言模型(LLMs)在各种任务中的性能,从而应对这一挑战。

MMMLU数据集简介

MMMLU数据集包含一系列问题,涵盖各种主题、学科领域和语言。其结构旨在评估模型在不同研究领域中需要常识、推理、解决问题和理解能力的任务中的表现。

openai发布多语言大规模多任务语言理解

MMMLU的创建反映了OpenAI对测量模型实际能力的关注,尤其是在NLP研究中代表性不足的语言,纳入多种语言可确保模型在使用英语时有效,并能胜任全球使用的其他语言。

MMMLU数据集核心

涵盖范围广

MMMLU数据集是同类基准中最广泛的基准之一,涵盖了从高中问题到高级专业和学术知识的多种任务。

研究人员和开发人员在利用MMMLU数据集过程中,可以调用不同难度的问题,测试大预言模型在人文、科学和技术主题下的表现。

更考验深层认知

这些问题都经过精心策划,以确保对模型的测试不局限于表面理解,而是深入研究更深层次的认知能力,包括批判性推理、解释和跨领域解决问题的能力。

多语言支持

MMMLU数据集的另一个值得注意的特点是它的多语言范围,支持简体中文。该数据集支持多种语言,可以进行跨语言的综合评估。

openai发布多语言大规模多任务语言理解

然而,以英语数据训练的模型在使用其他语言时往往需要帮助来保持准确性和连贯性。MMMLU数据集提供了一个框架,用于测试传统上在NLP研究中代表性不足的语言模型,从而弥补了这一差距。

MMMLU数据集意义

MMMLU的发布解决了人工智能界的几个相关挑战。它提供了一种更具多样性和文化包容性的方法来评估模型,确保它们在高资源和低资源语言中都能表现出色。

MMMLU的多任务特性突破了现有基准的界限,它可以评估同一模型在不同任务中的表现,从类似琐事的事实回忆到复杂的推理和问题解决。这样就能更细致地了解模型在不同领域的优缺点。

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2024-09-25 00:45:01

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

迈向多语言医疗大模型:大规模预训练语料,开源模型与全面基准测试
... MMedC 上进⼀步预训练使模型性能相⽐于基线显著提升。大规模多语医疗语料(MMedC)构建在构建数据集方面,研究团队收集了一份多语言医疗语料库
2024-09-30 09:51:00
Meta推出“AI翻译官”!能翻译和转录近百种语言,已开源
...100种语言语音翻译的需求。因此,Meta为200种语言构建了大规模多语言和模态文本嵌入空间SONAR,能快速搜索具有相似性的多种语言
2023-08-24 11:03:00
腾讯ailab发现了chatgpt的又一个短板
...性:ChatGPT是基于GPT-3开发的模型,GPT-3在涵盖各种领域的大规模数据集进行上训练,因此,在特定领域的表现
2023-02-14 15:51:00
AI翻译界杀手诞生!阿里国际翻译大模型吊打谷歌和GPT-4
...种识别、多维度数据质量评估,由此,就获得了高质量、大规模多语言数据。与此同时,通过利用多语言MoE、参数扩展方法,从而保证主导语言(如中英)性能不下降的情况下,提升了其他语种
2024-10-17 09:49:00
“百模大战”,国产 GPT 大全
...yan.baidu.com/welcome通义千问“通义千问”是阿里云推出的超大规模的语言模型,功能包括多轮对话、文案创作
2023-05-07 20:34:00
...监事会成员。 36氪了解到,reInventAI已经开始训练第一个大规模的语言模型,预计在2024年年初发布。reInventAI相信
2023-07-13 12:59:00
多样任务真实数据,大模型在线购物基准Shopping MMLU开源
...于“亮剑”——联合香港科技大学、圣母大学构建了一个大规模、多任务评测基准Shopping MMLU,用以评估大语言模型在在线购物领域的能力与潜力。一直以来,想要完整建模在线购
2024-11-21 09:45:00
最新美国国家人工智能科学院院士介绍
...来自牛津大学,专注于机器学习和数据挖掘,尤其在处理大规模数据集方面取得了显著成果。 SophiaWang,来自哈佛大学,致力于自然语言处理与机器翻译的研究,提高了多语言之间
2024-03-24 08:39:00
o1核心作者分享:激励AI自我学习,比试图教会AI每一项任务更重要
...以下一个token预测为例,说明了这种弱激励结构如何通过大规模多任务学习,鼓励模型学习解决数万亿个任务的通用技能,而不是单独解决每个任务。他观察到:如果尝试以尽可能少的努力解
2024-09-21 09:36:00
更多关于科技的资讯: