• 我的订阅
  • 科技

指令跟随大比拼!Meta发布多轮多语言基准Multi-IF:覆盖8种语言,超4500种任务

类别:科技 发布时间:2024-11-26 09:51:00 来源:新智元

指令跟随大比拼!Meta发布多轮多语言基准Multi-IF:覆盖8种语言,超4500种任务

【新智元导读】Meta全新发布的基准Multi-IF涵盖八种语言、4501个三轮对话任务,全面揭示了当前LLM在复杂多轮、多语言场景中的挑战。所有模型在多轮对话中表现显著衰减,表现最佳的o1-preview模型在三轮对话的准确率从87.7%下降到70.7%;在非拉丁文字语言上,所有模型的表现显著弱于英语。

在大语言模型(LLMs)不断发展的背景下,如何评估这些模型在多轮对话和多语言环境下的指令遵循(instruction following)能力,成为一个重要的研究方向。

现有评估基准多集中于单轮对话和单语言任务,难以揭示复杂场景中的模型表现。

最近,Meta GenAI团队发布了一个全新基准Multi-IF,专门用于评估LLM在多轮对话和多语言指令遵循(instruction following)中的表现,包含了4501个三轮对话的多语言指令任务,覆盖英语、中文、法语、俄语等八种语言,以全面测试模型在多轮、跨语言场景下的指令执行能力。

指令跟随大比拼!Meta发布多轮多语言基准Multi-IF:覆盖8种语言,超4500种任务

论文链接:https://arxiv.org/abs/2410.15553

Multi-IF下载链接:https://huggingface.co/datasets/facebook/Multi-IF

实验结果表明,多数LLM在多轮对话中表现出显著的性能衰减。

例如,表现最佳的o1-preview模型在第一轮指令的平均准确率为87.7%,但到第三轮下降至70.7%

此外,非拉丁文字语言(如印地语、俄语和中文)的错误率明显更高,反映出模型在多语言任务中的局限性。这些发现展示了当前LLM在处理复杂多轮和多语言指令任务上的挑战和改进空间。

Multi-IF的发布为研究人员提供了更具挑战性的评估基准,有望推动LLM在全球化、多语言应用中的发展。

数据集构建

Multi-IF数据集的构建过程经过了多轮精细的设计和筛选,既有模型也有人类专家的参与。

多轮扩展

首先,研究团队基于已有的单轮指令遵循数据集IFEval,将每个单轮指令扩展为多轮指令序列。通过随机采样和模型生成,研究团队为每个初始指令增加了两轮新指令,形成一个完整的三轮对话场景。

首先随机采样一个指令类型(Intruction Type)比如「字数限制」、「限制输出格式为列表」、「添加特定关键短语」等等,然后将之前的指令和这个指令类型提供给语言模型,让它生成一个符合上下文的指令,比如「旅行计划不超过400词」;随机采样可能导致指令之间存在冲突。

为了确保多轮指令的逻辑一致性和层次递进性,研究团队设计了一套两步冲突过滤机制:

1. 模型过滤:使用Llama 3.1 405B模型自动检测可能存在矛盾的指令组合。例如,如果第一轮要求生成详细描述,而第二轮要求简洁总结,这种冲突指令会被筛选出来。

2. 人工审核:在初步过滤后,团队通过人工标注对指令进行细化和调整,以确保每一轮指令既具有挑战性又保持逻辑连贯。

多语言扩展

为了提高数据集的多语言适用性,研究团队采用了以下方法将数据集从英文扩展至多语言版本:

1. 自动翻译:使用Llama 3.1 405B模型将原始英语指令翻译为中文、法语、俄语、印地语、西班牙语、意大利语和葡萄牙语七种语言。

2. 人工校对:翻译结果经过语言专家的人工审校,以确保在语义和语法上贴合各语言的自然使用习惯,同时消除因翻译可能带来的歧义或误导。

这一多轮扩展和多语言适配的构建流程,使Multi-IF成为全面评估LLM指令遵循能力的强大工具。

指令跟随大比拼!Meta发布多轮多语言基准Multi-IF:覆盖8种语言,超4500种任务

总体实验结果

在Multi-IF基准上,Meta团队对14种最先进的大语言模型(LLMs)进行了评估,涵盖了OpenAI的o1-preview、o1-mini,GPT-4o,Llama 3.1(8B、70B和405B),Gemini 1.5系列,Claude 3系列,Qwen-2.5 72B,以及Mistral Large等。

实验显示,整体上o1-preview和Llama 3.1 405B表现最佳,在平均准确率上领先其他模型。特别是在多轮指令任务中,o1-preview和Llama 3.1 405B模型在三轮指令的平均准确率分别为78.9%和78.1%,展现了较高的指令遵循能力。

指令跟随大比拼!Meta发布多轮多语言基准Multi-IF:覆盖8种语言,超4500种任务

多轮对话中的指令遵循

实验表明,所有模型在多轮对话中的指令遵循准确率随着轮次增加而显著下降。这种下降在某些模型中尤为明显,如Qwen-2.5 72B在第一轮准确率较高,但在后续轮次中的表现迅速下滑。

相比之下,o1-preview和Llama 3.1 405B在多轮任务中的准确率相对稳定,展现出较强的持续指令遵循能力。总体而言,这些结果说明,多轮对话对当前LLM构成了较大挑战,模型在多轮次中遵循指令的能力有待提高。

指令跟随大比拼!Meta发布多轮多语言基准Multi-IF:覆盖8种语言,超4500种任务

多轮对话中的指令遗忘

在多轮对话中,模型往往出现「指令遗忘」现象,即在后续轮次中未能遵循前一轮成功执行的指令,研究团队引入了「指令遗忘率」(Instruction Forgetting Ratio, IFR)来量化这种现象。

IFR值表明,高性能模型如o1-preview和Llama 3.1 405B在多轮对话中的遗忘率相对较低,而有些模型比如Gemini在IFR值上明显偏高,表现出较高的指令遗忘倾向。

指令跟随大比拼!Meta发布多轮多语言基准Multi-IF:覆盖8种语言,超4500种任务

此外,对于Llama 3.1系列模型,随着模型规模从8B扩展到405B,其指令遗忘率(即IFR)逐渐降低。这表明,增大模型规模可以有效提升其在多轮对话中保持指令一致性的能力。

多轮对话中的自我纠正

模型在多轮任务中是否能够纠正之前的错误也是一个重要的性能衡量标准,实验通过计算「错误自我修正率」(Error Correction Ratio, ECR)来评估这一能力。

结果显示,o1-preview和o1-mini在错误自我修正方面表现突出,能够在后续轮次中纠正约25%的之前未遵循的指令。这些模型似乎能够利用某种“反思”能力来提高指令执行的水平。

指令跟随大比拼!Meta发布多轮多语言基准Multi-IF:覆盖8种语言,超4500种任务

相比之下,其他模型在自我修正方面表现一般,这一结果表明,具备反思能力的模型在多轮任务中能够更好地处理错误并提升指令遵循的稳定性。

多语言指令遵循

在多语言环境下,模型的指令遵循能力表现出显著的语言差异。实验显示,英语的指令执行准确率普遍最高,尤其是在Llama 3.1 405B模型上,英语准确率接近0.85。法语和意大利语的表现也较为接近英语,而俄语、印地语和中文等非拉丁文字的准确率则明显较低。

例如,o1-preview模型在俄语和印地语中的准确率低于其在英语、法语等语言中的表现。总体而言,非拉丁文字语言的错误率高于拉丁文字语言,这在多语言指令任务中尤为突出。

实验结果还表明,不同模型在多语言指令遵循中的表现存在一定差异。o1-preview在所有语言中的表现相对稳定,并在中文、西班牙语、意大利语和印地语中稍胜Llama 3.1 405B,而GPT-4o的表现则略逊于前两者。

指令跟随大比拼!Meta发布多轮多语言基准Multi-IF:覆盖8种语言,超4500种任务

平均而言,非拉丁文字的语言往往会出现更高的指令遵循错误,表明当前模型在多语言环境,尤其是对非拉丁文字的支持方面,仍有提升空间。

这些结果反映出,尽管现有的先进LLM在多语言任务上已经展现出一定的能力,但在处理俄语、印地语和中文等非拉丁文字语言的指令遵循任务时仍存在明显的局限性。这也为未来多语言模型的改进指出了明确的方向。

综上所述,Multi-IF基准通过多轮对话和多语言环境的复杂指令任务,揭示了当前大语言模型在指令遵循能力上的不足之处。

实验结果表明,多数模型在多轮任务中存在准确率下降和指令遗忘的问题,且在非拉丁文字的多语言任务中表现较差。Multi-IF为进一步提升LLM的多轮对话和跨语言指令遵循能力提供了重要的参考。

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2024-11-26 12:45:02

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

迈向多语言医疗大模型:大规模预训练语料,开源模型与全面基准测试
...而,这些进展主要依赖于英语的基座模型,并受制于缺乏多语言医疗专业数据的限制,导致当前的医疗大模型在处理非英语问题时效果不佳
2024-09-30 09:51:00
openai发布多语言大规模多任务语言理解
...日(9月23日)发布博文,报道称OpenAI在HuggingFace上发布了多语言大规模多任务语言理解(MMMLU)数据集
2024-09-24 22:07:00
精准狙击Llama 3.1?Mistral AI开源Large 2,123B媲美Llama 405B
...均长度:语言多样性当今大量的商业化应用场景涉及处理多语言文档。Mistral Large 2 在大量多语言数据上进行了训练,特别是在英语、法语、德语、西班牙语、意大利语、葡萄
2024-07-26 09:36:00
文生图参数量升至240亿!Playground v3发布:深度融合LLM,图形设计能力超越人类
...上甚至超越了人类设计师,同时支持精确的RGB颜色控制和多语言识别。自去年以来,文本到图像生成模型取得了巨大进展,模型的架构从传统的基于UNet逐渐转变为基于Transformer的模型
2024-10-08 09:48:00
87.8%准确率赶超GPT-4o登顶!谷歌DeepMind发布自动评估模型FLAMe
...在上下文长度为2048个token的英语数据上进行训练,可能在多语言或长上下文上表现不佳。在未来的版本中,作者计划包括对更多具有更长上下文的多语言数据集的训练。最后,这项工作
2024-08-05 09:37:00
全球最强开源大模型Llama 3发布:使用15T数据预训练,最大模型参数将超4000亿
... 2 的七倍,包含的代码数量也是 Llama 2 的四倍。为了应对多语言使用情况,Llama 3 的预训练数据集中有超过 5% 的高质量非英语数据
2024-04-20 11:03:00
多样任务真实数据,大模型在线购物基准Shopping MMLU开源
...这些异质的用户行为,是在线购物所必须解决的问题。 多语言任务:在线购物平台往往在不止一个地区运营,因此需要模型能同时理解多种语言描述下的商品和用户问题。基于以上分析,研究构
2024-11-21 09:45:00
微软连发3款Phi-3.5模型:128K上下文,首用MoE架构,部分性能超GPT-4o mini
...务。尽管参数规模仅有38.2亿,但Phi-3.5-mini-instruct模型在多语言和多轮对话任务中表现出的性能不俗
2024-08-22 09:49:00
关于LLM-as-a-judge范式,终于有综述讲明白了
...见量化基准,挑战性任务基准,领域特定基准,以及其他多语言,多模态,指令跟随基准等等。 表 2:LLM-as-a-judge 数据集和基线展望:挑战和机遇(1)偏见与脆弱性:
2024-12-04 09:49:00
更多关于科技的资讯: