我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
阿里大模型,再次开源大放送——
发布Qwen1.5版本,直接放出六种尺寸。
最大的Qwen1.5-72B-Chat模型,在MT-Bench和Alpaca-Evalv2上,超越Claude-2.1、GPT-3.5-Turbo-0613。
甚至在部分任务中,得分已经超过前几个版本的GPT-4。
各地的开发者前来祝贺,其中0.5B的迷你版让不少人都迫不及待想试试。
并且还顺便问问,那个多模态大模型Qwen-VL-Max有可能开源吗?
除此之外,还集成到了Huggingfacetransformers,以及同主流的十余个框架合作,从微调、部署、量化到本地推理一步到位。
01Qwen1.5开源
此次开源发布,主要有四个方面值得关注。
首先,模型系列很多,直接开源了6种尺寸(0.5B、1.8B、4B、7B、14B、72B)的基础模型(base)、聊天模型(chat)以及量化模型(包括Int4和Int8GPTQ模型,以及AWQ和GGUF量化模型)。
其次,更多的生态融入。
目前,Qwen1.5的代码合并到HuggingFacetransformers,使其transformers>=4.37.0而无需trust_remote_code。
此外,还同主流的第三方框架,比如vLLM、用于部署的SGLang、用于量化的AutoAWQ、AutoGPTQ、用于微调的Axolotl、LLaMA-Factory以及用于本地LLM推理的llama.cpp等进行了合作。
Qwen1.5系列可在Ollama、LMStudio等平台上使用。此外,API服务不仅在DashScope上提供,而且在Together.ai上也提供,具有全球可访问性。
再者,性能更强。
比如在基本能力的评估上,包括MMLU(5-shot)、C-Eval、Humaneval、GS8K、BBH等基准测试中可以看到,Qwen1.5-72B一些分数上已经超过了GPT-4。
在长上下文支持上,全系列模型的能力都有一定的拓展。尤其Chat模型,像Qwen1.5-7B-Chat这样的小模型,在5个任务中有4个表现与GPT-3.5相当。
而Qwen1.5-72B-Chat的性能,则明显优于GPT3.5-turbo-16k,略微落后于GPT4-32k。
在代码执行上,72B聊天模型在数学以及可视化方面离GPT-4还有一定的差距,但代码可执行率超过GPT-4。不过他们表示,会在在未来的版本中得到增强。
除此之外,此次功能也得到了升级和统一。
全系列均统一支持至少32k的最大长度;
多语言能力全面提升并提供了更丰富的多语言评测;
全系列统一支持systemprompt;
统一具备强链接外部系统能力(agent/RAG/Tool-use/Code-interpreter)
02OneMoreThing
这两天,与阿里大模型的进展还不少。
比如前几天,其多模态大模型Qwen-VL-Max登顶OpenCompass榜首。
以及在通义千问APP上,上线了不少春节免费新应用,比如全家福、拜新年、万物成龙等图像生成的功能。
此外,还有网友反馈说,通义千问2.0版本升级之后,能力提升得很明显。
你有感受到吗?
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2024-02-20 18:45:29
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: