我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
11月17日消息,微软Ignite2023大会已拉开帷幕,微软在本次活动中发布了旗下最小的语言模型Phi-2,共有27亿参数,相比较此前版本有明显提升。
注:微软于今年6月发布Phi-1,只有13亿代码,适用于QA问答、聊天格式和代码等等场景。该模型完全基于高质量数据进行训练,在基准测试中的表现比同类模型高出10倍。
微软今年9月更新发布了Phi-1.5版本,同样为13亿参数,可以写诗、写电子邮件和故事,以及总结文本。在常识、语言理解和推理的基准测试中,该模型在某些领域能够跟上多达100亿个参数的模型。
微软现在更新发布的Phi-2拥有27亿参数,规模虽然比此前版本翻番,但相比较其它主流语言模型,依然小很多。
微软表示Phi-2在逻辑推理和安全性方面显示出显著的改进。通过正确的微调和定制,小型语言模型是云和边缘应用程序的强大工具。
MicrosoftResearch机器学习基础小组负责人SebastienBubeck在Twitter上发布了“MT-Bench”基准测试的屏幕截图,该基准测试了具有强大语言模型(例如GPT-4)的大型和小型语言模型的实际功能。
根据结果,Phi-2在某些方面优于Meta的Llama-2-7B模型。Phi-2的聊天版本也在酝酿中,可能会解决该模型在这些领域的一些现有痛点。
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2023-11-17 15:45:15
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: