我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
11月22日消息,微软研究院(MicrosoftResearch)近日发布新闻稿,推出了相比较主流语言模型更小的Orca2LLM,不过依然可以回答一些复杂问题。
微软Orca2共有70亿和130亿两种尺寸,部分融合了Llama2LLM参数,通过融合定制的高质量合成数据,提供更准确、更优秀的合成数据。
微软表示Orca2使用扩展的、高度定制的合成数据集进行训练。Orca2支持分步处理、回忆然后生成、回忆-原因-生成、提取-生成和直接回答等各种推理技术,同时还能为不同的任务选择不同的解决方案策略。
Orca2模型相比较Llama2和WizardLM等大型语言模型,在痛苦理解、常识推理、多步推理、数学问题解决、阅读理解等方面更为优秀。
微软表示:“我们的初步结果表明,Orca2的性能明显优于类似尺寸的模型。它还达到了与至少大10倍的模型相似或更好的性能水平,展示了为较小模型配备更好推理能力的潜力。”
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2023-11-22 15:45:25
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: