我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
4月11日消息,MistralAI公司近日推出了Mixtral8x22B开源模型,共有1760亿个参数,Context长度(上下文文本)为6.5万个token,可以通过Torrent下载。
MistralAI公司自成立以来一直备受外界关注,“6人团队,7页PPT,8亿融资”不断缔造传奇,而且在得到微软的投资之后更是进入发展快车道。
该公司今天发布的Mixtral8x22B开源模型是个开源模型,官方目前放出了Torrent种子链接,文件大小为281GB。用户可以通过磁性链接直接下载,或者通过HuggingFace和PerplexityAILabs平台进行下载。IT之家附上相关截图如下:
Mixtral8x22B共有1760亿个参数,Context长度(上下文文本)为6.5万个token,不过为单一任务可以调用部分模型(440亿参数),因此使用起来更加灵活。
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2024-04-12 09:45:13
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: