我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
快科技2月26日消息,25日深夜,阿里云视频生成大模型万相2.1(Wan)重磅开源。
此次开源采用Apache2.0协议,14B和1.3B两个参数规格的全部推理代码和权重全部开源,同时支持文生视频和图生视频任务,全球开发者可在Github、HuggingFace、魔搭社区下载体验。
据介绍,14B版本万相模型在指令遵循、复杂运动生成、物理建模、文字视频生成等方面表现突出,在权威评测集Vbench中,万相2.1以总分86.22%大幅超越Sora、Luma、Pika等国内外模型,稳居榜首位置。

1.3B版本万相模型不仅超过了更大尺寸的开源模型,甚至还和一些闭源的模型结果接近,同时能在消费级显卡运行,仅需8.2GB显存就可以生成480P视频,适用于二次模型开发和学术研究。
官方表示,从2023年开始,阿里云就坚定大模型开源路线,千问(Qwen)衍生模型数量已超过10万个,是全球最大的AI模型家族。

在视频生成方面,万相2.1通过自研高效VAE和DiT架构增强了时空上下文建模能力,支持无限长1080P视频的高效编解码,首次实现了中文文字视频生成功能。
随着万相的开源,阿里云两大基模全部开源,实现了全模态、全尺寸大模型的开源。
自2025年1月DeepSeek爆火以来,开源已经逐渐成为国内外大模型领域的“标配”。
进入2月,字节豆包、昆仑万维、百度文心、阿里通义千问等纷纷推出自家的开源模型,加入这场开源热潮。

【本文结束】如需转载请务必注明出处:快科技
责任编辑:拾柒
文章内容举报
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2025-02-26 08:45:04
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: