• 我的订阅
  • 科技

stablediffusion3:文字渲染能力大升级

类别:科技 发布时间:2024-02-25 03:03:00 来源:浅语科技

那个和Midjourney打得难舍难分,引发了一波买显卡“炼丹”“炼妹子”风潮的StableDiffusion,又推出船新版本了。

stablediffusion3:文字渲染能力大升级

就在昨天晚上,StabilityAI在官网来了一波更新,预告了一波 StableDiffusion3 。

根据介绍,新版本在多主题提示、图片质量还有文字渲染能力上都进行了次大升级,模型参数量在800M-8B之间,并且延续了他们家一如既往开源的优秀传统。

更重要的是,它和Sora一样当起了维新派,摒弃了业内常用的U-NET架构,加入Transformer和Diffusion结合的大家族。

stablediffusion3:文字渲染能力大升级

而具体的原理和进步啥的,看不懂没关系,咱们过会儿再聊。

直接先来一波全新的高清无码大图,让大伙们见识下StableDiffusion3的斤两。

stablediffusion3:文字渲染能力大升级

其中文字渲染能力,是这次StableDiffusion3比较突出的一个亮点。

因为不咋识字儿、不怎么会写字儿,可以说是目前文生图、文生视频的通病了。

就拿世超用DALL·E3生成的“Chaping青花瓷”为例,上面汉字不明所以。。。最重要的"Chaping"还拼写错了。。。

基本上可以说自AI画图不会画手之后,把文本渲染成图像里准确的文字,也是个难题。

stablediffusion3:文字渲染能力大升级

而新版本的StableDiffusion,文化水平就明显高了不少。

根据官网给出的案例,给它提示词是“一辆跑车的夜间照片,侧面写着' SD3 ',汽车在赛道上高速行驶,巨大的路标上写着'Faster'的文字”。

生成的图片不但符合描述,文字的位置也没毛病,字体也很清晰。

stablediffusion3:文字渲染能力大升级

但当我们用同样的提示词在DALL·E3生成的时候,文字渲染效果就有些一言难尽了。

Faster倒是没错,但侧面的SD3没有一张图是准确的。

stablediffusion3:文字渲染能力大升级

还有这张,StableDiffusion3生成的是这样的。

stablediffusion3:文字渲染能力大升级

而DALL·E3连incredible都没拼对。

stablediffusion3:文字渲染能力大升级

只不过,现在目前的文字渲染暂时只支持英文,中文还得等上那么一段时间。

再来看这次StableDiffusion3的另一大更新——多主题提示,大伙儿可以把这个理解成,AI在生成图片的过程中漏没漏提示词。

举个例子,这张图的提示词里,大致包括了宇航员、穿着芭蕾舞短裙撑着粉色雨伞的猪、戴着礼帽的知更鸟、还有角落里的“StableDiffusion”几个关键。

stablediffusion3:文字渲染能力大升级

咱先不提图片的质量如何,但该生成的东西起码AI都没落下。

不过有意思的是,在这条推文下有网友把同样的提示词,分别喂给了Midjourney、DALLE-3和Bing。

stablediffusion3:文字渲染能力大升级

看下来,DALLE-3、Bing和Midjourney要不就是知更鸟少了帽子,要不就是“StableDiffusion”单词拼写错误,没一个能打的。

最后,是文生图模型最为关键的图像质量。

StableDiffusion3也是人狠话不多,po了一张这样的图片。

stablediffusion3:文字渲染能力大升级

世超第一眼看到的反应:这难道不是照片???

手帕上的纹理还有老虎刺绣,未免有点过于逼真了吧。。。

还有这张苹果,也是能以假乱真的程度。

stablediffusion3:文字渲染能力大升级

而之所以StableDiffusion3这次能有这么大改变,很大可能要归功于一个跟Sora同源的架构。

以前的StableDiffusion,一般都是用U-net架构+Diffusion扩散模型。而Transformer,也多是用在像GPT类大语言模型上,两种技术各管各的。

而OpenAI则觉得GPT这把咱用Transformer 打赢了,就不改banpick了吧。。。于是就把Transformer架构和Diffusion结合了起来,用在视频上,一顿魔改和大力出奇迹后,就整出了Sora。

StabilityAI团队也是英雄所见略同,把DiffusionTransformer (简称Dit架构)用在了StableDiffusion3上。

有意思的是,关于DiT架构的论文是AI大佬谢赛宁和WilliamPeebles一起写的。

stablediffusion3:文字渲染能力大升级

这个WilliamPeebles,正好是Sora团队的负责人之一。

StabilityAI的老板Emad也在X(推特)上表示,这次确实用到了和sora类似的技术。

stablediffusion3:文字渲染能力大升级

另外,这次StableDiffusion3还用到了一个FlowMatching(流匹配)技术。

因为技术原理过于复杂,咱们可以简单理解成,这是一种用来训练扩散模型的方法。

如果把扩散模型比作魔法画笔,那这个流匹配的作用就是升级画笔,让画笔可以更快、更准确地画出你想要的东西。

世超估计也正是因为这个技术,StableDiffusion3的文化水平才暴增的。

总而言之,光从现有的官方效果图和技术公开来看,这次StableDiffusion3的出现,又把文生图卷到了一个新高度,也证明了Dit架构在文生图、文生视频领域确实是个可行的新方向。

stablediffusion3:文字渲染能力大升级

反正这么下去,保不齐下一波谁家又会拿出重磅更新。

不过大伙儿也别太焦虑,该吃吃该喝喝,要是有时间学学怎么用AI也行。

最后提个醒,StableDiffusion3现在还没正式公测,千万别又让卖课的给骗了。

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2024-02-25 09:45:05

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

...吕家俊告诉36氪,当前Akool主要有三块生成式AI业务,覆盖文字、图片、视频。电商商家可以通过Akool的平台,生成自身所需的营销素材。在视频场景中,Akool首先可以帮助
2023-05-30 08:11:00
...力,包括广告、网络营销等降本的领域,还有短剧创造、文字IP类等相关领域。(文中观点仅供参考,不构成投资建议,投资有风险,入市需谨慎。)(记者 董湘依 制作 赵晨羽 郑铮 宅男
2024-02-20 15:15:00
商汤升级“日日新5.0”大模型,对标GPT-4Turbo
...立带来了3段完全由大模型生成的视频。未来,输入一段文字或一个完整描述就可以生成一段视频,人物的服饰、发型、场景可预先设定,保持视频内容的连贯性和一致性,“我们会在很短时间内发
2024-04-24 09:32:00
万兴科技AIGC概念迷雾:60秒文生视频能力遭质疑,开月薪10万招AI人才
...至发稿申请仍未通过审核。官网信息显示,天幕主要具备文字生成视频、已有视频风格化处理、文字生成背景音乐、视频配乐、文字生成音效、文字生成图片,以及图片生成图片等7项能力。以市场
2024-05-07 11:13:00
进击的AI PC:全产业链共同推动,带领市场走向回暖
...U和GPU上挤了牙膏,但在AI性能上却带来了大幅度的提升,升级了XDNA NPU,AI算力从10TOPS来到了16TOPS
2024-02-10 14:36:00
Sora震撼发布 开启视频生产新模式 浦银安盛投资解决方案迎接AI新热潮
...视频为代表的多模态内容生产,加速内容制作端生产效率升级。尤其对于游戏、影视、营销等多行业都会带来降本增效、降低行业门槛等长远影响。”在各类大模型推动下,AIGC产业发展不断提
2024-02-29 09:24:00
Sora为何没能诞生在中国?
...但足以让人见识到AI的进化之快。今年2月16日,OpenAI发布文字生成视频的大模型Sora。根据简单几句提示,Sora便能准确“理解”文本
2024-03-19 05:31:00
本周硅谷发生了什么?|OpenAI推出5项更新;微软组建新的AI团队;Googe发布文生视频模型Lumiere
...进展,通义千问团队升级了视觉语言模型Qwen-VL,图片内文字处理能力得到提升。此外,第四批国产AI大模型备案获批,14款大模型及产品获得备案审批,备案企业已经从以大厂、AI
2024-01-29 09:34:00
Stable Diffusion 3来了!100%理解提示词,不仅能生成文字,还涌现出物理能力了?
...一个报刊亭,在报刊亭的顶部,我们看到 \"它来了!\"的文字。背景是一场大雨即将来临。)Prompt:A horse balancing on top of a colorf
2024-02-26 22:00:00
更多关于科技的资讯: