• 我的订阅
  • 科技

ai自给自足,用合成数据做训练

类别:科技 发布时间:2023-02-23 12:53:00 来源:浅语科技

AI生成的图像太逼真,为什么不能拿来训练AI呢?

可别说,现在还真有人这么做了。

来自香港大学、牛津大学和字节跳动的几名研究人员,决定尝试一下能否使用高质量AI合成图片,来提升图像分类模型的性能。

为了避免AI合成的图像过于单一、或是质量不稳定,他们还提出了几类提升数据多样性和可靠性的方法,帮助AI合成更好的数据集(来喂给AI的同类doge)。

结果他们发现,不仅效果不错,有的AI在训练后,效果竟然比用真实数据训练还要好!

ai自给自足,用合成数据做训练

目前这篇论文已经被ICLR2023收录。

ai自给自足,用合成数据做训练

把AI生成的数据喂给AI

作者们分别从零样本(zero-shot)、少样本(few-shot)图像分类、模型预训练(pre-training)与迁移学习三个⽅⾯进⾏了探讨,并给出了提升数据多样性与可靠性的方法。零样本图像分类

零样本(Zero-shot)图像分类任务,指没有任何⽬标类别的训练图⽚,只有对⽬标类别的描述。

作者们先是提出了一种名为语言增强(LanguageEnhancement,LE)的⽅法,用于增强合成数据多样性。

具体来说,这种方法会给标签“扩句”,如果原标签是简单的“飞机”,那么经过“扩句”后的提示词就会变成“一架盘旋在海滩和城市上空的白色飞机”。

随后,还采用了一种叫做 CLIP过滤器(CLIPFilter)的⽅法确保合成数据的可靠性,即过滤掉合成质量不行的图片,确保AI数据质量过硬。

在17个数据集上,相⽐此前效果最好的CLIP模型,相关⼤⼩模型均获得了显著提升(4.31%/2.90%),展示了合成数据的有效性。

ai自给自足,用合成数据做训练

少样本图像分类

少样本图像(Few-shot)分类任务,通常仅有极少数量(1~16张)的⽬标类别图⽚,与零样本任务的区别是增加了类别与任务特定领域信息。

因此,作者们决定将域内数据(in-domain)的知识⽤于图像⽣成,即将少量的⽬标类别图⽚⽤于噪声叠加的初始状态(RealGuidance),进⼀步发挥⽣成模型的能⼒,从而进⼀步提升性能。

ai自给自足,用合成数据做训练

ai自给自足,用合成数据做训练

预训练与迁移学习

模型预训练(pre-training)任务,即将模型在⼤量数据上进⾏训练,将训练后的模型作为“起始点”,来帮助提升下游任务的性能。

作者们利⽤合成数据,对模型进⾏了预训练,并对数据量、数据多样性程度、预训练模型结构和预训练⽅法进⾏了实验研究。

最终发现:

⽤合成数据进⾏预训练。已经可以达到甚⾄超越⽤真实数据预训练的效果。

⽤更⼤的数据量和数据多样性的合成数据,可以获得更好的预训练效果。

从模型结构和预训练⽅法来看,ViT-based模型(相比convolutional-based模型)、⾃监督⽅法(相比有监督⽅法)会更适合合成数据下的预训练。

ai自给自足,用合成数据做训练

论文认为,利⽤⽣成模型产⽣的合成数据来帮助图像分类任务是可行的,不过也存在⼀定的局限性。

例如,如何处理特定任务的domaingap和数据多样性之间的trade-off,以及如何更有效地利⽤潜在⽆穷量的合成图⽚⽤于预训练,都是需要进一步去解决的问题。作者介绍

ai自给自足,用合成数据做训练

一作何睿飞,香港大学在读博士生@CVMILab,指导老师为齐晓娟老师,本科毕业于浙江大学竺可桢学院,研究方向是data-efficientlearning,vision-languagemodel,knowledgedistillation,semi/self-supervisedlearning。CVMILab正在招收计算机视觉与深度学习方向的博士生,感兴趣的伙伴可以直接email老师!

对于将AI合成图像用于预训练模型这件事,你还能想到更高效的方法吗?

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2023-02-23 16:45:13

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

ai绘画侵权实锤,扩散模型可能记住你的照片
...绘画侵权,实锤了!最新研究表明,扩散模型会牢牢记住训练集中的样本,并在生成时“依葫芦画瓢”。也就是说,像StableDiffusion生成的AI画作里,每一笔背后都可能隐藏着
2023-02-03 22:00:00
迎战GPT-4V!谷歌PaLI-3视觉语言模型问世,更小、更快、更强
...倍的模型相比具有显著竞争力。研究人员使用分类目标预训练的视觉变换器(ViT)模型与对比性预训练的模型(SigLIP)进行了比较
2023-10-17 16:31:00
微美全息(NASDAQ:WIMI)将迁移学习引入到语义分割模型,实现高质量的语义分割任务
...。然而,由于语义分割任务的复杂性和数据的不足,单独训练一个语义分割模型可能会面临一些挑战,例如模型过拟合、模型泛化能力不足等。为了解决这些问题,微美全息(NASDAQ:WIM
2023-11-15 01:02:00
华人团队爆火instructblip抢跑看图聊天
...究人员首先介绍了指令微调数据的构建,然后则是具体的训练过程。之后,分别从模型和数据的角度阐述了两种提高指令微调性能的技术。为了保证指令微调数据的多样性,同时考虑到它们的可及性
2023-05-15 20:17:00
...资由Madrona和Insight Partners领投。据悉,新资金将用于管理训练、测试、微调由人工智能模型生成的大量视觉数据集
2023-05-29 20:02:00
对比学习滥用隐私数据!中科院等发布「多步误差最小化」方法 | ACM MM2024
...因为黑客可能会未经授权地利用图像-文本数据进行模型训练,其中可能包括个人和隐私敏感信息。最近的工作提出通过向训练图像添加难以察觉的扰动来生成不可学习样本(Unlearnable Examples)
2024-08-02 09:55:00
1890美元,就能从头训练一个还不错的12亿参数扩散模型
只用1890美元、3700 万张图像,就能训练一个还不错的扩散模型。现阶段,视觉生成模型擅长创建逼真的视觉内容,然而从头开始训练这些模型的成本和工作量仍然很高
2024-07-30 09:37:00
2022生成模型进展有多快,新论文盘点9类生成模型代表作
...上做出大突破。与DALL・E一样,两点依旧是CLIP模型,除了训练数据庞大,CLIP基于Transformer对图像块建模
2023-01-30 16:34:00
微美全息构建基于深度迁移学习的图像分类融合模型, 提高图像分类的准确性和效率
...,构建了图像分类融合模型,通过利用在大规模数据集上训练的模型的特征表示来提升小样本数据集上的分类性能。深度迁移学习可将已经在大规模数据集上训练好的深度学习模型应用于新的任务中
2023-10-23 16:02:00
更多关于科技的资讯: