• 我的订阅
  • 科技

不花一分钱!GPT-4o微调限时免费开放,每日附赠百万训练token

类别:科技 发布时间:2024-08-22 09:52:00 来源:量子位

一觉醒来,OpenAI又上新功能了:

GPT-4o正式上线微调功能。

并且官方还附赠一波福利:每个组织每天都能免费获得100万个训练token,用到9月23日。

不花一分钱!GPT-4o微调限时免费开放,每日附赠百万训练token

也就是说,开发人员现在可以使用自定义数据集微调GPT-4o,从而低成本构建自己的应用程序。

要知道,OpenAI在公告中透露了:

GPT-4o微调训练成本为每100万token 25 美元(意味着每天都能节省25美元)

收到邮件的开发者们激动地奔走相告,这么大的羊毛一定要赶快薅。

不花一分钱!GPT-4o微调限时免费开放,每日附赠百万训练token

使用方法也很简单,直接访问微调仪表盘,点击”create”,然后从基本模型下拉列表中选择gpt-4o-2024-08-06。

不花一分钱!GPT-4o微调限时免费开放,每日附赠百万训练token

对了,OpenAI还提到,只需训练数据集中的几十个示例就可以产生良好效果。

不花一分钱!GPT-4o微调限时免费开放,每日附赠百万训练token

还晒出了成功案例

消息公布后,一众网友跃跃欲试,表示很想知道模型微调后的实际效果。

不花一分钱!GPT-4o微调限时免费开放,每日附赠百万训练token

OpenAI官方早有准备,随公告一同发布了合作伙伴微调GPT-4o的实际案例。

首先是一款代码助手Genie,来自AI初创公司Cosine,专为协助软件开发人员而设计。

据Cosine官方介绍,Genie的开发过程采用了一种专有流程,使用数十亿个高质量数据对非公开的GPT-4o变体进行了训练和微调。

这些数据包括21%的JavaScript和Python、14%的TypeScript和TSX,以及3%的其他语言(包括Java、C++和Ruby)。

经过微调,Genie在上周二OpenAI全新发布的代码能力基准测试SWE-Bench Verified上,取得了43.8%的SOTA分数。

不花一分钱!GPT-4o微调限时免费开放,每日附赠百万训练token

与此同时,Genie还在SWE-Bench Full上的SOTA分数达到了30.08%,破了之前19.27%的SOTA纪录。

相较之下,Cognition的Devin在SWE-Bench的部分测试中为13.8%。

另一个案例来自Distyl,这是一家为财富500强企业提供AI解决方案的公司,最近在领先的文本到SQL基准测试BIRD-SQL中排名第一。

经过微调,其模型在排行榜上实现了71.83%的执行准确率,并在查询重构、意图分类、思维链和自我纠正等任务中表现出色,尤其是在SQL生成方面表现尤为突出。

不花一分钱!GPT-4o微调限时免费开放,每日附赠百万训练token

除了提供案例,OpenAI还在公告中特意强调了数据隐私和安全问题,总结下来就是:

开发者的业务数据(包括输入和输出)不会被共享或用于训练其他模型。针对微调模型实施了分层安全缓解措施,例如不断对微调模型运行自动安全评估并监控使用情况。

不花一分钱!GPT-4o微调限时免费开放,每日附赠百万训练token

网友:微调比不上提示词缓存

一片热闹之际,有网友认为微调仍然比不上提示词缓存。

微调很酷,但它仍然不如提示词缓存……

不花一分钱!GPT-4o微调限时免费开放,每日附赠百万训练token

之前量子位也介绍过,提示词缓存的作用,就是一次给模型发送大量prompt,然后让它记住这些内容,并在后续请求中直接复用,避免反复输入。

今年5月,谷歌的Gemini就已经支持了提示词缓存,Claude也在上周上新了这项功能。

由于不需要反复输入重复的脚本,提示词缓存具有速度更快、成本更低这两大优势。

有网友认为,提示词缓存功能对开发者更友好(无需异步微调),且几乎可以获得与微调相同的好处。

提示词缓存可以让您付出1%的努力获得99%的好处。

不花一分钱!GPT-4o微调限时免费开放,每日附赠百万训练token

不过也有人给微调打call,认为微调在塑造响应方面更有效。例如确保JSON格式正确、响应更简洁或使用表情符号等。

不花一分钱!GPT-4o微调限时免费开放,每日附赠百万训练token

眼见OpenAI的竞争对手们相继用上了提示词缓存,还有人好奇了:

想知道OpenAI是否会坚持微调或转向提示词缓存(或两者兼而有之)。

对于这个问题,有其他网友也嗅出了一些蛛丝马迹。

OpenAI在其延迟优化指南中提到了缓存技术。

我们也第一时间找了下指南原文,其中在谈到如何减少输入token时提到:

通过在提示中稍后放置动态部分(例如RAG结果、历史记录等),最大化共享提示前缀。这使得您的请求对KV缓存更加友好,意味着每个请求处理的输入token更少。

不花一分钱!GPT-4o微调限时免费开放,每日附赠百万训练token

不过有网友认为,仅根据这一段内容,无法直接推出OpenAI采用了提示词缓存技术。

BTY,抛开争议不谈,OpenAI的羊毛还是得薅起来~

除了GPT-4o,还可以免费微调GPT-4o mini,9月23日之前OpenAI免费提供每天200万个训练token。

不花一分钱!GPT-4o微调限时免费开放,每日附赠百万训练token

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2024-08-22 11:45:08

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

LLM超越人类时该如何对齐?谷歌用新RLHF框架解决了这个问题
...能解决越来越复杂和越来越多的难题,而这些难题所需的训练数据已经超出了人类的能力。因此,我们就需要为 LLM 构建一种能使其实现自我提升的基本机制,让模型可以持续地自我生成和自
2024-11-06 09:44:00
3天把Llama训成Mamba,性能不降,推理更快!
...型的推理速度。为什么要把Llama变成Mamba?因为从头开始训练一个大模型太贵了。Mamba也火了这么长时间了,相关的研究每天都有
2024-09-06 10:01:00
Mamba再次挑战霸主Transformer!首个通用Mamba开源大模型一鸣惊人
...出的第一版Mamba架构,增加了RMS归一化层以确保在大规模训练中保持稳定性。这种架构选择确保了Falcon Mamba模型
2024-08-14 09:43:00
浪潮信息推出as13000g7-n系列
...U直访存储、全局一致性缓存等技术为AI大模型数据归集、训练、数据归档与管理等阶段提供强大存储支撑能力,助力用户加速大模型系统的创新及应用落地。DataTurbo数据加速引擎,
2024-06-16 10:27:00
苹果AI震撼上线iPhone,进化版Siri却没有ChatGPT!47页技术报告揭秘自研模型
...,覆盖了苹果LLM的设计与评估,包括架构、数据管理、预训练和后训练的recipe、优化、功能适应、和评估结果。论文地址
2024-08-01 09:40:00
这才是真开源模型!公开后训练一切,性能超越Llama 3.1 Instruct
... 3.1 Instruct 的相应版本!长达 73 的技术报告详细介绍了后训练的细节。在最近关于「Scaling Law 是否撞墙」的讨论中
2024-11-26 09:44:00
腾讯推出 Hunyuan-Large 开源大模型
...uan-A52B-Instruct和Hunyuan-A52B-Instruct-FP8。并发布了技术报告和训练推理操作手册
2024-11-05 18:56:00
Mamba作者新作:将Llama3蒸馏成混合线性 RNN
...准测试和一般基准测试中优于使用数万亿 token 从头开始训练的开源混合 Mamba 模型。此外,该研究还提出了一种硬件感知推测解码算法
2024-09-03 09:59:00
腾讯版Sora发布即开源!130亿参数,模型权重、推理代码全开放
...中更多的细节。2、视觉编码器部分,支持混合图片/视频训练,提升压缩重建性能 视频生成模型中的视觉编码器,在压缩图片/视频数据,保留细节信息方面起着关键作用。混元团队自研了3
2024-12-04 09:50:00
更多关于科技的资讯: