2024-08-21 18:00

gpt-九游会登录

本文来自微信公众号:,作者:一水,题图来自:ai生成


openai又上新功能了:


gpt-4o正式上线微调功能。


并且官方还附赠一波福利:每个组织每天都能免费获得100万个训练token,用到9月23日。



也就是说,开发人员现在可以使用自定义数据集微调gpt-4o,从而低成本构建自己的应用程序。


要知道,openai在公告中透露了:


gpt-4o微调训练成本为每100万token 25 美元(意味着每天都能节省25美元)


收到邮件的开发者们激动地奔走相告,这么大的羊毛一定要赶快薅。


使用方法也很简单,直接访问微调仪表盘,点击“create”,然后从基本模型下拉列表中选择gpt-4o-2024-08-06。



对了,openai还提到,只需训练数据集中的几十个示例就可以产生良好效果。



还晒出了成功案例


消息公布后,一众网友跃跃欲试,表示很想知道模型微调后的实际效果。



openai官方早有准备,随公告一同发布了九游会登录的合作伙伴微调gpt-4o的实际案例。


首先是一款代码助手genie,来自ai初创公司cosine,专为协助软件开发人员而设计。


据cosine官方介绍,genie的开发过程采用了一种专有流程,使用数十亿个高质量数据对非公开的gpt-4o变体进行了训练和微调。


这些数据包括21%的javascript和python、14%的typescript和tsx,以及3%的其他语言(包括java、c 和ruby)


经过微调,genie在上周二openai全新发布的代码能力基准测试swe-bench verified上,取得了43.8%的sota分数。



与此同时,genie还在swe-bench full上的sota分数达到了30.08%,破了之前19.27%的sota纪录。


相较之下,cognition的devin在swe-bench的部分测试中为13.8%。


另一个案例来自distyl,这是一家为财富500强企业提供ai九游会登录的解决方案的公司,最近在领先的文本到sql基准测试bird-sql中排名第一。


经过微调,其模型在排行榜上实现了71.83%的执行准确率,并在查询重构、意图分类、思维链和自我纠正等任务中表现出色,尤其是在sql生成方面表现尤为突出。



除了提供案例,openai还在公告中特意强调了数据隐私和安全问题,总结下来就是:


开发者的业务数据(包括输入和输出)不会被共享或用于训练其他模型。针对微调模型实施了分层安全缓解措施,例如不断对微调模型运行自动安全评估并监控使用情况。



网友:微调比不上提示词缓存


一片热闹之际,有网友认为微调仍然比不上提示词缓存。


微调很酷,但它仍然不如提示词缓存……



之前量子位也介绍过,提示词缓存的作用,就是一次给模型发送大量prompt,然后让它记住这些内容,并在后续请求中直接复用,避免反复输入。


今年5月,谷歌的gemini就已经支持了提示词缓存,claude也在上周上新了这项功能。


由于不需要反复输入重复的脚本,提示词缓存具有速度更快、成本更低这两大优势。


有网友认为,提示词缓存功能对开发者更友好(无需异步微调),且几乎可以获得与微调相同的好处。


提示词缓存可以让您付出1%的努力获得99%的好处。



不过也有人给微调打call,认为微调在塑造响应方面更有效。例如确保json格式正确、响应更简洁或使用表情符号等。



眼见openai的竞争对手们相继用上了提示词缓存,还有人好奇了:


想知道openai是否会坚持微调或转向提示词缓存(或两者兼而有之)


对于这个问题,有其他网友也嗅出了一些蛛丝马迹。


openai在其延迟优化指南中提到了缓存技术。


我们也第一时间找了下指南原文,其中在谈到如何减少输入token时提到:


通过在提示中稍后放置动态部分(例如rag结果、历史记录等),最大化共享提示前缀。这使得您的请求对kv缓存更加友好,意味着每个请求处理的输入token更少。



不过有网友认为,仅根据这一段内容,无法直接推出openai采用了提示词缓存技术。


bty,抛开争议不谈,openai的羊毛还是得薅起来~


除了gpt-4o,还可以免费微调gpt-4o mini,9月23日之前openai免费提供每天200万个训练token。



参考链接:

[1]https://openai.com/index/gpt-4o-fine-tuning/

[2]https://x.com/openaidevs/status/1825938486568038569

[3]https://news.ycombinator.com/item?id=41301673

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
正在改变与想要改变世界的人,都在
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定
热门标签
网站地图