OpenAI不藏着了,开放微调功能,不用其他工具就能搞一个你自己的ChatGPT

577次阅读
没有评论

8月23日,OpenAI宣布推出基于GPT-3.5 Turbo的微调功能并更新API,让企业、开发人员能够使用自身数据定制ChatGPT

微调(Fine-tuning)是一种利用已有通用语言模型(如GPT-3.5)来训练一个特定模型的方法。通用语言模型虽然具有很强的语言理解和生成能力,但是它们并不针对特定的领域或任务。通过在自己数据上对通用模型进行微调优化,训练一个专属模型,可以更好地适应特定的使用场景。在保留通用语言模型强大能力的同时,进一步提高模型的准确度等效果和效率。

这就相当于在一个已经建好的子上进行装修,使其更符合自己的需求和喜好,而不是从头开始建造一个新房子。因此,可以节省大量时间和资源,也可以避免一些技术难题。

OpenAI此次推出的微调功能,使更多开发者能参与到GPT模型应用当中,并借此实现更多个性化和创新的应用场景,提高用户体验和粘性,这对开发者生态的建立也起到了积极的助推作用。同时也极大拓展了通用模型的应用范围和潜力,加快了各行各业部署AI技术的步伐。

对于此次公告中提到的GPT-3.5 Turbo微调的安全性、使用效果、价格、未来更新、部署步骤等方面,重点说明如下。

安全性:从微调API发送的数据归客户所有,OpenAI或任何其他组织不会使用数据来训练模型。同时,为了保障模型部署的安全,OpenAI通过审核API和GPT-4驱动的审核系统,检测与安全标准冲突的有害数据。(微调有利于为用户提供更具个性化的服务,但也降低了技术门槛,可能导致不负责任的使用)

微调效果:在实际测试过程中,GPT-3.5 Turbo的微调版本在某些任务上,与基本型号的GPT-4能力相当甚至要更好。微调客户能够提高常见用例的模型性能,并缩短提示时间。通过对模型本身的指令进行微调,还可加快API调用并降低成本,提示词数量减少了90%。

价格和Token:GPT-3.5 Turbo的微调成本分为初始训练成本和使用成本两部分。一个包含100K tokens训练文件的微调工作,预计成本为2.4美元。具体来说,训练:$0.008 / 1K tokens;使用输入:$0.012 / 1K tokens;使用输出:$0.016 / 1K tokens。可处理的上下文为4K tokens,是之前微调模型的两倍。

微调步骤:只需经过准备数据、上传文件、创建微调作业、使用微调模型四步。一旦模型完成微调过程,就可以立即在生产中使用。

未来更新:GPT-4 的微调将于今年秋天推出,而在秋季晚些时候会推出对GPT-3.5函数调用和16k上下文的微调支持。不久的将来还会推出微调UI,可更容易访问正在进行的微调作业等有关信息。

GPT-3迭代:OpenAI现在正在提供babbage-002和davinci-002型号作为GPT-3基础模型或微调模型。最初的GPT-3基础型号(ada、babbage、curie、davinci)将于2024年1月4日关闭。

总结来说,通过开放先进大模型的微调功能,OpenAI能吸引更多企业和开发者使用其平台和模型,从而扩大影响力和增加营收缓解亏损压力。这有助于AI产品得到更广泛应用,推动大模型加速落地。

同时,此次功能更新,也可看作是对Meta开源模型并允许商用等外部竞争的一个应对举措。通过允许微调模型,OpenAI可以进一步扩大和巩固用户基础,确保自身在行业的引领地位。这或许也会促使其他企业加快商业化步伐,行业竞争进一步加剧。

以下为OpenAI公告全文:

GPT-3.5 Turbo 的微调现已推出,GPT-4 的微调将于今年秋天推出。此更新使开发人员能够自定义更适合其用例的模型,并大规模运行这些自定义模型。早期的测试表明,GPT-3.5 Turbo的微调版本可以在某些垂直的任务上与基础的GPT-4功能相当,甚至要更好。与我们所有的API一样,从微调API发送的数据归客户所有,并且未被 OpenAI 使用或任何其他组织来训练其他模型。

微调用例

自 GPT-3.5 Turbo 发布以来,开发人员和企业要求能够自定义模型,以便为其用户创造独特且差异化的体验。通过此次发布,开发人员现在可以运行监督微调,以使该模型在其用例中表现更好。

在我们的私人测试版中,微调客户已经能够有效地提高常见用例的模型性能,举例来说:

改进的可操纵性:微调允许企业使模型更好地遵循指令,例如使输出简洁或始终以给定语言响应。例如,开发人员可以使用微调来确保模型始终按要求以德语响应。

可靠的输出格式:微调可提高模型一致格式化响应的能力,这对于需要特定响应格式(例如代码完成或撰写 API 调用)的应用程序来说至关重要。开发人员可以使用微调来更可靠地将用户提示转换为可与自己的系统一起使用的高质量 JSON 代码段。

自定义风格:微调是磨练模型输出定性感觉的好方法,具有可识别品牌风格的企业可以使用微调来使模型与其基调更加一致。

除了提高性能外,微调还使企业能够缩短提示时间,同时确保类似的性能。使用 GPT-3.5-Turbo 进行微调也可以处理 4K tokens——是我们之前微调模型的两倍。早期的测试人员通过将指令微调到模型本身,加快了每次 API 调用并降低成本,将提示大小减少了多达 90%。

当与其他技术如提示工程、信息检索和函数调用相结合时,微调的效果是最强大的。对这方面若想了解更多可查看我们的微调指南。另外,对函数调用和GPT-3.5-turbo-16k的微调支持将在今年秋季晚些时候进行。

微调步骤

OpenAI不藏着了,开放微调功能,不用其他工具就能搞一个你自己的ChatGPT

我们还将在不久的将来推出微调 UI,这将使开发人员更容易访问正在进行的微调作业、已完成的模型快照等有关信息。

安全

对我们来说,安全地部署微调是非常重要的。为了在微调过程中保留默认模型的安全功能,微调训练数据将通过我们的审核API和GPT-4支持的审核系统,以检测与我们的安全标准冲突的不安全训练数据。

定价

微调成本分为两类:初始训练成本和使用成本。训练:$0.008 / 1K tokens;使用输入:$0.012 / 1K tokens;使用输出:$0.016 / 1K tokens。例如,用100,000个tokens进行微调工作,预计成本为2.40美元。

更新的 GPT-3 型号

今年7月,我们宣布原始 GPT-3 基本型号将于2024年1月4日关闭。今天,我们正在制造这些模型的替代品,无论是作为基本模型还是微调模型。这些模型可以使用我们新的 API 端点进行微调。基本和微调的 GPT-3 型号的定价如下:

OpenAI不藏着了,开放微调功能,不用其他工具就能搞一个你自己的ChatGPT

新的端点提供了分页和更多的可扩展性,以支持微调 API 的未来发展,过渡到更新的端点也非常简单,更多详细信息可参见我们的微调指南。

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy