编程客栈() 6月14日消息:OpenAI 在周二宣布了其大型语言模型 API(包括 GPT-4 和 gpt-3.5-turbo)的一次重大升级,其中包括新的函数调用功能、显著的成本降低以及 gpt-3.5-turbo 模型的 16,000 token context window(下文窗口)选项。
在大型语言模型(LLM)中,「上下文窗口」类似于短期记忆,存储提示输入的内容,或者在聊天机器人的情况下,存储整个进行中的对话内容。在语言模型中,增加上下文大小已经成为一场技术竞赛,Anthropic 最近宣布其 Claude 语言模型的 75,000 token 上下文窗口选项。此外,OpenAI 还开发了一个 32,000 token 的 GPT-4 版本,但目前尚未公开发布。
(资料图片仅供参考)
沿着这个思路,OpenAI 刚刚推出了 gpt-3.5-turbo 的新的 16,000 上编程下文窗口版本,被称为「gpt-3.5-turbo-16k」,它允许提示的长度达到 16,000 个 token。相比标准版本的 4,000 个上下文长度,gpt-3.5-turbo-16k 可以在单个请求中处理大约 20 页的文本。这对于需要模型处理和生成更大文本块的开发者来说是一个相当大的提升。
正如在公告中详细介绍的那样,OpenAI 列出了其 GPT API 的至少四个其他重大新变化:
在聊天完成 API 中引入了函数调用功能
GPT-4 和 gpt-3.5-turbo 的改进版和「更易于操控」的版本
「ada」嵌入模型的价格下降 75%
GPT-3.js5-turbo 输入 token 的价格降低 25%
借助函数调用,开发者现在可以更轻松地构建能够android调用外部工具、将自然语言转换为外部 API 调用或进行数据库查询的聊天机器人。例如,它可以将如「Email Anya to see if she wants to get coffee next Friday」的提示转换为「send_email(to: string, body: string)」的函数调用。特别的php是,该功能还将允许生成一致的 jsON 格式输出,此前 API 用户在生成此类输出方面存在困难。
关于「可控性」,即使让语言模型按照您希望的方式运行的过程,OpenAI 表示其新的「gpt-3.5-turbo-0613」模型将通过系统消息提供「更可靠的可控性」。API 中的系统消息是一种特殊的指令提示,告诉模型如何运行。
除了功能改进,OpenAI 还提供了大幅降低的成本。值得注意的是,热门的 gpt-3.5-turbo 输入 token 的价格已经降低了 25%。这意味着开发者现在可以以每 1,000 个输入 token 约 0.0015 美元的价格使用该模型,每 1,000 个输出 t编程客栈oken 约 0.002 美元,相当于每美元大约能处理 700 页文本。gpt-3.5-turbo-16k 模型的定价为每 1,000 个输入 token 约 0.003 美元,每 1,000 个输出 token 约 0.004 美元。
此外,OpenAI 还为其「text-embedding-ada-002 」嵌入模型提供了 75% 的巨大成本降低,该模型的用途比其对话型服务更为深奥。嵌入模型类似于计算机的翻译器,将单词和概念转化为机器可以理解的数值语言,这对于搜索文本和提供相关内容建议等任务非常重要。
由于 OpenAI 不断更新其模型,旧版本将不会永久存在。今天,该公司还宣布开始淘汰一些早期版本的这些模型,包括 gpt-3.5-turbo-0301 和 gpt-4-0314。该公司表示开发者可以继续使用这些模型直到 9 月 13 日,之后将无法访问旧版本。值得注意的是,OpenAI 的 GPT-4 API 仍然需要等待名单才能使用,但已经广泛可用。