最新用了各位大佬贡献的站点,解决了不少工作上的问题,在此谢过。
目前还在学习中,没有能力做贡献,分享一点使用过程中的总结吧。
使用中对各种模型的代码看的一头雾水,查了官网的资料和其他信息,简单列一下,希望能帮助一些新人,大佬勿喷
https://platform.openai.com/docs/models
先说结论:
Chat GPT 4,最新版代号:GPT4-0125-preview或者GPT4-0125-preview
Chat GPT3.5,最新版代号:GPT3.5-Trubo-0125
Dall-E,最新版是Dall-E-3
补充说明一些单词和数字的含义
Preview,预览版,大概是非正式版,数据一直在训练中
vision,支持识别图像的功能
turbo,速度更快
(订正)16,32k,128k,指模型能够处理的最大上下文长度,即16000,32000,128000个token,"token"通常指单词、字符或其他语言单位。
例如,如果一个模型的上下文长度限制是32,000个token,那么它在生成文本或者理解输入时,最多只能考虑32,000个token的信息。超出这个范围的token将不会被模型考虑。
上下文长度是自然语言处理模型性能的一个重要参数,因为它决定了模型能够"记住"多少之前的信息。一个较长的上下文长度通常意味着模型能够处理更长的文本,这在处理长篇文章、对话或其他需要长期连贯性的任务时特别有用。
简单做个表,可能有误,欢迎补充指正。
第 1 列 | 第 2 列 | 第 3 列 | 第 4 列 | E |
---|---|---|---|---|
模型代号 | 训练数据日期 | 备注 | ||
大语言模型 | GPT4 | GPT4-0125-preview | 2023年12月 | 目前最新版! |
GPT4-turbo-preview | 2023年12月 | 指向0125-preview | ||
GPT4-1106-preview | 2023年4月 | |||
GPT4-vision-preview | 2023年4月 | 指向1106-vision-preview | ||
GPT4-1106-vision-preview | 2023年4月 | |||
GPT4 | 2021年9月 | 指向0613 | ||
GPT4-0613 | 2021年9月 | |||
GPT4-32k | 2021年9月 | 指向32k-0613 | ||
GPT4-32k-0613 | 2021年9月 | |||
GPT3.5 | GPT3.5-Trubo-0125 | 2023年12月 | 目前最新版! | |
GPT3.5-Trubo | 2023年12月 | 指向’Trubo-0125 | ||
GPT3.5-Trubo-1106 | 2023年4月 | |||
GPT3.5-Trubo-instrct | ||||
GPT3.5-Trubo-16k | 过时了 | |||
GPT3.5-Trubo-0613 | 过时了 | |||
GPT3.5-Trubo-16k-0613 | 过时了 | |||
图像模型 | dall-e | dall-e-3 | 2023年11月 | 目前最新版! |
dall-e-2 | 2022年11月 | 过时了 | ||
文本转语音模型 | TTS | tts-1 | 目前最新版!速度快。 | |
tts-1-hd | 目前最新版!质量好。 | |||
语音转文本模型 | whisper | whisper-1 |