注意,再过几天(2024-01-04)后OpenAI这29个模型将淘汰停用,附推荐替代模型

OpenAI计划淘汰29款模型,建议业务调整至推荐替代型号,同时提供模型价格和速度限制的实时更新。
摘要由CSDN通过智能技术生成

一、说明

OpenAI经过多次更新,推出了几版模型,再过几天(2024-01-04)后又有29个模型将淘汰停用,如果业务中有使用到这些模型,需要提前替换,避免影响业务。

二、29个淘汰模型及其替代

淘汰停用模型推荐替代模型
text-ada-001gpt-3.5-turbo-instruct
text-babbage-001gpt-3.5-turbo-instruct
text-curie-001gpt-3.5-turbo-instruct
text-davinci-001gpt-3.5-turbo-instruct
text-davinci-002gpt-3.5-turbo-instruct
text-davinci-003gpt-3.5-turbo-instruct
adababbage-002
babbagebabbage-002
curiedavinci-002
davincidavinci-002/gpt-3.5-turbo/gpt-4
code-davinci-002gpt-3.5-turbo-instruct
text-davinci-edit-001gpt-4
code-davinci-edit-001gpt-4
text-similarity-ada-001text-embedding-ada-002
text-search-ada-doc-001text-embedding-ada-002
text-search-ada-query-001text-embedding-ada-002
code-search-ada-code-001text-embedding-ada-002
code-search-ada-text-001text-embedding-ada-002
text-similarity-babbage-001text-embedding-ada-002
text-search-babbage-doc-001text-embedding-ada-002
text-search-babbage-query-001text-embedding-ada-002
code-search-babbage-code-001text-embedding-ada-002
code-search-babbage-text-001text-embedding-ada-002
text-similarity-curie-001text-embedding-ada-002
text-search-curie-doc-001text-embedding-ada-002
text-search-curie-query-001text-embedding-ada-002
text-similarity-davinci-001text-embedding-ada-002
text-search-davinci-doc-001text-embedding-ada-002
text-search-davinci-query-001text-embedding-ada-002

三、最新模型价格及限速表,在线版本(实时更新)

做了个在线表格,方便大家查看最新的模型价格和限速情况

最新最全 ChatGPT OpenAI 模型model价格及限速表,https://gptbill.lonlie.cn/pricinglimits.html

效果如下:
image.png

  • 8
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
以下是一个Python将文件夹中TXT文件全部去停用词后再分词,并计算tf-idf,提取特征此后,建立分类模型的例子。 首先,我们需要安装一些必要的库,包括`jieba`、`sklearn`和`numpy`。你可以使用以下命令进行安装: ```python pip install jieba pip install sklearn pip install numpy ``` 接下来,我们可以使用以下代码来读取文件夹中的所有TXT文件,并将它们合并到一个文本中: ```python import glob # 读取文件夹中的所有TXT文件 files = glob.glob('folder/*.txt') # 合并文件内容 text = '' for file in files: with open(file, 'r', encoding='utf-8') as f: text += f.read() ``` 然后,我们需要对文本进行分词和去停用词处理。这里我们可以使用`jieba`库和一个中文停用词表: ```python import jieba import codecs # 读取中文停用词表 stopwords = set() with codecs.open('stopwords.txt', 'r', 'utf-8') as f: for line in f: stopwords.add(line.strip()) # 对文本进行分词和去停用词处理 words = [] for word in jieba.cut(text): if word not in stopwords: words.append(word) ``` 接下来,我们可以使用`sklearn`库中的`TfidfVectorizer`类来计算tf-idf值,并提取特征: ```python from sklearn.feature_extraction.text import TfidfVectorizer # 计算tf-idf值并提取特征 tfidf = TfidfVectorizer() features = tfidf.fit_transform([' '.join(words)]).toarray() ``` 最后,我们可以使用`sklearn`库中的分类模型来建立分类器。这里我们以朴素贝叶斯分类器为例: ```python from sklearn.naive_bayes import MultinomialNB # 定义标签 labels = [0] * len(files) # 假设所有文件都属于同一类别 # 建立朴素贝叶斯分类器 clf = MultinomialNB() clf.fit(features, labels) ``` 通过以上步骤,我们就可以成功建立一个简单的文本分类模型了。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值