多线程微服务模型预测

本文探讨了如何在微服务架构中利用多线程技术进行神经网络模型的预测,结合数据挖掘和自然语言处理技术,提高预测效率和准确性。通过详细步骤和案例分析,展示了多线程在高并发场景下对于模型预测性能的提升。
摘要由CSDN通过智能技术生成
# 导入必备的工具包
import json
import threading
import requests
from sklearn.externals import joblib

# 从任意的模型训练文件中导入add_ngram增加n-gram特征以及padding截断函数
from movie_model_train import add_ngram
from movie_model_train import padding

# 定义模型配置路径,它指向一个json文件
model_config_path = "/data/django-uwsgi/text_labeled/model_train/model_config.json"



# model_config.json形如 :
# {"影视": ["/data/django-uwsgi/text_labeled/model_train/movie/Tokenizer", 60, 2, 
#           "/data/django-uwsgi/text_labeled/model_train/movie/token_indice", 119, 
#           "http://localhost:8501/v1/models/movie:predict"],
# "美妆": ["/data/django-uwsgi/text_labeled/model_train/beauty/Tokenizer", 75, 2, 
#           "/data/django-uwsgi/text_labeled/model_train/beauty/token_indice", 119, 
#           "http://localhost:8502/v1/models/beauty:predict"]}
# json文件中是一个字典,字典中的每个key是我们标签的中文字符,每个value是一个列表,
# 列表的第一项是特征处理词汇映射器的存储地址
# 第二项是特征处理语料的截断长度
# 第三项是n-gram取得n值
# 第四项是n-gram特征中token_indice的保存路径
# 第五项是最后的最大的对齐长度
# 第六项是该模型对应的微服务地址

# 最终的模型预测结果列表
model_prediction = []



# 获取分词列表

def handle_cn_text(text: str):
    # 对输入进行合法性检验
    if not text: return []
    # 使用jieba的cut方法对使用最大限制进行切片的输入文本进行分词
    word_list = jieba.cut(text[:MAX_LIMIT])    

    def<
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值