自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 收藏
  • 关注

原创 线性回归

回归:用特征得到一个值分类:用特征得到一个类找一个拟合平面:确定权重参数误差:独立同分布得真实值与预测值之间存在的差异得高斯分布似然函数:用样本数据估测参数值评估方法:评估项R(2):1-(残差平方和/方差项)梯度下降:目标函数1批量梯度下降:速度慢,容易得到最优解2随机梯度下降:每次超不同的方向3小批量:使用小部分一般学习率:0.01批处理数量:64...

2018-11-02 13:22:13 108

原创 chatterbot基于中文语料库得聊天机器人

# -*- coding: utf-8 -*-from chatterbot import ChatBotfrom chatterbot.trainers import ChatterBotCorpusTrainerchatbot = ChatBot("ChineseChatBot")chatbot.set_trainer(ChatterBotCorpusTrainer)# 使用中文...

2018-10-31 13:47:23 5374

原创 chatterbot中文例子

#!/usr/bin/python`#` -*- coding: utf-8 -*-#手动设置一些语料from chatterbot import ChatBotfrom chatterbot.trainers import ListTrainer Chinese_bot = ChatBot("Training demo")Chinese_bot.set_trainer(Lis...

2018-10-31 13:42:41 2976

原创 nlp基础-分词

nlp基础-分词1.jieba分词支持三种分词模式:(1)全模式:把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义(2)精确模式:试图将句子最精确地切开,适合文本分析(3)搜索引擎模式:在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词2.SnowNLP3.NLTK——斯坦福中文分词器4.推荐XMnlp 基于jieba和SnowNLP...

2018-10-31 13:35:25 187

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除