作为刚刚开始学习程序的小白,分享一些学习过程中的的思路
话不多说,上干货
ex:
假如我们现在要编写一个智能回复的脚本,
我们应该怎么去编写呢?
首先,我们得清楚我们所编写程序的逻辑和思路。
1.我们首先得得到中文的整体句子吧
2.然后我们需要对句子中的关键字进行提取
3.之后我们就可以根据这些关键字从数据库中调取相应的回复达到智能回复的目的拉
思考:但是我们如何才能让机器人更加像人一样得到最合适的回答呢
ex:
假如我们现在要编写一个智能回复的脚本,
我们应该怎么去编写呢?
首先,我们得清楚我们所编写程序的逻辑和思路。
1.我们首先得得到中文的整体句子吧
2.然后我们需要对句子中的关键字进行提取
3.之后我们就可以根据这些关键字从数据库中调取相应的回复达到智能回复的目的拉
思考:但是我们如何才能让机器人更加像人一样得到最合适的回答呢
这样就需要我们大量的数据学习了,首先呢,我们需要将大量的数据进行分析比对,
对不同的关键字组合所得到的回复进行不断的学习和优化,等到经过大量的数据比对
机器就可以根据所提取的关键字组合生成最符合人类思维的回复啦,是不是很神奇呢。
对不同的关键字组合所得到的回复进行不断的学习和优化,等到经过大量的数据比对
机器就可以根据所提取的关键字组合生成最符合人类思维的回复啦,是不是很神奇呢。
下面呢分享一段分词的代码,关于学习需要大量的数据,通过计算不同的关键字组合所得到回复的概率进行分析比对,得到最好的回复,这里小编就不作介绍拉。
import jieba
# 导入jieba分词库
# 导入jieba分词库
# 创建函数来处理所得到的中文句子
def get_words(string):
words = jieba.cut(string)
return words
# 直接通过jieba库的精准分词获得所有的分词
然后通过words中的各个关键字就可以从经过学习的模型中获取到回复就可以进行返回了
是不是很简单呢
好啦,本期就到这里了,我们下次再见。
def get_words(string):
words = jieba.cut(string)
return words
# 直接通过jieba库的精准分词获得所有的分词
然后通过words中的各个关键字就可以从经过学习的模型中获取到回复就可以进行返回了
是不是很简单呢
好啦,本期就到这里了,我们下次再见。