手把手教你深度学习强大算法进行序列学习(附Python代码)

640?wx_fmt=png

作者:NSS

翻译:陈之炎

校对:丁楠雅

本文共3200字,建议阅读10分钟。
本文将教你使用做紧致预测树的算法来进行序列学习。


概述


序列学习是近年来深度学习的热点之一。从推荐系统到语音识别再到自然语言处理,它的潜力似乎无穷无尽,推动着业界不断创新,涌现出前所未有的解决方案。


序列学习的实现形式多种多样,如机器学习域的马尔可夫模型、有向图等,深度学习域的RNNs/LSTMs等等。


640?wx_fmt=png


在本文中,我们将使用一种尚不太为人所知的叫做紧致预测树(CompactPredictionTree,CPT)的算法来进行序列学习。这种方法简单得让人吃惊,并且比一些著名算法如马尔可夫、有向图等更为强大。


在深入阅读本文之前,我推荐你先读一读“你必读的序列模型(附用例)”一文,作者Tavish在这篇文章中介绍了序列模型及其典型用例和应用场景。


本文目录:


  • 序列学习入门

  • 紧致预测树算法(CPT)

  • 理解CPT中的数据结构

  • 用CPT进行训练和预测

    • 训练阶段

    • 预测阶段

  • 建模与预测


序列学习入门


当我们需要预测一个事件之后可能会发生的某个特定事件时,就需要进行序列学习。序列学习广泛应用于各个行业,例如:


  • 网页预取:给定用户访问的网页序列,浏览器预测用户接下来最有可能访问的页面并预加载它,以节省时间和改善用户体验。

  • 产品推荐:根据用户将商品添加到购物车中的顺序来推荐用户可能感兴趣的商品。

  • 临床事件预测:根据患者病史对疾病进行鉴别诊断(译者注:鉴别诊断指根据患者主诉,与其他疾病鉴别,并排除其他疾病可能性的诊断方法)。

  • 天气预报:根据过去的天气情况预测下一时段的天气。


序列学习还可能应用到许多其他的领域。


解决方案现状


为了在这一领域发掘更多解决方案,我们推出了“序列学习黑客马拉松”。参与者各有路数,其中最受欢迎的是LSTMs/RNNs,使用率在私人排行榜前10名。

LSTMs/RNNs已经成为序列建模的热门选择,无论是文本、音频等。然而它们有两个基本问题:


  • 训练时间太长,通常需要几十个小时。

  • 当序列中包含在以前的训练迭代中没有出现过的项时,就需要重新训练。这个过程代价特别高,在经常遇到新项的情况下是不可行的。


 初探CPT(紧致预测树)


紧致预测树(CPT)是一种比传统的机器学习模型(如马尔可夫模型)和深度学习模型(如自动编码器)更精准的算法。


CPT算法的独特之处是其快速的训练和预测时间。我能够在4分钟内对上面黑客马拉松的序列数据集完成训练并进行预测。


不幸的是,这个算法目前只能用Java实现,因此它还没在数据科学家之间流行起来(尤其是那些使用Python的数据科学家)。


为此,我根据算法初创者的文档,创建了一个Python版本的库。Java代码当然有助于理解本文的某些部分。


这个公开的Python库可以在这里(https://github.com/analyticsvidhya/CPT)获得,欢迎您对它作出贡献。从某种意义上说,这个库仍然是不完整的,它还没有得到算法初创者的推荐,但它已经足够好,在黑客马拉松排行榜上获得了0.185分,并且一切都在几分钟内完成。我相信这个库完整之后,性能应该能够和RNNs/LSTMs相匹敌。


 在下一节中,我们将介绍CPT算法的内部工作原理,以及它如何比马尔可夫链、DG等传统机器学习模型的性能更优。


理解CPT中的数据结构


作为先决条件,首先需要理解PythonCPT接受的数据格式。CPT接受两个.csv文件--训练和测试。训练文件里是训练序列,而测试文件包含每个序列需要预测的接下来的3项。为了清晰起见,训练和测试文件中的序列定义如下:


1,2,3,4,5,6,7

5,6,3,6,3,4,5

.

.


请注意,序列的长度可以不相同。此外,热编码序列也不适用。

 CPT算法使用了三种基本的数据结构,我们将在下面做简要介绍。


1. 预测树


预测树带有多个节点,每个节点有三个元素:


  • 数据项-存储在节点中的实际数据项。

  • 子节点-该节点的所有子节点的列表。

  • 父节点-指向此节点的父节点的链接或引用。


预测树基本上是一种TRIE数据结构,它将整个训练数据压缩成一棵树的形式。如果您不知道TRIE结构是如何工作的,下面两个序列的TRIE结构图将说明问题。


Sequence 1:A, B, C
Sequence 2:A, B, D


640?wx_fmt=jpeg


TRIE数据结构从序列A、B、C的第一个元素A开始,并将其添加到根节点。然后B被添加到A后,C被添加到B后。对于每个新的序列,TRIE会再次从根节点开始,如果一个元素已经被添加到结构中则跳过。


产生的结构如上所示。这就是预测树如何有效地对训练数据进行压缩。


2. 倒排索引(II)


倒排索引是一种字典,其中的键是训练集中的数据项,值是该项出现的序列的集合。例如:


Sequence 1:A,B,C,D
Sequence 2:B,C
Sequence 3:A,B


上述序列的倒排索引如下所示:


II = {
‘A’:{‘Seq1’,’Seq3’},
’B’:{‘Seq1’,’Seq2’,’Seq3’},
’C’:{‘Seq1’,’Seq2’},
’D’:{‘Seq1’}
}

 

3. 查找表(LT)


查找表是一个字典,带有序列ID和预测树中的序列的终端节点的键。例如:


Sequence 1:A, B, C
Sequence 2:A, B, D

LT = {
“Seq1” : node(C),
“Seq2” : node(D)
}


 用CPT进行训练和预测


下面通过一个例子来理解CPT算法是如何训练和预测的。示例训练集为:


640?wx_fmt=jpeg


 训练集有3个序列。让我们用ID表示序列:seq 1、seq 2和seq 3。A、B、C和D是训练集中的数据项。


1. 训练阶段


训练阶段会同时建立预测树、倒排指数(II)和查找表(LT)。整个训练过程如下。


第一步: 插入A,B,C


640?wx_fmt=jpeg


查找表


先得到一个根节点和一个初始设置为根节点的当前节点。


我们从A开始,检查作为根节点的子节点A是否存在。如果没有,我们将A添加到根节点的子列表中,在带有值为seq 1的倒排索引中添加一个A的条目,然后将当前节点移到A。


查看下一项,即B,看看B是否作为当前节点A的子节点存在。如果不存在,我们将B添加到A的子列表中,在带有seq1值的倒排索引中添加B的条目,然后将当前节点移动到B。


重复上面的过程,直到我们完成添加seq 1的最后一个元素为止。最后,我们将使用key=“seq 1”和value=node(C)将seq 1的最后一个节点C添加到查找表中。


第二步:插入A,B


640?wx_fmt=png


第三步: 插入A,B,D,C


640?wx_fmt=png


第四步:插入B,C


640?wx_fmt=png


重复这个过程,直到穷尽训练数据集中的每一行(记住,一行表示单个序列)。现在,我们已经准备好了所有必需的数据结构,可以开始对测试数据集进行预测了。


2. 预测阶段


预测阶段以迭代的方式对测试集中的每个数据序列进行预测。对于单个行,我们使用倒排索引(II)找到与该行相似的序列。然后,找出相似序列的结果,将其添加到计数字典的数据项中,并给出它们的分值。最后,使用“计数”返回得分最高的项作为最终预测。下面详细阐述每一步的做法。


目标序列:A,B


第一步:查找与目标序列相似的序列。


利用倒排索引找出与目标序列相似的序列。通过以下几步来查找:


  • 找到目标序列中唯一的数据项,

  • 查找存在特定唯一数据项的序列ID集,

  • 然后,取所有唯一数据项集合的交集。


比如:


存在A项的序列集= {‘Seq1’,’Seq2’,’Seq3’}

存在B项的序列集= {‘Seq1’,’Seq2’,’Seq3’,’Seq4’}

与目标序列相似的序列=二者之交集= {‘Seq1’,’Seq2’,’Seq3’}

 

第二步:查找与目标序列相似的后续序列


对于每个相似序列,后续序列定义为在相似序列中目标序列最后一项发生后,减去目标序列中存在的项之后的最长子序列。


注意:这与开发人员在他们论文中的做法有所不同,但我的这种实现方式似乎比他们的更适合。


通过下面的例子来理解这一点:


目标序列= [‘A’,’B’,’C’] 相似序列= [‘X’,’A’,’Y’,’B’,’C’,’E’,’A’,’F’]

目标序列的最后一项= ‘C’

相似序列中‘C’发生后的最长子序列= [‘E’,’A’,’F’]

后续序列= [‘E’,’F’]


第三步:将相应的项添加到“计数字典”中,同时添加它们的分值。


将每个相似序列的后续项与得分一起添加到字典中。例如,继续上面的示例,随后的[‘E’,‘F’]项的得分计算如下:


计数字典的初始状态= {},是一个空字典。


如果字典中没有该项,那么:


得分= 1 + (1/相似序列的数量) +(1/当前计数字典中项的数量+1)*0.001,否则,得分= (1 + (1/相似序列的数量) +(1/n当前计数字典中项的数量+1)*0.001) * 旧分值


因此,对于元素E,即后续的第一项,得分是


score[E] = 1 + (1/1) + 1/(0+1)*0.001 = 2.001
score[F]=1 + (1/1) + 1/(1+1)*0.001 = 2.0005


经过上面的计算,计数字典为,


计数字典= {'E' : 2.001, 'F': 2.0005}


第四步:利用计数字典的值进行预测


最后,将计数字典中值最大的键作为预测值返回。在上述示例中,E作为预测值返回。


建模与预测


步骤1:复制GitHub存储库。


git clone https://github.com/NeerajSarwan/CPT.git


步骤2:使用下面的代码读取.csv文件,训练模型并做出预测。


#Importing everything from the CPT file
from CPT import *

#Importing everything from the CPT file
from CPT import *

#Creating an object of the CPT Class
model = CPT()

#Reading train and test file and converting them to data and target.
data, target = model.load_files(“./data/train.csv”,”./data/test.csv”)

#Training the model
model.train(data)

#Making predictions on the test dataset
predictions = model.predict(data,target,5,1)


尾注


在本文中,我们介绍了一种高效、准确的序列学习算法--紧致预测树。我鼓励你用序列学习黑客马拉松数据集(Hackathon dataset)尝试一下,祝你在私人排行榜上爬得更高!


如果您想要为CPT库贡献,可以自由地提出问题。如果您知道执行序列学习的任何其他方法,请在下面的注释部分中写入它们。别忘了给CPT库标注星号。


作者 NSS

我是一个终身热衷于探索数据分析和科学领域的快手,对于我们所处的时代以及生成数据并将其转化为资产的速度深感兴奋。我对一些数据处理工具非常熟悉,也正处于学习其他数据处理工具和知识的过程中。


原文链接:https://www.analyticsvidhya.com/blog/2018/04/guide-sequence-prediction-using-compact-prediction-tree-python/


译者简介

640?wx_fmt=png

陈之炎,北京交通大学通信与控制工程专业毕业,获得工学硕士学位,历任长城计算机软件与系统公司工程师,大唐微电子公司工程师,现任北京吾译超群科技有限公司技术支持。目前从事智能化翻译教学系统的运营和维护,在人工智能深度学习和自然语言处理(NLP)方面积累有一定的经验。业余时间喜爱翻译创作,翻译作品主要有:IEC-ISO 7816、伊拉克石油工程项目、新财税主义宣言等等,其中中译英作品“新财税主义宣言”在GLOBAL TIMES正式发表。能够利用业余时间加入到THU 数据派平台的翻译志愿者小组,希望能和大家一起交流分享,共同进步

翻译组招募信息

工作内容:需要一颗细致的心,将选取好的外文文章翻译成流畅的中文。如果你是数据科学/统计学/计算机类的留学生,或在海外从事相关工作,或对自己外语水平有信心的朋友欢迎加入翻译小组。

你能得到:定期的翻译培训提高志愿者的翻译水平,提高对于数据科学前沿的认知,海外的朋友可以和国内技术应用发展保持联系,THU数据派产学研的背景为志愿者带来好的发展机遇。

其他福利:来自于名企的数据科学工作者,北大清华以及海外等名校学生他们都将成为你在翻译小组的伙伴。


点击文末“阅读原文”加入数据派团队~

640?wx_fmt=jpeg

点击“阅读原文”拥抱组织

  • 7
    点赞
  • 26
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,我了解了。关于 apriori 算法,它是一种经典的频繁项集挖掘算法,能够从大规模数据中发现物品之间的关联性。下面是 apriori 算法的原理和 Python 代码实现: ### 原理 apriori 算法的核心思想是利用频繁项集的性质,从候选项集中生成所有频繁项集。频繁项集指的是在数据集中出现频率超过预设阈值的项集。这里的阈值可以是支持度、置信度等度量指标。 算法流程: 1. 对数据集进行扫描,找出所有单个物品组成的候选项集; 2. 计算候选项集的支持度,剔除不满足最小支持度的项集; 3. 根据频繁项集的性质,使用候选项集生成下一级候选项集; 4. 重复步骤2和步骤3,直到无法生成更多的频繁项集。 ### 代码实现 下面是一个简单的 Python 实现,假设我们有一个包含多个交易记录的列表,每个交易记录是一个物品集合。我们要找出频繁项集,其中最小支持度为 0.5。 ```python def load_data(): """ 加载数据集 """ dataset = [ ['I1', 'I2', 'I5'], ['I2', 'I4'], ['I2', 'I3'], ['I1', 'I2', 'I4'], ['I1', 'I3'], ['I2', 'I3'], ['I1', 'I3'], ['I1', 'I2', 'I3', 'I5'], ['I1', 'I2', 'I3'] ] return dataset def create_c1(dataset): """ 生成所有单项候选集 """ c1 = set() for transaction in dataset: for item in transaction: c1.add(frozenset([item])) return c1 def calc_support(dataset, c, min_support): """ 计算候选集的支持度,并剔除不满足最小支持度的项集 """ count = {} for transaction in dataset: for item in c: if item.issubset(transaction): count[item] = count.get(item, 0) + 1 num_items = float(len(dataset)) ret_list = [] support_data = {} for item in count: support = count[item] / num_items if support >= min_support: ret_list.append(item) support_data[item] = support return ret_list, support_data def apriori_gen(lk, k): """ 生成下一级候选集 """ ret_list = [] len_lk = len(lk) for i in range(len_lk): for j in range(i + 1, len_lk): l1 = list(lk[i])[:k - 2] l2 = list(lk[j])[:k - 2] l1.sort() l2.sort() if l1 == l2: ret_list.append(lk[i] | lk[j]) return ret_list def apriori(dataset, min_support=0.5): """ apriori算法主函数 """ c1 = create_c1(dataset) d = list(map(set, dataset)) l1, support_data = calc_support(d, c1, min_support) l = [l1] k = 2 while len(l[k - 2]) > 0: ck = apriori_gen(l[k - 2], k) lk, sup_k = calc_support(d, ck, min_support) support_data.update(sup_k) l.append(lk) k += 1 return l, support_data ``` 我们可以调用 `apriori` 函数来计算频繁项集: ```python dataset = load_data() min_support = 0.5 frequent_itemsets, support_data = apriori(dataset, min_support) ``` `frequent_itemsets` 是一个列表,包含所有的频繁项集。`support_data` 是一个字典,记录每个项集的支持度。 以上就是 apriori 算法的原理和 Python 代码实现。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值