- 博客(7)
- 收藏
- 关注
原创 LSTM VS RNN改进
1.rnn常见的图形表示rnn是一种早期相对比较简单的循环神经网络,其结构图可以用如下表示。图片来自网络。其中,x,y,h分别表示神经元的输入,输出以及隐藏状态。根据上面的图片不难看出,在时刻t,神经元的输入包括xtx_txt与上一时刻的隐藏状态ht−1h_{t-1}ht−1,而输出包括当前时刻的隐藏状态hth_tht与当前时刻的输出yty_tyt。RNN的输入xtx_txt只包含了t时刻的信息,而不包含顺序信息。而hth_tht则包含了历史信息与当前输入信息,所以RNN是能用到历史
2021-09-22 16:27:40 1820
原创 算法常见问题小结
1.LR与SVM联系与区别联系:1.LR与SVM都可以处理分类问题,尤其是处理二分类。2.都可以用来做非线性分类。3.本身都是属于线性模型。4.都是判别模型。区别1.LR采用的目标函数是logistical loss,SVM采用的是hinge loss。2.LR是经验风险最小,而SVM是结构风险最小。3.LR是参数模型,而SVM是非参数模型。4.LR依赖数据的分布,而SVM不依赖数据分布,只与支持向量的几个点有关系。5.SVM很依赖乘法系数,需要做cross validation。S
2021-09-22 10:11:02 403
原创 参数模型 非参数模型 生成模型 判别模型
1.参数模型参数模型(parametric models)与非参数模型(Nonparametric models)的主要区别在于:对于数据分布的假设不同。参数模型对于数据分布(data distribution)是有假设的,而非参数模型对于数据分布是假设自由的(distribution free)。因此,所谓参数模型与非参数模型中的参数,是指数据分布的参数。常见的参数模型包括:逻辑回归线性回归其中,逻辑回归我们假设一个样本数据符合伯努利分布,而线性回归我们假设响应变量是服从正态分布的。根据上面
2021-09-21 22:13:08 1455
转载 feature scaling小结
原文链接:https://blog.csdn.net/blogshinelee/article/details/1028750441 前言在对特征进行预处理的时候,很重要的一步就是feature scaling,中文经常翻译成归一化(scale), 标准化(normalization),等等不同的说法。为什么要进行归一化?最主要的原因有两点:1.不同特征之间的尺度不一样,那么在计算距离的时候,如果不对原始特征进行处理,某一维尺度特别大的特征会占主导,别的尺度小的特征基本体现不出来。2.不同特征之间
2021-09-20 21:32:40 338
原创 ConcurrentHashMap1.7到1.8变化
HashTable讲ConcurrentHashMap之前,稍微先说说HashTable。HashTable实现并发的方式,简单一句话总结就是,加synchronized同步锁。查看一下HashTable的源码,到处可见的synchronized关键字。 /** * Returns the number of keys in this hashtable. * * @return the number of keys in this hashtable.
2021-09-15 22:02:37 394
原创 双向链表与LinkedHashMap
1.双向链表比单向链表优势对于插入操作,单链表与双链表都是O(1)时间复杂度。对于删除操作,我们经常看到的说法是单链表的删除时间复杂度是O(1),其实这种说法不准确。因为单从删除这个动作来说,确实是O(1),只要把next指针的指向做改变即可。但是,在删除操作之前,我们需要找到前驱节点,这个操作就不是O(1),而是O(n)。具体来说,链表删除数据一般是两种情况:1.删除节点中值等于某个特定值的节点。2.删除给定指针指向的节点。对于第一种情况,不管单链表双链表,都需要从头节点开始挨个遍历,找到值等
2021-09-15 18:01:38 762
原创 Hbase与pegasus对比
1.hbase的优点1.支持海量数据,博主实践中的单表可以达到上百亿行数据。2.列式存储,面向列存储,column family与qualifier,按照列簇独立检索。3.因为空列不占据存储空间,所以表结构可以非常稀疏,适合互联网这种稀疏场景。4.半结构化或非结构化数据,如果数据字段不确定或者无规律,可以动态添加字段,而不用像结构化数据一样每一行都是确定的字段,特别适合互联网场景下数据比较杂乱的情况。5.多版本:每个cell中的数据可以有多个版本,默认的版本号是插入数据的时间戳。6.高可靠性6
2021-09-13 19:44:39 406
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人