深度学习
文章平均质量分 63
热心市民小石_
这个作者很懒,什么都没留下…
展开
-
Sklearn 卡方检验
见知乎小白记录贴,侵删~感恩!使用sklearn官方接口代码如下首先import包和实验数据:from sklearn.feature_selection import SelectKBestfrom sklearn.feature_selection import chi2from sklearn.datasets import load_iris iris = load_iris()2. 使用卡方检验来选择特征model1 = SelectKBest(chi2, k=2原创 2021-03-17 15:43:07 · 1714 阅读 · 0 评论 -
pytorch embedding 理解
可见知乎之前由于懒且不重视没思考embedding,故近期实战对其有些“误解”。害,可见这都是之前欠下的债啊,得补上!小白记录贴,仅供参考~从pytorch源码里简单找了找,并没有找到对embedding有直观解释的代码,故转向tensorflow。不管什么框架,原理得是一样的吧~对embedding追根溯源,发现主要包括两部分:对input[batch_size, seq_len]进行one-hot编码[batch_size, vocab_size]; 将one-hot编码后的矩阵和we原创 2021-03-13 21:14:12 · 615 阅读 · 0 评论 -
cannot import name ‘Graph‘ from ‘pyecharts‘
pyecharts-gallery: A Data Visualization Gallery Based on pyecharts.之前版本代码如下,报错cannot import name 'Graph' from 'pyecharts'from pyecharts import Graph通过看官网demo,更改代码如下from pyecharts.charts import Graph建议遇到错误首先看官网pyecharts-gallery知乎...原创 2021-03-08 11:47:58 · 1130 阅读 · 0 评论 -
Transformer-self attention
详见知乎~感恩~小白记录贴,侵删~感恩Encoder包括Multi-head self attention,Skip connection,LayerNorm,FFself-attention之前看过一位老师说transformer在长文本上效果没有RNN好, 针对这一问题, 这篇文章做了相关阐述----Why Self-Attention? A Targeted Evaluation ofNeural Machine TranslationArchitectures, 中文版是为什原创 2021-03-07 14:51:47 · 187 阅读 · 0 评论 -
LSTM和GRU
详文见知乎小白记录贴~(侵删,感恩)RNNLSTMLSTM在RNN的基础上引入了门控机制:遗忘、输入和输出LSTM能保持长期记忆的原因:两个通道在保持记忆:短期记忆h,保持非线性操作;长期记忆C,保持线性操作。因为线性操作是比较稳定的,所以C的变化相对稳定,保持了长期记忆。而对有用信息的长期记忆是通过训练获得的,也就是说在内部的几个权值矩阵中。GRUGRU是LSTM的变体,门控变为update(大佬们都说是将forget和input gate耦合成upda原创 2021-03-05 21:47:14 · 145 阅读 · 0 评论 -
CNN相关公式
建议可以先看一下这个问题如何通俗易懂地解释卷积?,会了解的更透彻~(我甚至觉得百度百科都值得探索)回归正文~记录贴(侵删,感恩)卷积的物理意义:系统某一时刻的输出是由多个输入共同作用(叠加)的结果。放在图像分析里,可以理解为原始像素点(source pixel),所有的原始像素点叠加起来,就是原始图了。卷积的3个核心思想:稀疏交互(sparse interactions),即每个节点通过固定个(一般等于卷积核元素的数目,远小于前一层节点数)连接与下一层的神经元节点相连; 尽管是稀...原创 2021-03-05 21:39:55 · 362 阅读 · 0 评论