![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 74
goddessblessme
这个作者很懒,什么都没留下…
展开
-
神经网络概念基础总结
1.使用softmax作为最终层输出。计算每一个输出的比例,最大概率的作为最终预测的结果。2、梯度下降 损失函数、、J为定义的损失函数分别求权重矩阵w和偏置值b的梯度(偏导数),梯度下降可能进入局部最优解3、fat+short VS. Thin+tall扁平或者深层对比一般来说深层 好于扁平的网络 深层可以使用更多的特征进行分类,每一层一个特征4、选择适当的的损失函数Square Error(...原创 2018-04-09 12:09:52 · 355 阅读 · 0 评论 -
Tensorflow/Keras embedding 嵌入层
是一个可学习层,用于学习单词或者其它以index标记的数据的编码(通常是向量编码) 为何需要这个层?普通的one-hot编码很难表示两个词之间的相关度,但通过可训练的embedding 层可以学习出两个词变量编码,且如果是相关的词,词向量之间具有更大的相关性。 ------ Keras: keras.layers.embeddings.Embedding(input_dim, outpu...原创 2018-04-11 11:19:38 · 8677 阅读 · 1 评论 -
scipy numpy convolve
两种实现版本,一种是正常的卷积计算,一种是利用傅立叶变换实现,时域的卷积等于频域的乘积。记住卷积计算是一个窗口滑动的计算过程就行。(a * v)[n] = \sum_{m = -\infty}^{\infty} a[m] v[n - m]scipy.signal.convolve(in1, in2, mode='full', method='auto')¶对文档中的计算做一些解释:1.默认mode...原创 2018-05-03 16:42:00 · 1632 阅读 · 0 评论