![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
酸柠檬水
这个作者很懒,什么都没留下…
展开
-
tensorflow的tf.reshape()
输入的 batch_size * in_steps * in_puts偶不管怎么reshape() 实际上一张图片中像素的输入顺序是不变的、、 并且 前后图片中的像素之间也是按顺序输入 不会有交叉的==》https://blog.csdn.net/lxg0807/article/deta...原创 2019-06-03 16:58:28 · 893 阅读 · 0 评论 -
BiLSTM
https://blog.csdn.net/ifruoxi/article/details/78235270 BILSTMhttp://colah.github.io/posts/2015-08-Understanding-LSTMs/https://codertw.com/%E7%A8%8B%E5%BC%8F%E8%AA%9E%E8%A8%80/621376/在tensorflo...原创 2019-07-04 21:55:38 · 2267 阅读 · 0 评论 -
注意力机制
原创 2019-07-14 10:34:36 · 276 阅读 · 0 评论 -
textCNN
https://blog.csdn.net/John_xyz/article/details/79210088 原理https://www.cnblogs.com/jiangxinyang/p/10207482.html 实现https://blog.csdn.net/loseinvain/article/details/78935192 卷积tf.nn.conv2d()使用...转载 2019-07-03 22:03:57 · 376 阅读 · 0 评论 -
word2vec
https://www.cnblogs.com/pinard/p/7249903.html 3/4 很好4.Negative Sampling负采样方法 现在我们来看看如何进行负采样,得到neg个负例。word2vec采样的方法并不复杂,如果词汇表的大小为VV,那么我们就将一段长度为1的线段分成VV份,每份对应词汇表中的一个词。当然每个词对应的线段长度是不一样的,高频词对应的线段...原创 2019-06-27 20:19:27 · 597 阅读 · 0 评论 -
迁移学习
以google inception 为例有三种方法:1.上百万张图片直接自己训练2.直接在池化层后面接自己的输出层 用池化层前面的数据 只训练后面的输出层 吧1000的分类转为自己的分类3.在后面接神经元,对整体进行训练,但先面的学习率设置的很小 对前面进行微调...原创 2019-06-27 12:29:58 · 125 阅读 · 0 评论 -
CNN代码
import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_data#每个批次的大小batch_size = 100#定义初始化权值 在卷积层中 是卷积核 在全连接层是权值 和偏置def weight_variable(shape): initial=tf.truncated_n...原创 2019-06-27 09:38:36 · 4141 阅读 · 0 评论 -
word2vec
目录数据稀疏解决办法:一般说一句话的一个词一般依赖于前面1、2个词 所以一般预测一个次并不是考虑前面所有词 而是考虑前面相邻的几个词 n-gram 有点马尔科夫性的意思但n_grams是基于词频的有时序性的 空间逻辑有相似性的不能用简单频率计算one-hot:数据稀疏 词转化的向量之间没有语义联系对应解决办法 word2vec 同一语言相似语义在一起...原创 2019-06-23 21:41:10 · 113 阅读 · 0 评论 -
NiN
1.全用卷积 不用全连接 a。用全连接模型会比较大 AlexNet模型大小700M 400-500M是最后全连接 b。全连接 容易过拟合 需要加入dropout 批量归一 =》要调参 效果不一定那么好2.用小网络 看起来比较小的完整的网络嵌在一起 1*1卷积核...原创 2019-06-21 23:06:42 · 613 阅读 · 0 评论 -
卷积神经网络
原创 2019-06-21 22:59:11 · 83 阅读 · 0 评论 -
Batch Normalization(批量归一化)
Batch Normalization(批量归一化)https://blog.csdn.net/shuzfan/article/details/50723877原创 2019-06-21 22:33:45 · 366 阅读 · 0 评论 -
怎么在一个Python运行另一个文件 及 导入自己的模块
一定要注意 Colab 中加入自己的模块后第一次运行后 ,如果对模块改名 还是用原来的名进行调用,用改后的模块名调用会报错 但运行改名后的 .ipynb .py文件还是可以的 且导入的模块只能是.py结尾 (暂时知道的是这样)此文件是通过 .ipynb download 转为py格式https://www.cnblogs.com/gengyi/...原创 2019-06-21 20:28:15 · 6067 阅读 · 0 评论 -
Google Colab 免费GPU使用
https://www.jianshu.com/p/2cf00bb9db34 建立连接https://blog.csdn.net/cocoaqin/article/details/79184540 建立连接https://www.cnblogs.com/gengyi/p/10080035.html 【colaboratory】ModuleNotFoundError: No...原创 2019-06-21 16:34:15 · 778 阅读 · 0 评论 -
李沐 代码
博文http://bestzhangjin.com/2017/10/13/deeplearn/目录深度学习之Mxnet--李沐视频1.1.前言1.2.使用NDArray来处理数据1.3.使用autograd自动求导1.4.从0开始线性回归1.5.使用Gluon实现线性回归1.6.从0开始多类逻辑回归1.7.Gluon版多类逻辑回归2.1.从0开始多层...原创 2019-06-21 12:46:49 · 1420 阅读 · 0 评论 -
python神经网络应用
alexNet 卷积块11*11 VGG 卷积块变小 3*3 resNet变深 1*1卷积层\...原创 2019-05-28 19:30:08 · 524 阅读 · 0 评论 -
过拟合解决办法
1.增加数据量 成千上万的数据 2.正规化 =》适用大多数机器学习 包括神经网络 ==》神经网络中的正规化Dropout regularization 暂时随机忽略神经元与神经的连接==》使神经网络变的不完整 过拟合是很多机器学习的通病,过拟合...原创 2019-06-02 11:45:23 · 311 阅读 · 0 评论 -
CRF
隐马尔科夫模型定义隐马尔可夫模型是关于时序的概率模型,描述由一个隐藏的马尔可夫链随机生成不可观测的状态随机序列,再由各个状态生成一个观测而产生观测随机序列的过程。隐藏的马尔可夫链随机生成的状态的序列,称为状态序列(state sequence);每个状态生成一个观测,而由此产生的观测的随机序列,称为观测序列(observation sequence)。的每一个位置又可以看作是...转载 2019-07-12 08:17:05 · 348 阅读 · 0 评论