深度学习
文章平均质量分 76
深度学习相关知识
dabingsun
这个作者很懒,什么都没留下…
展开
-
fasttext
论文:网络结构:目的:微调:代码:总结:原创 2020-08-07 21:32:19 · 226 阅读 · 0 评论 -
Tensorflow 1.0 梳理
目录常用的四个模块:tf.nn tf.layer tf.contrib tf.train使用tensorflow搭建模型的一般步骤:经常使用的一些tf操作:包含的模块:官网常用的四个模块:tf.nn tf.layer tf.contrib tf.traintf.nn:神经网络基本操作的接口,相对底层。 tf.nn.conv2d max_pool:卷积操作、池...原创 2020-03-17 08:50:59 · 283 阅读 · 0 评论 -
CNN内部计算及卷积核、通道数关系
目录CNN内部计算具体实现:tensorflowCNN局部连接 权值共享两者目的都是减少参数。通过局部感受视野,通过卷积操作获取高阶特征,能达到比较好的效果。内部计算先看卷积与池化示意图:部分图片来自于:链接标准卷积过程最大池化层输入、卷积、池化形状定义:输入为(长,宽,RGB通道数)=(7*7*3)的图片,即inputs = (bat...原创 2020-03-09 09:03:53 · 7155 阅读 · 0 评论 -
学习率与batch_size对模型性能的影响
学习率学习率(lr)表示每次更新权重参数的尺度(步长),。Batch_size(批量大小)batch_size有一个计算公式,即, 或者 , N为训练数据集大小, batch为需要多少次迭代才能在一个epoch中训练完整个数据集。batch_size参数决定了完整训练数据集1个epoch需要多少个batch。学习率与batch_size在权重更新中的关系 学习率(lr)直...原创 2020-02-29 12:31:38 · 7336 阅读 · 0 评论 -
使用Bert进行文本分类(立场检测)
主要流程:载入数据-->进行分词(单个词)-->根据词典转换为编码-->加载BERT预训练模型-->微调出结果。原创 2019-11-20 21:27:28 · 1590 阅读 · 0 评论 -
sigmoid、Relu、Tanh、softmax激活函数的比较, 以及交叉熵损失函数
sigmoid原创 2020-03-06 22:42:29 · 3450 阅读 · 0 评论