机器学习
文章平均质量分 68
Ff俯仰之间
这个作者很懒,什么都没留下…
展开
-
人脸情绪识别挑战赛 图像分类 pytorch
“这篇文章是对202 科大讯飞人脸情绪识别挑战赛的说明与总结。”比赛链接http://challenge.xfyun.cn/topic/info?type=facial-emotion-recognition任务赛题要求根据给定的数据集训练分类器。数据由训练集和测试集组成,训练集数据集按照不同情绪的文件夹进行存放。其中:训练集:2.8W张人脸图像;测试集:7K张人脸图像;图像的尺寸为48*48像素。数据集包括的情绪标签包括以下7类:angrydisgustedfearful.原创 2021-08-11 13:18:59 · 1013 阅读 · 0 评论 -
one-hot编码例子介绍
最近在看tf框架,挺有意思的。在文本分类部分中再一次看到了one-hot编码,查了些资料,在此做一个记录。我们先来看一个one-hot编码的例子。假设字典中包含以下元素。dict = [我,我们,爱,中国,你好,有趣]一般的字典会包含10^6乃至更多的字词,在这里我们仅仅举例。那么对于以下词语,如何进行one-hot编码呢?‘我们’:(0,1,0,0,0,0)‘中国’:(0,0,0,1,0,0)‘你好’:(0,0,0,0,1,0)就是词语在字典中出现的位置。同时,词语进行one-hot编原创 2020-11-19 22:22:39 · 1168 阅读 · 0 评论 -
tensorflow中核心网络层Dropout的功能
这篇文章用于介绍tf.keras.layers.Dropouttf.keras.layers.Dropout,先看google给出的解释。The Dropout layer randomly sets input units to 0 with a frequency of rate at each step during training time, which helps prevent overfitting. Inputs not set to 0 are scaled up by 1/(1原创 2020-11-18 11:30:37 · 1026 阅读 · 0 评论 -
梯度消失与梯度爆炸的原因
在学习resnet时发现一个问题:在深度神经网络中,如果层数过大,会导致梯度消失、梯度下降的问题。残差网络中的shortcut可以解决这一问题。今天先来说清楚梯度消失、梯度下降的原因。参考文章为啥有梯度消失、梯度下降?https://www.zhihu.com/question/290392414/answer/940509039详解深度学习中的梯度消失、爆炸原因及其解决方法https://zhuanlan.zhihu.com/p/33006526先从最基本的单层神经网络入手。正原创 2020-11-02 17:18:14 · 422 阅读 · 1 评论