这周首先进行了BP神经网络的学习,主要是继续学习了吴恩达老师的课程。1 对比了常见的激活函数,sigmoid、tanh和RELU的特点,使用范围,其中二分类问题使用sigmoid和tanh,而tanh函数比sigmoid性能更加优越,当隐含层不确定时,倾向于使用Relu,主要是由于后者训练速度快。2 为什么使用激活函数,当神经网络中没有激活函数时,不管有多少隐含层,最后相当于输入对输入进行线性操作,即隐含层不起作用。3学习了双层神经网络的前向传播和后向传播,神经网络训练中注意随机初始化参数W,以防每层中多个节点不起作用,同时,w值应较小以加快训练速度。4正在用C语言实现BP神经网络,后续继续完成
这周简单了解了CNN卷积神经网络,明白了局部感受野,共享权重、偏置和混合的概念。明白了常见卷积神经网络的结构:输入层-卷积层-混合层-全连接层-输出层。后续会继续学习吴恩达老师的课程
这周正在学习论文faster-Rcnn,目前进度较慢,争取汇报前看完