深度学习
文章平均质量分 54
我真是啥也不会
一直做轻松的事情其实是在自掘坟墓
展开
-
CNN理解这两个博客就够了
卷积神经网络应该具备的基础知识:卷积的原理,卷积的计算过程池化的原理,池化的计算过程局部感知和参数共享卷积层和全连接层的区别和联系卷积神经网络的参数个数的计算卷积核池化的计算:https://blog.csdn.net/huahuazhu/article/details/73469491卷积,池化的计算、卷积神经网络的参数个数的计算:https://www.cnblogs.com/touch-skyer/p/9150039.html卷积神经网络(CNN)详解:https://zhu转载 2022-03-20 20:29:27 · 215 阅读 · 0 评论 -
keras篇(1)--model.fit()的输入数据
人生苦短,我用keras!!!大家都知道keras极大的简化了神经网络的搭建,但是大家知道如何输入数据吗,数据大时,直接numpy矩阵输入使内存爆满?有试过生成器吗?有试过tf.data吗?想知道这几着的差距和优劣势吗?往下看吧!!!一、简介我们先来看看keras官方的代码中对model.fit()中的数据的输入的描述:x: Input data. It could be: - A Numpy array (or array-like), or a list of arrays (in cas原创 2021-03-07 19:52:04 · 10694 阅读 · 8 评论 -
关于神经网络的直观理解
最好有一点线性回归和逻辑回归的基础知识,才能有更深刻的理解。宏观认识:https://blog.csdn.net/qq_41744697/article/details/108288099以下参考吴恩达机器学习视频讲义:1、我们有了逻辑回归,为啥还需要神经网络?2、神经网络长啥样?3、神经网络的前向传播我们来尝试计算第二层的数值:仔细看:所以多层的神经网络可以看成多层逻辑回归的堆叠,所以具备了任意拟合函数的能力,随便一个简单的多元函数经过多层的逻辑回归之后具备了多层权重,可原创 2020-08-29 00:05:58 · 181 阅读 · 0 评论