人工智能
仔仔尔
这个作者很懒,什么都没留下…
展开
-
为什么引入神经网络来做识别,判断,预测?
实名手机尾号:73203, 很多人学了神经网络很长时间,但一直就有一个最根本的问题困扰着自己。为什么要引入神经网络来做识别,判断,预测?为什么神经网络能做这事?其实我们在生活中,总在不知不觉的经常用神经网络。只不过我们没注意观察罢了。 比如经常有朋友会问我们,哪里的房子大致多少钱?比如下面这个判断房价的例子,当知道地点在北京二环以里,天安门旁边的东华门,输入x1就应该等于五万元一平米。楼层是四层,...转载 2019-10-16 17:21:08 · 471 阅读 · 0 评论 -
给出一个生活中的最简单的两层神经网的实际例子
下面我们给出一个生活中的最简单的两层神经网的实际例子。比如,在我们的心目当中,只要有游泳池这种设施的房子就属于高档住宅。先进行一个初步判断,高还是低? 最后才进行最终的价格判断,所以这样就有了两层神经网络。先看是高档还是低档住宅,之后高档住宅的价格偏移和低档住宅的价格偏移是完全不一样的。马克-to-win @ 马克java社区:在下图中,判断高档和低档住宅的这一层叫做隐含层,英文叫hidden,我...转载 2019-09-04 09:29:34 · 387 阅读 · 0 评论 -
卷积和神经网络有什么关系?
如上一段所述,卷积可以提取特征,但对于真实世界当中的大规模图片库,我们并不知道哪个局部特征有效,我们还是希望通过训练神经网络,自动学习出来,怎么做呢?还得用到前面学到的BP算法,但现在的问题是卷积和神经网络有什么关系呢?看下面两个图可以知道,其实卷积的运算就是相乘之后求和,和神经网络效果是一样的。卷积核和卷积结果分别对应着神经网络中的参数和隐藏层结果。这样就回到前面所学的BP算法了,做法是一样的,...转载 2019-09-08 16:18:41 · 2082 阅读 · 0 评论 -
dropout到底在干什么?
马克-to-win @ 马克java社区:防盗版实名手机尾号:73203。我们用dropout主要是为了防止CNN过拟合。所谓过拟合就是所建的模型在训练样本中表现得过于优越,而在测试数据集中表现不佳。那既然死死的一个神经网络可能被过度训练,我们能不能每次训练时,随机挑选一部分参数来构成一个子网,将这个子网络作为此次训练更新的目标网络。马克-to-win @ 马克java社区:下次挑选另外一批参数构...转载 2019-09-08 17:14:33 · 469 阅读 · 0 评论 -
Anaconda Prompt的用法
Windows/开始菜单,打开Anaconda Prompt,这个窗口和cmd窗口一样的,用命令“conda list”查看已安装的包,从这些库中我们可以发现NumPy,Matplotlib,Pandas,说明已经安装成功了!下一步可以测试随anaconda一起安装的python:(还是在上一个窗口)更多请见:http://www.mark-to-win.com/index.htm...转载 2019-09-08 18:16:43 · 13228 阅读 · 0 评论 -
卷积神经网络的Helloworld例子
下面是keras官方的卷积神经网络在github上的例子。和原版的唯一区别是:mnist的数据因为在国外(由于翻墙的原因,报错Exception: URL fetch failure on https://s3.amazonaws.com/img-datasets/mnist.npz),可以像我一样,下载数据后,放在本地。batch_size = 128num_classes = 10ep...转载 2019-09-11 16:19:14 · 229 阅读 · 0 评论