人工神经网络心得体会_卷积神经网络学习心得

萌新小白一只,刚刚接触AI,在遍历人工智能发展时就看到了“卷积神经网络”,顿时想到了去年被概率论支配的恐惧,因此想在这里分享一点经验来帮助大家更好理解。

所谓“卷积神经网络”,就是结合卷积公式,建立类似神经元的生物学模型,再加上一堆激活函数、损失函数来修正加工,最后再梯度求导达到帮助AI进行深度学习的目的。

首先我们来看一下卷积公式: ​fX∗fY=∫−∞∞​fX​(z−y)fY​(y)dy=∫−∞∞​fX​(x)fY​(z−x)dx。

这里z=x+y,fX​和fY都是概率密度,fX​∗fY表示卷积。其意义就是响应在输入信号上的延迟叠加。这样解释还是很抽象,我们举个例子,就拿复联来说吧。

为了守护世界的和平、抵御黑暗势力的攻击,复仇者联盟应运而生。在漫威宇宙里,他们拳打洛基,脚踢奥创(奥创也是人工智能哦)。电影放映后,IP持续爆红,项目组一看有搞头哦,接下来就安排主角团去刚大Boss灭霸,团灭后穿越时空终于打败了Boss,完结撒花。

在这里故事大纲(漫威宇宙的设定)就是输入信号,超级英雄们的行为就是响应,两者之间的联动就是卷积了,最后钢铁侠去世、美队老去相当于响应在输入的延迟叠加。

然后我们来看看神经网络,这个概念借助了神经元的特性:能够接受外界刺激,产生兴奋,传导兴奋。又因为神经元兴奋的传导是线性关系的,为了防止输入0输出0这种情况的产生和处理一些非线性情况,专家们就在这个模型里面添加了激活函数,目前常用的激活函数有很多,如Sigmoid函数(s形生长曲线)、ReLU函数(线性整流函数)等。然后再用损失函数来对比实际输出结果和理论预期结果,导出误差。

有误差就要尽量减少,不是吗?这时我们就要用到求导这种方法了,去以上的过程中找到梯度下降的地方,优化参数,误差就会减少。当然啦,以上的计算量是海量的,非计算机难以完成。

经过卷积神经网络这一过程,误差不断减小,AI就能进行深度学习了。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值