人工机器:深度学习CNN到底实现了什么

智能的广义含义,即学习模式和举一反三,在几何空间里寻找代数路径。判别式模型和生成式模型,都是使用大量的数据输入输出来拟合出代数路径。

现在的归纳式和生成式深度学习离AI还很遥远,AI更需要深度强化学习。参考:作为归纳学习的深度学习-https://blog.csdn.net/wishchin/article/details/71195098

从泛函分析里得出的结论:模式识别的数学表示--https://blog.csdn.net/wishchin/article/details/74644489

对一维信号识别和变长模式分析,我不甚了解,对LSTM处理变长一维特征之外的更强的作用也不是特别了解:https://blog.csdn.net/wishchin/article/details/47949245

通过数据学习全部判别模式参数的模型被称为归纳模型。此外,通过学习边缘概率参数网络生成式模型被称为GAN的网络。

CNN学习到了什么?CNN学习到了 曾经困扰 传统方法图像处理与模式识别 的"语义鸿沟“。

感知鸿沟(sensory gap),它是一种在现实世界的物体和该场景记录下来的(计算上的)描述信息之间的鸿沟。语义鸿沟(semantic gap),它是由于所视觉数据中提炼出的信息与在特定场合下这些数据对用户的解释之间缺乏一致性。

语义鸿沟是指通常人们在判别图像的相似性时并非建立在图像低层视觉特征的相似上,而是建立在对图像所描述的对象或事件的语义理解的基础上。

或许这张图可以说明:https://blog.csdn.net/wishchin/article/details/76014318,人眼可以从中间的FeatureMap和卷积核,从直觉上取得底层特征和高层特征的联系,而不是通过一个个抽象的模式提取的公式上。这样就间接地跨过语义鸿沟!

CNN网络:一个无法形式化进行最优化函数最优解,但可以进行语义解释的图像 降维哈希/特征提取/模式识别 的三维空间网络。

                   压缩映射,特征提取是一个哈希过程,把特征提取到0维离散的值就成了模式识别。

                   参考:传统模式识别的数学表示--https://blog.csdn.net/wishchin/article/details/74780073

 

PAC学习理论与VC维:而神经网络定义VC维看似不受限制

PAC可学习理论的公式:下列公式是机器学习的泛化误差和一些学习器参数的关系

    公式12

 在机器学习中,简单的算法意味着增长函数

                

深度网络会越来越大,越来越稀疏,直到能分类所有类别,直到找到精确的 切割和减枝范式,即 范式化的 迁移方法。

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值