本文将从 CNN解决了什么问题、人类的视觉原理、CNN的基本原理、典型的CNN及实际应用四个方面,带您一文搞懂卷积神经网络CNN。
一、CNN解决了什么问题
图像处理存在两个难题:
-
数据量巨大: 图像由像素组成,每个像素又由RGB三个颜色参数表示。
对于一张1920×1080 像素的图片,就需要处理6百万个参数。(1920*1080*3=6220800)
-
特征保留困难: 传统图像处理方法很难保留原始图像特征。例如:图像中物体的位置发生变化,传统方法处理后的数据会有很大差异。
CNN解决问题:
-
提取特征: 卷积操作提取图像特征,如边缘、纹理等,保留图像特征。
-
数据降维: 池化操作大幅降低参数量级,实现数据降维,大大减少运算量,避免过拟合。
二、人类的视觉原理
在我们了解 CNN 原理之前,先来看看人类的视觉原理是什么?
1981年诺贝尔医学奖 :
-
获得者:David Hubel(大卫·休伯尔)、Torsten Nils Wiesel(托斯坦·威泽尔)、Roger Sperry(罗杰·斯佩里)
-
主要贡献:发现了视觉系统的信息处理,可视皮层是分级的。
人类视觉原理:
-
光信号感知:原始信号摄入,光信号转化为神经信号。
-
初级视觉处理:神经信号传送到大脑的初级视觉皮层,进行初步特征提取,例如边缘、纹理等。
-
高级视觉处理:初级视觉皮层的信息传递到高级视觉皮层,进行复杂的特征提取,例如颜色、形状、运动等。
-
识别与认知:将输入的图像与已有的知识进行匹配和识别。
三、CNN的基本原理
构成部分:
-
卷积层: 用来提取图像的局部特征。
-
池化层:用来大幅降低参数量级,实现数据降维。
-
全连接层: 用来输出想要的结果。
基本原理:
- 卷积层:通过卷积核的过滤提取出图片中局部的特征,类似初级视觉皮层进行初步特征提取。****
使用一个过滤器(卷积核)来过滤图像的各个小区域,从而得到这些小区域的特征值。
- 池化层:下采样实现数据降维,大大减少运算量,避免过拟合。
原始是20×20的,进行下采样,采样为10×10,从而得到2×2大小的特征图。
- 全连接层:经过卷积层和池化层处理过的数据输入到全连接层,得到最终想要的结果
四、典型的CNN及实际应用
典型的 CNN 并非只是上面提到的3层结构,而是多层结构。
例如,LeNet-5被誉为是卷积神经网络的“Hello Word”。LeNet-5是图灵奖获得者Yann LeCun(杨立昆)在1998年提出的CNN算法,用来解决手写识别的问题。
LeNet-5 的网络结构:
-
输入层:INPUT
-
三个卷积层: C1、C3和C5
-
两个池化层: S2和S4
-
一个全连接层: F6
-
输出层:OUTPUT
输入层- 卷积层 – 池化层- 卷积层 – 池化层 – 卷积层 – 全连接层 - 输出层
实际应用:
-
图像分类:可以节省大量的人工成本,将图像进行有效的分类,分类的准确率可以达到 95%+。典型场景:图像搜索。
-
目标定位:可以在图像中定位目标,并确定目标的位置及大小。典型场景:自动驾驶。
-
目标分割:简单理解就是一个像素级的分类。典型场景:视频裁剪。
-
人脸识别:非常普及的应用,戴口罩都可以识别。典型场景:身份认证。
如何系统的去学习大模型LLM ?
大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业
?”“谁的饭碗又将不保了?
”等问题热议不断。
不如成为「掌握AI工具的技术人
」,毕竟AI时代,谁先尝试,谁就能占得先机!
但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高
针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份 LLM大模型资料
分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程
等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓
👉[CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)]()👈