深度学习
文章平均质量分 89
深度学习
编程圈子
编程圈子,谢厂节的博客
展开
-
深度学习1. 基础——线性代数:标量、向量、矩阵和张量
深度学习的数学基础,编程底层思维离开不了数学 。原创 2017-11-14 22:59:07 · 4059 阅读 · 0 评论 -
深度学习2. 基础——线性相关、生成子空间、范数、特征分解
线性组合 (linear combination)定义一个包含 kk 个实数变量的集合x1,x2,...,xk x_1,x_2,...,x_k ,且假设已知一个kk个实数权重集合 w1,w2,...,wkw_1,w_2,...,w_k 。我们定义s=w1x1+w2x2+,...,+wkxks=w_1x_1+w_2x_2+,...,+w_kx_k s变量是对变量x的加权线性”混合”。因此,将s定义原创 2017-11-17 08:42:44 · 4195 阅读 · 1 评论 -
深度学习3. 常见深度学习框架简介
MXNet的主要特点是高效的计算性能、动态图和静态图的混合计算、内置的自动微分机制、跨平台支持和高度可扩展性。Deeplearning4j是一种Java开发的、面向企业级应用的深度学习框架,主要用于构建深度神经网络和其他机器学习算法,并在大规模数据集上进行训练和推理。TensorFlow是由Google开发的一种广泛使用的开源深度学习框架,可以用于构建各种类型的神经网络模型,并提供了自动求导和GPU加速功能。它主要应用于计算机视觉、自然语言处理和强化学习等领域,以其动态图机制、易用性和灵活性而受到欢迎。原创 2018-01-21 12:49:58 · 2603 阅读 · 1 评论 -
深度学习4. 单层感知机概念及Python实现
这里的 bias 是一个标量值,它用来调整感知机的阈值,即当 y_pred 大于等于0时,预测结果为1,否则为-1。其中 x1 和 x2 分别表示样本的两个特征,这里的目的是为了生成一个二分类任务的标签,使得单层感知机可以通过学习来对样本进行分类。当预测值和真实标签不一致时,误差项的符号与 y[i] 相同,误差越大,更新的幅度就越大,这样就能使感知机的预测结果更加接近真实标签。其中,x1, x2,。最终得到的 y 是一个包含100个元素的一维数组,其中每个元素是1或-1,表示对应样本的标签。原创 2018-04-06 07:53:25 · 2928 阅读 · 1 评论 -
深度学习5. 单层感知机进行逻辑运算
单层感知机具有简单易懂的结构和快速的计算速度等优点,它只有一个神经元,只需要计算输入的加权和,再进行简单的阈值处理即可输出结果。这种简单的结构使得单层感知机在处理一些简单的分类问题时非常有效,训练速度也比较快。原创 2018-04-06 10:21:40 · 1871 阅读 · 1 评论 -
深度学习6. 多层感知机及PyTorch实现
本文介绍MLP多层感知机的概念及其PyTorch实现原创 2023-03-13 10:52:51 · 1171 阅读 · 1 评论 -
深度学习7. 卷积的概念
深度学习7. 卷积的概念一、卷积的概念二、神经网络中的卷积1. 神经网络卷积概念2. 卷积核3. 卷积核大小三、实现一个简单的卷积功能1. 卷积函数2. 边缘检测卷积核调用示例3. 高斯卷积核示例四、PyTorch计算卷积1. 生成单通道图像调用卷积(1)生成单通道图像 `torch.randn(1, 1, 28, 28)`(2)卷积层2. 加载灰度图像进行卷积操作3. 对彩色图片卷积,输出1通道4. 输出3通道的卷积操作一、卷积的概念卷积来源于英文的Convolution,其中Con是积分,vol是原创 2023-03-15 09:24:17 · 581 阅读 · 0 评论 -
深度学习8.池化的概念
池化 (Pooling) 用来降低卷积神经网络(CNN)或循环神经网络(RNN)中的特征图(Feature Map)的维度。在卷积神经网络中,池化操作通常紧跟在卷积操作之后,用于降低特征图的空间大小。池化操作的基本思想是将特征图划分为若干个子区域(一般为矩形),并对每个子区域进行统计汇总。池化操作的方式可以有很多种,比如最大池化(Max Pooling)、平均池化(Average Pooling)等。其中,最大池化操作会选取每个子区域内的最大值作为输出,而平均池化操作则会计算每个子区域内的平均值作为输出。原创 2023-03-15 22:16:15 · 1238 阅读 · 0 评论 -
深度学习9. 全连接及Dropout概念
全连接层是神经网络中的一种常见的层类型,也称为密集连接层(Dense Layer)或者全连接层(Fully Connected Layer)。全连接层可以将输入特征与每个神经元之间的连接权重进行矩阵乘法和偏置加法操作,从而得到输出结果。在全连接层中,每个神经元都与上一层的所有神经元相连,每个输入特征都与每个神经元之间都存在一定的连接权重。在训练过程中,神经网络通过反向传播算法来优化每个神经元的权重和偏置,从而使得输出结果能够更好地拟合训练数据。原创 2023-03-16 09:55:38 · 756 阅读 · 1 评论 -
深度学习10. CNN经典网络 LeNet-5实现MNIST
LeNet-5是一个经典的卷积神经网络模型,1998年被提出,论文题目是 “Gradient-Based Learning Applied to Document Recognition” ,作者为 Yann LeCun, Léon Bottou, Yoshua Bengio, and Patrick Haffner。LeNet-5是一个用于手写数字识别的深度神经网络模型,由两个卷积层和三个全连接层组成。LeNet-5是深度神经网络的开创者之一,对后来的深度学习算法发展产生了重要的影响。原创 2023-03-16 14:18:03 · 1173 阅读 · 0 评论 -
深度学习11. CNN经典网络 LeNet-5实现CIFAR-10
CIFAR-10是一个常用的图像分类数据集,由10类共计60,000张32x32大小的彩色图像组成,每类包含6,000张图像。这些图像被平均分为了5个训练批次和1个测试批次,每个批次包含10,000张图像。CIFAR-10数据集中的10个类别分别为:飞机、汽车、鸟类、猫、鹿、狗、青蛙、马、船和卡车。相比之下,MNIST是一个手写数字分类数据集,由10个数字(0-9)共计60,000个训练样本和10,000个测试样本组成,每个样本是一个28x28的灰度图像。原创 2023-03-18 13:55:27 · 1075 阅读 · 0 评论 -
深度学习12. CNN经典网络 AlexNet处理ImageNet
该层主要作用是提取输入图像的特征。卷积核:11 X 11步长:4填充:2输入通道数:3输出通道数:48224−112∗24154224−112∗2/4154。原创 2023-03-28 13:26:53 · 892 阅读 · 0 评论 -
深度学习13. CNN经典网络 VGG16
VGG(Visual Geometry Group)是一个视觉几何组在2014年提出的深度卷积神经网络架构。VGG在2014年ImageNet图像分类竞赛亚军,定位竞赛冠军;VGG网络采用连续的小卷积核(3x3)和池化层构建深度神经网络,网络深度可以达到16层或19层,其中VGG16和VGG19最为著名。VGG16和VGG19网络架构非常相似,都由多个卷积层和池化层交替堆叠而成,最后使用全连接层进行分类。原创 2023-04-06 09:58:45 · 1519 阅读 · 0 评论 -
Ubuntu22.04+Nvidia驱动+Cuda11.8+cudnn8.6
需要注意的是,之前已经安装过显卡驱动程序,在提问是否安装显卡驱动时选择no。其他 选择默认路径或者yes即可。,最后使用下面方式安装成功。3、更新initramfs。5、验证,终端输入语句,,则可能是版本不对。安装完重新启动电脑。原创 2022-11-26 19:05:00 · 3613 阅读 · 2 评论