深度学习
qishanbaby
这个作者很懒,什么都没留下…
展开
-
动手深度学习 29 残差网络 ResNet
为了防止机器学歪,ResNet通过F1作为F6的子集来解决这个问题提示:这里对文章进行总结:例如:以上就是今天要讲的内容,本文仅仅简单介绍了pandas的使用,而pandas提供了大量能使我们快速便捷地处理数据的函数和方法。x。原创 2023-08-14 15:38:40 · 43 阅读 · 0 评论 -
深度学习 模型的导入和读取 土堆教程
【代码】深度学习 模型的导入和读取 土堆教程。原创 2023-07-22 11:25:46 · 432 阅读 · 0 评论 -
动手学深度学习 27 含并行连结的网络 GoogLeNet / Inception V3
从四个路径从不同层面抽取信息 然后在通道合并层合并这个块使用不同窗口大小的卷积层通道合并层 和 输入 图片的大小等高等宽Inception块有更少的参数个数 和 计算复杂度。原创 2023-07-22 10:17:09 · 50 阅读 · 0 评论 -
动手学深度学习 26 网络中的网络 NiN
NiN块使用卷积层+ 两个1 * 1 的卷积层,或者对每个像素增加了非线性NiN 使用全局平均池化层来替代VGG和AlexNet的全连接层优点:不容易过拟合和更少的参数个数。原创 2023-07-22 09:22:35 · 45 阅读 · 0 评论 -
动手学深度学习 25 使用块的网络 VGG
VGG使用可重复使用的卷积块来构建深度卷积神经网络,不同的卷积块个数和超参数可以得到不同复杂度的变种。原创 2023-07-21 16:35:24 · 61 阅读 · 1 评论 -
动手学深度学习 24 深度学习网络AlexNet
一、AlexNet 1.AlexNet架构 2.细节 激活函数从Sigmoid变到ReLu(减缓梯度消失) 隐藏全连接层后加入丢弃层 数据增强(重要)——>对图片做很多数据的变化 AlexNet是更大更深的LeNet原创 2023-07-21 16:35:06 · 45 阅读 · 1 评论 -
动手学深度学习 23 经典卷积神经网络 LeNet
例如:随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容。PyTorch 中的一个函数,用于计算输入的 sigmoid 函数值。sigmoid 函数是一个常用的激活函数,将输入的值映射到了 (0,1) 之间,通常用于神经网络的二分类问题的输出层。是PyTorch中的一个函数,用于将输入张量展平为一维张量。它可以用于将卷积层的输出张量展平为全连接层的输入张量,也可以用于将任意形状的张量展平为一维张量。该函数的参数包括输入张量和展平后的维度大小。原创 2023-07-20 16:44:37 · 50 阅读 · 0 评论 -
动手学深度学习 22 池化层
加油!池化层返回窗口中的最大或者平均值池化层用于缓解卷积层对位置的敏感性有窗口大小 填充 步幅 作为超参数。原创 2023-07-19 23:40:38 · 53 阅读 · 0 评论 -
动手学深度学习 21 卷积层里的多输入多输出通道
输出通道是卷积核的超参数每个通道都有独立的二维卷积核,所以通道结果相加的到一个输出通道的结果每个输出通道都有独立的三维卷积核c_%7Bi%7Dc_%7Bo%7D。原创 2023-07-19 22:06:20 · 213 阅读 · 0 评论 -
动手学深度学习笔记 20 填充和步幅
例如:随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容。提示:以下是本篇文章正文内容,下面案例可供参考步幅是值行/列滑动的步长例:高度为3 宽度为2 的步幅(水平走两个 竖直走三个)填充和步幅是超参数填充在周围添加行和列,来控制输出的减少量步幅是滑动窗口时的行/列的步长,可以成倍的减少输出的形状p_%7Bh%7D。原创 2023-07-19 16:19:42 · 74 阅读 · 0 评论