边学边记
文章平均质量分 76
日常更新学到的一些基础知识点
CV小Rookie
love life~
展开
-
MMML-CMU 学习笔记_No.1.2 Multimodal applications and datasets
多模态相关研究工作及数据集原创 2022-11-02 13:19:04 · 518 阅读 · 0 评论 -
MMML-CMU 学习笔记_No.1 Multimodal Introduction
多模态相关知识的简介与定义。以及多模态需要关注的几个研究方面。原创 2022-11-01 15:16:54 · 431 阅读 · 0 评论 -
MultiModal Machine Learning 笔记_No.0 课程介绍
CMU 的 Multimodal Machine Learning 学习笔记 课程介绍原创 2022-11-01 10:32:07 · 136 阅读 · 0 评论 -
Adaptive Learning Rate 自适应学习率
上一篇文章我们说了 critical point 中的 local minima 可能会让训练停止,但其实更多的情况下是 saddle point 。这一次呢,我们说一下另外一个可能会让 training 止步不前的问题: learning rate 学习率。原创 2022-08-20 10:23:59 · 1859 阅读 · 1 评论 -
Critical Point ( local minima && saddle point)
Critical Point ( local minima && saddle point)原创 2022-08-19 13:59:15 · 825 阅读 · 0 评论 -
机器学习介绍(下)
怎么把模型变复杂,神经网络,深度学习原创 2022-08-13 23:22:44 · 360 阅读 · 0 评论 -
机器学习介绍(上)
从这一次分享到接下来一段时间,会根据李宏毅老师开设的 2022ML 台湾大学机器学习课程进行比较系统的学习。李宏毅老师讲的课非常有水平,并且非常透彻!如果有时间,建议大家可以去学一下,当然也可以去参考之前开设的 2021ML 。机器学习相关概念,损失,优化,Linear model 线性模型...原创 2022-08-13 10:22:19 · 317 阅读 · 0 评论 -
动手学深度学习_风格迁移
风格迁移(style transfer)是让一张图片内容不发生改变,但样式改为另一张图片效果。这里所使用的风格迁移并不是基于 GAN 的,而是基于卷积神经网络的风格迁移方法(当然现在主流的风格迁移是基于 GAN 的,感兴趣的可以了解一下 之间写过的一些 GAN 的介绍)...原创 2022-08-09 11:18:48 · 5209 阅读 · 0 评论 -
动手学深度学习_全卷积网络 FCN
全卷积网络 (fully convolutional network,FCN),顾名思义,网络中完全使用卷积而不再使用全联接网络。全卷积网络之所以能把输入图片经过卷积后在进行尺寸上的还原,就是利用转置卷积实现的。 因此,输出的类别预测与输入图像在像素级别上具有一一对应关系:通道维的输出即该位置对应像素的类别预测。...原创 2022-08-09 10:47:01 · 934 阅读 · 0 评论 -
动手学深度学习_转置卷积
转置卷积(transposed convolution),可以看作是卷积的逆,是一种上采样操作,增大特征图的空间维度(高和宽)。注意这里卷积的逆只针对图像大小,图像中的值发生改变。原创 2022-08-08 20:49:05 · 1071 阅读 · 0 评论 -
动手学深度学习_目标检测算法 R-CNN 系列
区域卷积神经网络region-based CNN 或 regions with CNN features,R-CNN比较有名的几个网络:R-CNN、Fast R-CNN、Faster R-CNN、Mask R-CNN原创 2022-08-08 14:40:42 · 264 阅读 · 2 评论 -
动手学深度学习_目标检测
bounding box、锚框、IOU、非极大抑制原创 2022-08-07 20:37:57 · 1488 阅读 · 0 评论 -
动手学深度学习_ResNet
残差网络详解加 pytorch 代码实现原创 2022-08-06 11:20:20 · 135 阅读 · 0 评论 -
动手学深度学习_Batch Normalization
Batch Normalization的原理、优势与代码实现。原创 2022-08-05 20:56:01 · 232 阅读 · 0 评论 -
动手学深度学习_GoogLeNet / Inceptionv1v2v3v4
GoogLeNet 是根据 NiN 中串联网络的思想,在此基础上进行改进。篇论文的一个重点是解决了什么样大小的卷积核最合适的问题。 毕竟,以前流行的网络使用小到 1 × 1,大到 11 × 11 的卷积核。 本文的一个观点是,有时使用不同大小的卷积核组合是有利的。这里我们写的代码,是GoogLeNet 的简化版,原版的实现我贴到最后,就不逐一分析了,基本思路一致。...原创 2022-08-05 09:38:07 · 563 阅读 · 2 评论 -
动手学深度学习_NiN
NiN网络的结构与实现原创 2022-08-04 19:02:58 · 136 阅读 · 0 评论 -
动手学深度学习_VggNet
Vgg网络结构+实现原创 2022-08-04 16:22:53 · 118 阅读 · 0 评论 -
动手学深度学习_AlexNet
AlexNet结构与代码实现(MNIST数据集)原创 2022-08-04 14:06:39 · 383 阅读 · 0 评论 -
动手学深度学习_LeNet
利用LeNet实现MNIST手写数字的识别原创 2022-08-04 09:33:27 · 504 阅读 · 0 评论 -
动手学深度学习_卷积神经网络CNN
MLP到CNN的转变,transitional invariance平移不变性,locality 局部性,图像卷积,互相关计算,卷积层,padding填充,stride步长,1 x 1卷积,pooling汇聚层(池化层)原创 2022-08-03 19:55:51 · 330 阅读 · 0 评论 -
动手学深度学习_多层感知机
MLP实现 + 激活函数的介绍原创 2022-08-01 19:49:12 · 477 阅读 · 0 评论 -
动手学深度学习_softmax回归
softmax回归 + pytorch实现原创 2022-07-30 11:08:38 · 183 阅读 · 0 评论 -
动手学深度学习_线性回归
线性回归 + pytorch实现原创 2022-07-29 21:42:16 · 274 阅读 · 0 评论 -
动手学深度学习__张量
关于向量、矩阵和张量的一些简单计算,利用pytorch实现原创 2022-07-28 20:58:49 · 275 阅读 · 0 评论 -
动手学深度学习__数据操作
数据操作原创 2022-07-28 15:09:11 · 169 阅读 · 0 评论 -
BatchNorm&&LayerNorm
BatchNorm与LayerNorm区别比较原创 2022-07-26 16:02:52 · 239 阅读 · 0 评论 -
目标函数/代价函数/损失函数
Loss Function,损失函数,机器学习关于单个样本的预测值与真实值的差。损失越小,模型越好。常见的Loss Function有:0-1损失函数:平方损失函数:绝对值损失函数:对数损失函数:Cost Function,代价函数,机器学习关于整个样本的预测值与真实值的差。常见的Cost Function有:均方误差函数,均绝对误差函数,交叉熵函数Object Function,目标函数,包含损失函数+正则化项。...原创 2021-10-24 15:31:52 · 96 阅读 · 0 评论 -
L1 loss与L2 loss对比分析
L1 loss 均绝对误差函数(MEAN Absolute Error)描述模型预测值和真实值之间距离的均值MAE连续,但是在y-ƒ(x)=0处不可导。并且可以看到MAE的梯度为±1,对于函数的极小值其附近梯度不变,这非常不利于模型训练。但正因如此,对于异常值,并没有太大影响(因为MAE计算的是误差绝对值,其惩罚是固定的)所以健壮性更好。L2 loss均方误差函数(MEAN Square Error)描述模型预测值和真实值之间差值平方的均值MSE也...原创 2021-10-11 21:53:43 · 1305 阅读 · 1 评论