- 博客(4)
- 收藏
- 关注
原创 神经网络与深度学习(第四周)
在独热编码中,每个离散变量的可能取值被映射到一个高维空间中的一个点,在这个点上,对应于该取值的维度值为1,而其他维度的值为0。NeRF(Neural Radiance Fields)最早在2020年ECCV会议上发表,作为Best Paper,其将隐式表达推上了一个新的高度,仅用 2D 的 posed images 作为监督,即可表示复杂的三维场景。判别模型 D 是一个二分类器,估计一个样本来自于训练数据(而非生成数据)的概率,如果样本来自于真实的训练数据,D输出大概率,否则,D输出小概率。
2024-04-28 23:55:58
897
1
原创 神经网络与深度学习(第三周)
比如,把蓝色虚线放到第一张图片下面,也就 是说让系统只识别出最上面的那张飞机图片,那么Precision的值就 是100%,而Recall的值则是20%。我们有 𝑠 2个框,每个框的bb个数为𝐵,分类器可以识别出𝐶种不同的物体, 那么所有整个ground truth的长度为𝑆 × 𝑆 × (𝐵 × 5 + 𝐶) YOLO v1中,这个数量是30 YOLO v2和以后版本使用了自聚类的anchor box为bb, v2版本为𝐵 = 5, v3中 𝐵 =9。目标检测是一种在图像中识别和定位多个物体的技术。
2024-04-21 23:49:06
593
原创 神经网络与深度学习课程总结(第二周)
后来,ResNeXt, Residual-Attention,DenseNet,SENet等也各有贡献,各自引入了Group convolution,Attention,Dense connection,channelwise-attention等,最终Imagenet上error rate降到了2.2%。对于算的慢问题,可以减少权值连接,每一个节点只连到上一层的少数神经元,即局部连接网络。CNN的基本思想是用卷积获得图形的特征,一般是用一个3乘3的卷积矩阵,如图所示的卷积矩阵是【1 0 1;
2024-04-08 14:53:55
648
原创 神经网络与深度学习(第一周)
更多层感知器网络,可识别更为复杂的图形。多层前馈网络的反向传播 (BP)学习算法,简称BP算法,是有导 师的学习,它是梯度下降法在多层前馈网中的应用。网络结构:见图,𝐮(或𝐱 )、𝐲是网络的输入、输出向量,神经元 用节点表示,网络由输入层、隐层和输出层节点组成,隐层可一层 ,也可多层(图中是单隐层),前层至后层节点通过权联接。已知网络的输入/输出样本,即导师信号 ➢ BP学习算法由正向传播和反向传播组成: ① 正向传播是输入信号从输入层经隐层,传 向输出层,若输出层得到了期望的输出, 则学习算法结束;
2024-04-01 00:29:01
546
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人