人工智能
文章平均质量分 58
深度学习,强化学习,深度强化学习。
嘻嘻作者哈哈
喜欢折腾技术。寒窗苦读无人晓,一朝成名天下知。
展开
-
零基础入门语义分割-Task1 赛题理解
赛题地址:零基础入门语义分割-地表建筑物识别Datawhale地址:零基础入门语义分割-地表建筑物识别 专题一、解题思路先用一个基础模型跑通训练过程。搭建好基础框架。在基础模型的基础上,进行数据增广,扩充数据量。划分出验证集,用于训练过程中调参等等。使用更强大的模型进行训练。将多个模型训练的结果进行集成。二、数据集理解(一)、RLE 编码与解码 rle是一种有效的二值存储格式,用不同码字来表示连续的黑、白像素数,可以简单有效的对mask进行压缩和解压。编码解码原创 2021-02-20 19:16:15 · 190 阅读 · 0 评论 -
深度学习批标准化层BN
一、BN的作用 原因:当网络很深的时候,如果初始输入数据很小,比如介于[0, 1],前向传播时,会导致数据越来越小,最后导致数据趋向于0。导致反向传播时,梯度可能会消失,使模型无法训练。如果输入数据很大时,前向传播使数据越来越大,反向传播求梯度时,梯度可能会爆炸,同样不利于训练。二、BN优点三、BN算法四、PyTorch的BN注:不管有多少个样本,一个样本有多少个特征维度(特征图个数)。BN都是在相同的特征维度上进行计算均值、方差、γ和β。四个重要参数:weigh原创 2021-01-01 23:30:30 · 918 阅读 · 0 评论 -
深度学习入门:return -np.sum(np.log(y[np.arange(batch_size), t] + 1e-7)) / batch_size
缘由:在学习深度学习入门:基于Python的理论与实现时,没有看懂第四章交叉熵误差函数,当监督数据采用非one-hot表示时。所以做了一个小测试案例,终于明白了,花了我几个小时的时间,学习不能着急呀。一、结果和细节分析注:使用mnist手写数字体数据集。(1)、交叉熵误差函数输入数据只有一个时:y和t都是1*n的矩阵,只需要求一行的相应和就可以得到这个数据对应的误差。采用mini_batch批处理N个数据时:y有多行多列,每一行代表一个数据。计算第一行时,n先取0表示第一行,k=1,2,3,…来原创 2020-10-19 22:51:22 · 2115 阅读 · 15 评论 -
解析深度学习入门代码f = lambda w: net.loss(x, t)
在学习 深度学习入门:基于python的理论与实现 第四章时,求损失函数对应神经网络权重的梯度遇到该代码,惑之,故研之。一、先来看一个lambda简单例子def my_test(x): # 代码3 print("my_test") return xif __name__ == "__main__": f = lambda x : my_test(x) # 代码1 print(f(2)) # 代码2解析:f = la原创 2020-10-14 11:41:58 · 4103 阅读 · 21 评论