![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
神经网络
天晴兮
这个作者很懒,什么都没留下…
展开
-
神经网络-数据不均衡解决方法之一--为交叉熵损失加入权值
标题神经网络-数据不均衡解决方法之一–为交叉熵损失加入权值 面对数据不均衡的问题,除了扩增数据集之外,一个方法可以重新定义loss值,让你注重的类别造成的损失更大一些。 在pytorch的框架里,加上一个不均衡的weight值是十分必要的。 比如 1类数据是0类数据的三倍 那么在最终分类时可能模型就直接把所有数据都分为1类。那么通过算loss值时加上一个weight权重,给样本量少的0加上一个较大的权重。可以缓解这种模型把数据全部分为1类的问题 具体代码为: weight=torch.from_numpy(原创 2020-11-09 19:50:56 · 2629 阅读 · 0 评论 -
神经网络-pytorch-自定义损失函数
神经网络-pytorch-自定义损失函数 首先要明确的是pytorch的损失函数是可以自制定的,但是由于数据回传等等因素(其实我也不知道具体机制)总之就是只改变loss的值可能无法产生作用。 比如原来的loss定义为: loss=F.nll_loss(logsoft_prob,formatted_label_x) 如果你直接在上面加上一个1,或者是随便什么的算式,那样是没有效果的,整个网络的预测结果没有丝毫变化,参数更新值也和加之前一模一样。 在这里,一般会将神经网络某一层的参数计算一个f1值或者f2值来原创 2020-11-09 19:46:14 · 1034 阅读 · 1 评论 -
RNN_一只小白的观察记录
人工智能大火的当下,随便搜一搜RNN,文章就一堆,很多讲理论的,也有很多附上代码的。不过咱看了理论后自己写不出代码,看人家的代码也总是掌握不到要点。自己真正用到的时候还是懵。 那么,本文就记录一下我这个小白的学习思路吧。 什么是rnn? 你以为我要列出公式推导或者原理图了吗?不不不,我只会放链接: 原理性介绍https://blog.csdn.net/zhaojc1995/article/deta...原创 2019-10-10 16:47:09 · 243 阅读 · 0 评论