![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
非鱼工作室
目前还不知道要做什么,且行且看吧
展开
-
Input type (torch.cuda.FloatTensor) and weight type (torch.FloatTensor) should be the same
Input type (torch.cuda.FloatTensor) and weight type (torch.FloatTensor) should be the same原创 2022-10-27 11:48:35 · 797 阅读 · 1 评论 -
吴恩达课程测试题dropout和Inverted-dropout
为什么第7题7、利用Inverted-dropout技术,在测试的时候:【答案是加粗部分】使用dropout(随机失活神经元),不保留训练过程计算中使用过的1/keep-prob因子。使用dropout(随机失活神经元),保留训练过程计算中使用过的1/keep-prob因子。不使用dropout(不随机失活神经元),保留训练过程计算中使用过的1/keep-prob因子。不使用dropout(不随机失活神经元),不保留训练过程计算中使用过的1/keep-prob因子。首先理清楚dropou.原创 2021-08-08 12:16:23 · 651 阅读 · 0 评论 -
吴恩达课程-直观连接反向传播-个人理解
在课程中吴恩达解释了反向传播求导时,下面三个式子的来源,但我觉的不直观首先说一下这个,根据链式法则,下图中,对a求导,然后用da来表示求导的结果,用代表对的求导结果,那么对的求导就是da乘以然后 而为什么要有转置,我的理解是,我们先略去y,然后 可以看到和都是n行m列的矩阵,肯定不能相乘的,只能把转置才能和相乘 。...原创 2021-07-27 13:20:39 · 182 阅读 · 0 评论