深度学习
文章平均质量分 72
coder1479
Coding Architect.
展开
-
MMS论文中关于语种识别的内容摘要
MMS论文中关于语种识别的内容摘要原创 2024-08-26 21:25:54 · 308 阅读 · 0 评论 -
准备pyannote-audio开发环境
准备开发环境原创 2024-08-25 23:13:52 · 257 阅读 · 0 评论 -
pyannote-database简介
pyannote.database简介翻译 2024-08-25 11:24:14 · 22 阅读 · 0 评论 -
pyannote源码阅读(二)
pyannote.core.Annotation的设计要点翻译 2024-08-25 11:22:33 · 19 阅读 · 0 评论 -
pyannote源码阅读(一)
pyannote源码阅读原创 2024-08-24 18:18:21 · 327 阅读 · 0 评论 -
Dropout学习笔记
针对《动手学深度学习v2》视频中李沐老师关于Dropout的问答内容进行了整理。原创 2022-05-04 21:22:56 · 4845 阅读 · 0 评论 -
折腾MNIST系列——增加LayerNorm减少训练时间
本文在官方MNIST代码基础上,增加LayerNorm层,从实验结果看, LayerNorm的确如原论文所说,加快了模型收敛速度。原创 2022-04-16 19:38:37 · 691 阅读 · 0 评论 -
理解网络权重初始化(Pytorch)
利用线性代数和概率基础知识理解神经网络权重初始化方法。原创 2022-04-07 20:29:57 · 1960 阅读 · 0 评论 -
Pytorch学习笔记——fan_in和fan_out
在进行网络参数初始化时,要传入fan_in和fan_out,本文主要讨论它们的含义,以及如何计算。原创 2022-04-05 22:27:07 · 5234 阅读 · 0 评论 -
Pytorch学习笔记——kaiming_uniform初始化
Pytorch初始化方法之kaiming均匀初始化学习笔记。原创 2022-04-02 21:44:16 · 8306 阅读 · 5 评论 -
Pytorch学习笔记——Linear模型源码学习
线性模型是最基本的模型,但包含了很多知识点,本文通过阅读pytorch的源码学习Linear层的构造和实现。原创 2022-03-30 22:56:03 · 1056 阅读 · 0 评论 -
参数初始化策略——截断的正态分布采样(Pytorch)
本文主要记录pytorch内置的采样截断的正态分布的使用方法。原创 2022-03-29 22:24:12 · 3515 阅读 · 2 评论 -
Torchvision中datasets.MNIST设计方法分析
本文分析了torchvision中MNIST数据集的设计思路,学习如何设计自己的数据集模块。原创 2022-03-27 15:41:15 · 3847 阅读 · 0 评论 -
Pytorch学习笔记——Contiguous vs non-contiguous tensor
pytorch中contigious张量和非contigious张量会对某些操作带来影响,涉及到张量如何在内存中存储的知识,值得了解一下。翻译 2022-03-19 17:21:47 · 542 阅读 · 0 评论 -
腾讯开源超分辨率算法(Real-SR )踩坑记录——vkCreateInstance failed -9错误
腾讯开源的超分辨率Real-SR算法,在安装测试的过程中,遇到了不少问题,找到了一条可以走通的路,不一定是最好的解决方案。原创 2022-03-18 22:17:20 · 3475 阅读 · 0 评论 -
Pytorch学习笔记——reshape和view的区别
在使用pytorch或者读别人的代码时,reshape和view是最常用的,都是矩阵变形,二者到底有什么区别呢?翻译 2022-03-17 20:37:17 · 953 阅读 · 0 评论 -
为什么LogSoftmax比Softmax更好?
翻译了pytorch论坛中关于Softmax和LogSoftmax性能差异的讨论帖子,原作者提供了很好的洞见,值得一读。翻译 2022-03-15 10:32:56 · 3426 阅读 · 0 评论 -
使用MNIST测试Swish激活函数的提升效果
利用Pytorch官方的MNIST例子测试swish激活函数相对于ReLU的提升效果。原创 2022-03-14 19:58:42 · 2376 阅读 · 0 评论 -
使用pytorch动手实现完整的GLU层
动手实现完整的GLU层。原创 2022-03-13 23:22:06 · 4500 阅读 · 4 评论 -
激活函数Swish和Hardswish简介
Swish激活函数和Hardswish激活函数学习笔记。原创 2022-03-12 13:52:53 · 19766 阅读 · 3 评论 -
GLU(Gated Linear Unit,门控线性单元)简介
简单介绍门控线性单元的结构。原创 2022-03-11 20:07:54 · 21305 阅读 · 6 评论 -
逐句解析点积注意力pytorch源码(配图解)
结合pytorch源码和原始论文学习Scaled Dot-Product Attention的原理。原创 2022-03-10 13:40:03 · 4111 阅读 · 1 评论 -
torch.unsqueeze官方文档解读
本文是对torch.unsqueeze官方文档的解读,加入部分代码示例,方便理解。原创 2022-03-09 22:53:35 · 683 阅读 · 0 评论 -
MultiHeadAttension源码解析——batch_first参数含义
简单介绍多头注意力源码中batch_first参数的含义和相关概念。原创 2022-03-08 22:07:34 · 3177 阅读 · 0 评论 -
MarkupLM源码解析之Xpath Embedding
本文解析MarkupLM的Xpath嵌入生成原理。原创 2022-03-07 22:41:11 · 633 阅读 · 0 评论 -
SQuAD数据集简介
SQuAD(Stanford Question Answering Dataset)是一个阅读理解数据集。原创 2022-03-06 18:33:26 · 12371 阅读 · 2 评论 -
AttributeError: module ‘torch.onnx‘ has no attribute ‘set_training‘解决方案
使用pytorch可视化网络结构时,遇到了pytorch和tensorboardX版本不兼容问题,又不能轻易降低pytorch版本。原创 2022-02-22 22:05:00 · 3260 阅读 · 1 评论 -
pytorch学习笔记:Dropout层之torch.nn.Dropout
在神经网络训练过程中,通过Dropout方法可以有效降低过拟合,本文简单介绍了pytorch中Dropout层的使用方法。原创 2022-02-21 19:50:29 · 4863 阅读 · 3 评论 -
Python 3.5 NOTSET: “Final” = NotSetType.token错误解决方案
Python 3.5 使用nltk的坑,pytest版本过高。原创 2022-01-12 20:28:55 · 423 阅读 · 0 评论