机器学习
文章平均质量分 65
x66ccff
编程爱好者
展开
-
【概率统计】生存分析
SA原创 2023-12-27 15:08:54 · 774 阅读 · 0 评论 -
【taichi】利用 taichi 编写深度学习算子 —— 以提取右上三角阵为例
本文以取 (bs, n, n) 张量的右上三角阵并展平为向量 (bs, n*(n+1)//2)) 为例,展示如何用 taichi 编写深度学习算子。如图,要把形状为bsnn的张量,转化为bs2nn1的向量。我们先写一个最简单的最慢的纯 python 循环实现方法。原创 2023-02-13 21:17:45 · 627 阅读 · 0 评论 -
【pytorch】.mul .add_ 和直接 + * 有什么区别
mul()和.add_()是 PyTorch 中的 in-place 操作,这意味着它们会直接在原变量上进行操作,而不会返回新的变量。相反,和是 Python 的运算符,它们会返回新的变量,不会改变原变量的值。对于大规模的数据处理,使用 in-place 操作可以节省内存空间。原创 2023-01-23 11:37:22 · 993 阅读 · 1 评论 -
【pytorch】Softmax,LogSoftmax,CrossEntropyLoss,NLLLoss,F.cross_entropy, F.binary_cross_entropy傻傻分不清楚?
在实际应用中,如果发现模型训练过程中出现数值稳定性问题,或者需要加速训练过程,使用 LogSoftmax + NLLLoss 可能是一种较优的选择。在计算损失时,使用 NLLLoss 计算对数似然损失需要进行一次对数运算,而 CrossEntropyLoss 需要进行两次对数运算。在输入数值较大时,使用 Softmax 会导致溢出,而 LogSoftmax 则不会。而 LogSoftmax 之后,得到预测概率分布的对数。可以看到,这两种搭配方法计算的结果是一致的。,负对数似然损失就是将两个分布。原创 2023-01-13 09:30:10 · 1083 阅读 · 0 评论 -
【pytorch】训练时爆 Nan 的排查方法
【pytorch】训练时爆 Nan 的排查方法。转载 2022-12-29 23:34:31 · 534 阅读 · 0 评论 -
【pytorch】MNIST 梯度上升法求使得某类概率最大的样本
目标:用 MNIST 训练一个 CNN 模型,然后用梯度上升法生成一张图片,使得模型对这张图片的预测结果为 8。原创 2022-11-21 14:37:34 · 682 阅读 · 0 评论 -
【pytorch】GaussianNLLLoss 官方文档翻译
介绍 Pytorch 官方文档的高斯负对数似然函数 Gaussian NLL Loss。翻译 2022-11-14 10:08:07 · 711 阅读 · 0 评论 -
【pytorch】在 Jupyter Notebook 中使用损失图绘制库 livelossplot
livelossplot 是一个方便的损失和精确度指标绘制工具,可以方便地在Jupyter 笔记本中当前的机器学习评价指标并。原创 2022-11-11 12:32:53 · 1061 阅读 · 0 评论 -
【GNN】dgl 卷积方式 RelGraphConv
本文对 dgl 的卷积方式说明文档进行翻译。译者注: RelGraphConv 关系图卷积方式是在 GraphConv 图卷积方式上的改进,解决了 GraphConv 无法考虑到图中具有不同属性的边的问题,使用 RelGraphConv 可以同时汇聚边信息和结点信息。翻译 2022-11-11 10:44:37 · 776 阅读 · 0 评论 -
【GNN】用 GCN 预测 CoraGraphDataset 结点类别
利用 GCN,在数据集上进行训练,根据图结构和特征字段(1433 维词向量),对结点 label 类别进行预测。原创 2022-11-10 15:25:29 · 1024 阅读 · 0 评论 -
【面试大题】CNN 参数计算
CNN 参数计算原创 2022-07-27 19:23:34 · 1202 阅读 · 0 评论 -
【面试大题】决策树
决策树面试大题原创 2022-07-27 19:19:06 · 1006 阅读 · 0 评论