深度学习
Cris_Lee卡卡卡
https://github.com/lrs1353281004
展开
-
交叉熵信息学解释及其在机器学习中的应用
待填充原创 2018-09-17 23:46:44 · 1104 阅读 · 0 评论 -
机器学习损失函数梳理
没有一个适合所有机器学习算法的损失函数。针对特定问题选择损失函数涉及到许多因素,比如所选机器学习算法的类型、是否易于计算导数以及数据集中异常值所占比例。文章目录均方误差/平方损失/L2 损失(MSE)平均绝对误差/L1 损失平均偏差误差(mean bias error)Huber损失函数Hinge Loss/多分类 SVM 损失交叉熵损失/负对数似然Log-Cosh损失Focal loss均方...原创 2019-02-15 14:39:39 · 1164 阅读 · 0 评论 -
机器学习优化算法 (Optimization algorithms)总结
文章目录批量梯度下降、随机梯度下降与mini-batch随机梯度下降批量梯度下降(BGD)随机梯度下降(SGD)mini-batch 随机梯度下降MomentumRMSpropAdam批量梯度下降、随机梯度下降与mini-batch随机梯度下降在应用机器学习算法时,我们通常采用梯度下降法来对采用的算法进行训练。其实,常用的梯度下降法还具体包含有三种不同的形式,它们也各自有着不同的优缺点。下面...转载 2019-02-15 15:45:09 · 3007 阅读 · 0 评论 -
softmax 的python3实现 - 优化版本
Softmax 函数定义Softmax函数,或称归一化指数函数,是逻辑函数的一种推广。它能将一个含任意实数的K维向量“压缩”到另一个K维实向量中,使得每一个元素的范围都在之间,并且所有元素的和为1。该函数的形式通常按下面的式子给出:其中, j = 1, …, Ksoftmax 的python3实现import numpy as npdef softmax(x): """Co...原创 2019-03-13 14:58:14 · 934 阅读 · 0 评论 -
IOU(交并比)计算的python3实现
IOU定义在目标检测的评价体系中,有一个参数叫做 IoU ,简单来讲就是模型产生的目标窗口和原来标记窗口的交叠率。具体我们可以简单的理解为: 即检测结果(DetectionResult)与 Ground Truth 的交集比上它们的并集,即为检测的准确率 IoU :根据定义,IOU的取值范围是[0,1].python 代码实现# encoding: utf-8def compute_I...原创 2019-03-13 15:57:41 · 17288 阅读 · 1 评论 -
pytorch(1.1.0) StepLR 中 get_lr()方法的一个bug
import torchfrom torch.optim.lr_scheduler import StepLRmodel = torch.nn.Linear(5,10)optim = torch.optim.SGD(model.parameters(), lr = 1)scheduler = StepLR(optim,step_size=5 , gamma=0.1)model.train...原创 2019-07-31 22:50:27 · 4535 阅读 · 6 评论 -
Chinese NER Using Lattice LSTM [ACL 2018] 阅读笔记
论文题目:Chinese NER Using Lattice LSTM论文出处:ACL 2018论文地址: https://arxiv.org/abs/1805.02023源码: https://github.com/jiesutd/LatticeLSTM概要论文提出了一种适用于中文NER任务的Lattice-Lstm结构。主要思想,综合利用字符级和单词级信息。如上图所示。在每一个字...原创 2019-08-08 13:45:48 · 1003 阅读 · 0 评论 -
Graph Convolutional Networks with Argument-Aware Pooling for Event Detection[AAAI 2018]阅读笔记
论文题目:Graph Convolutional Networks with Argument-Aware Pooling for Event Detection论文出处:AAAI 2018论文地址:https://ix.cs.uoregon.edu/~thien/pubs/graphConv.pdf论文概要该论文提出一个基于句法依存树的图卷积(Graph Convolutional Ne...原创 2019-08-15 20:49:49 · 2290 阅读 · 1 评论