机器学习
文章平均质量分 61
阿_牛
这个作者很懒,什么都没留下…
展开
-
Beam Search(集束搜索/束搜索)
作者:Fyuocuk链接:https://www.zhihu.com/question/54356960/answer/293804923来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。首先需要确定一个`Beam Size`,这里设置为2,意思是每个`word`后面的分支考虑概率最大的那两个`words`。比如下面的例子,从下往上首先分成A、B两个words,然后继续往上传播,句子变成是AA/AB/BA/BB这四种情况(绿色虚线)。考虑到`Beam Size=2`.转载 2021-12-05 22:17:22 · 424 阅读 · 0 评论 -
viterbi (维特比)算法
作者:路生链接:https://www.zhihu.com/question/20136144/answer/763021768来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。如下图,假如你从S和E之间找一条最短的路径,除了遍历完所有路径,还有什么更好的方法?viterbi维特比算法解决的是篱笆型的图的最短路径问题,图的节点按列组织,每列的节点数量可以不一样,每一列的节点只能和相邻列的节点相连,不能跨列相连,节点之间有着不同的距离,距离的值就不在图上一一标.转载 2021-12-05 22:11:08 · 276 阅读 · 0 评论 -
无约束优化系列:(0)梯度下降法和牛顿法推导(收敛性证明)
问题描述对于无约束凸函数求最值问题:minimizef(x)minimize \quad f(x)minimizef(x)f(x)f(x)f(x)为二次可微凸函数。我们假设该问题存在唯一最优解x∗x^*x∗,既然f(x)f(x)f(x)二次可微,则满足以下充要条件:f′(x∗)=0f'(x^*)=0f′(x∗)=0有时候,上式可以直接通过解析解求得最优解。但更多时候,无法求得解析解,如最小二乘的解析解里需要求逆,该逆不一定可以求出。此时,必须采用迭代算法,即计算一系列点x0,x1,x2,....原创 2021-04-28 19:23:49 · 1206 阅读 · 0 评论 -
对话管理DST:Deep Neural Network Approach for the Dialog State Tracking Challenge
数据集DSTC本论文方案参与DSTC的竞赛,队名为: ‘team1/entry1’.模型结构t:第t轮对话St,s:从第0轮到当前第t轮,槽位s通过SLU可能得到的槽值集合St,s ∪ {other槽值对}:槽位s在当前轮的用户目标goal。也是tracker需要预测的概率分布。“other”的概率表示用户的真实目标尚未出现,为SLU假设的概率。本文神经网络结构:, 0-t轮当做输入;输出|St, s|+1 的离散分布图 1: 对St,s集合中每一个可能取值v计算概率 E (t, v)原创 2021-01-09 23:38:22 · 520 阅读 · 1 评论 -
无约束优化系列:(五)L-BFGS 算法
机器学习算法中经常碰到非线性优化问题,如 Sparse Filtering 算法,其主要工作在于求解一个非线性极小化问题。在具体实现中,大多调用的是成熟的软件包做支撑,其中最常用的一个算法是 L-BFGS。为了解这个算法的数学机理,这几天做了一些调研,现把学习过程中理解的一些东西整理出来。目录链接(1)牛顿法(2)拟牛顿条件(3)DFP 算法(4)BFGS 算法(5)L-BFGS 算法...转载 2021-02-01 11:40:16 · 720 阅读 · 2 评论 -
无约束优化系列:(四)BFGS 算法
机器学习算法中经常碰到非线性优化问题,如 Sparse Filtering 算法,其主要工作在于求解一个非线性极小化问题。在具体实现中,大多调用的是成熟的软件包做支撑,其中最常用的一个算法是 L-BFGS。为了解这个算法的数学机理,这几天做了一些调研,现把学习过程中理解的一些东西整理出来。目录链接(1)牛顿法(2)拟牛顿条件(3)DFP 算法(4)BFGS 算法(5)L-BFGS 算法...转载 2021-02-01 11:39:08 · 971 阅读 · 1 评论 -
无约束优化系列:(三)DFP 算法
机器学习算法中经常碰到非线性优化问题,如 Sparse Filtering 算法,其主要工作在于求解一个非线性极小化问题。在具体实现中,大多调用的是成熟的软件包做支撑,其中最常用的一个算法是 L-BFGS。为了解这个算法的数学机理,这几天做了一些调研,现把学习过程中理解的一些东西整理出来。目录链接(1)牛顿法(2)拟牛顿条件(3)DFP 算法(4)BFGS 算法(5)L-BFGS 算法...转载 2021-02-01 11:37:20 · 520 阅读 · 0 评论 -
无约束优化系列:(二)拟牛顿法
机器学习算法中经常碰到非线性优化问题,如 Sparse Filtering 算法,其主要工作在于求解一个非线性极小化问题。在具体实现中,大多调用的是成熟的软件包做支撑,其中最常用的一个算法是 L-BFGS。为了解这个算法的数学机理,这几天做了一些调研,现把学习过程中理解的一些东西整理出来。目录链接(1)牛顿法(2)拟牛顿条件(3)DFP 算法(4)BFGS 算法(5)L-BFGS 算法作者: peghoty出处:http://blo...转载 2021-02-01 11:36:25 · 278 阅读 · 0 评论 -
无约束优化系列:(一)牛顿法
机器学习算法中经常碰到非线性优化问题,如 Sparse Filtering 算法,其主要工作在于求解一个非线性极小化问题。在具体实现中,大多调用的是成熟的软件包做支撑,其中最常用的一个算法是 L-BFGS。为了解这个算法的数学机理,这几天做了一些调研,现把学习过程中理解的一些东西整理出来。无约束优化系列链接(1)牛顿法(2)拟牛顿条件(3)DFP 算法(4)BFGS 算法(5)L-BFGS 算法出处:http://blog.csdn.net/itp...转载 2021-02-01 11:32:13 · 646 阅读 · 0 评论 -
算法模型评价详解:confusion matrix Accuracy Precision Recall F1 调和平均 加权F1 Micro-F1 Macro-F1 PRC ROC AUC
问题定义我们从简单到难,先定义任务为二分类,后面再推广到多分类就顺水推舟了。问题定义: confusion matrix 模型实际预测结果 预测为Positive的样本数 预测为Negative的样本数 待预测样本的真实标签总数 P:Positive TP:True Positive FN:FalseNegative N:Negative FP:False Positive TN:True Negative ...原创 2021-01-25 00:15:26 · 1690 阅读 · 1 评论 -
sklearn计算准确率、召回率、F1
“”"参考博客:https://blog.csdn.net/hfutdog/article/details/88085878预测文件:predict.csvimage_name label predict_1 predict_2 predict_3a01.jpg 悲伤 愤怒 高兴 中性a02.jpg 悲伤 高兴 悲伤 中性a03.jpg 高兴 悲伤 高兴 愤怒a04.jpg 高兴 悲伤 高兴 中性a05.jpg 中性 悲伤 愤怒 中性a06.jpg 中性 中性 高兴 高兴a07.jpg原创 2020-07-22 15:09:31 · 5855 阅读 · 0 评论