ML
小亚呀
怕什么真理无穷 进一寸有一寸的欢喜
展开
-
稀疏向量和密集向量
稀疏向量和密集向量都是向量的表示方法密集向量和稀疏向量的区别: 密集向量的值就是一个普通的Double数组 而稀疏向量由两个并列的 数组indices和values组成 例如:向量(1.0,0.0,1.0,3.0)用密集格式表示为[1.0,0.0,1.0,3.0],用稀疏格式表示为(4,[0,2,3],[1.0,1.0,3.0]) 第一个4表示向量的长度(元素个数),[0,2,3]就是indic...翻译 2018-09-21 11:47:59 · 3208 阅读 · 2 评论 -
元素级&向量级 显式&隐式
bit-wise VS vector-wise假设隐向量的维度为3维,如果两个特征(对应的向量分别为(a1,b1,c1)和(a2,b2,c2)的话)在进行交互时,交互的形式类似于f(w1 * a1 * a2,w2 * b1 * b2 ,w3 * c1 * c2)的话,此时我们认为特征交互是发生在元素级(bit-wise)上。如果特征交互形式类似于 f(w * (a1 * a2 ,b1 * b2,...原创 2018-10-08 10:57:25 · 1072 阅读 · 1 评论 -
多任务学习MTL
多任务学习是一种归纳迁移机制,基本目标是提高泛化性能。多任务学习通过相关任务训练信号中的领域特定信息来提高泛化能力,利用共享表示采用并行训练的方法学习多个任务。...原创 2018-11-05 21:48:31 · 238 阅读 · 0 评论 -
在线学习FTRL
FM:回归问题:最小均方误差(the least square error) 均方(一组数的平方的平均值)二分类问题:对数损失函数,其中表示的是阶跃函数Sigmoid对数损失是用于最大似然估计的,一组参数在一堆数据下的似然值,等于每一条数据的概率之积,而损失函数一般是每条数据的损失之和,为了把积变为和(我的理解:方便计算),就取了对数。再加个负号是为了让最大似然值和最小损失对应起来(本...原创 2018-11-29 21:32:59 · 402 阅读 · 0 评论