FM学习笔记

FM是一种适用于高维稀疏数据的监督学习算法,常用于分类、回归和排序任务。它通过矩阵分解解决数据稀疏性问题,与SVM相比在处理稀疏数据时表现更优。FM模型方程通过两两特征组合学习,采用随机梯度下降进行参数更新,时间复杂度为O(KN)。
摘要由CSDN通过智能技术生成

前言

Factorization Machines 这篇论文于2011年提出,也就是在计算广告领域广为应用的FM。最近仔细学习了FM的算法原理,参考了很多大佬的资料和观点,在此总结。

正文

FM是个啥?

简单的说,FM是一种适合应用在高维稀疏数据场景的、具有线性时间复杂度的监督学习算法,其可以用作分类、回归、排序等类型的任务。
对于逻辑回归,我们都不陌生。在使用逻辑回归解决问题时,由于模型比较容易欠拟合,大家都一定尝试着基于对数据的理解或基于对业务的理解,去构造特征。
常用的一种特征工程方法叫做组合特征,也就是说,考虑原有的特征之间组合的关系,例如高、富、帅作为三个特征,组合在一起就非常有意义。
那么,当数据本身维度特别高且稀疏的时候,我们会遇到一个很难搞的问题,即由于数据稀疏,很多组合的特征在数据中没有对应,无法学习到信息
而FM通过矩阵分解的思想较好的解决了这个问题,该方法和推荐系统中的隐语义模型SVD有着异曲同工之妙。

FM的模型方程

为了方便理解,先介绍逻辑回归的模型方程:
逻辑回归的模型方程
而FM的模型方程可以理解为(只讨论二阶组合情况):

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
FM33G0xx的主要特性如下:  宽电压范围: 1.8~5.5V  工作温度范围: -40℃~+85℃  处理器内核  ARM Cortex-M0+  支持用户/特权模式  支持中断向量表重定向(VTOR)  最高40MHz主频  SWD调试接口  低功耗技术平台  典型运行功耗180uA/MHz  32KHz下LPRUN功耗: 15uA  Sleep模式下带LCD显示: 6uA  DeepSleep模式, RTC走时+24KB RAM保持+CPU内核保持: 1.2uA  RTC Backup模式, RTC走时+512字节备份寄存器, 0.9uA  存储器  128/256KB Flash空间  Flash擦写寿命: >20,000次  Flash数据保存时间: 10年@85℃  用户代码保护  24KB RAM空间  最大支持73个GPIO,最多24个外部引脚中断, 最多8个异步唤醒引脚  丰富的模拟外设  高可靠、可配置BOR电路(支持4级可编程下电复位阈值)  超低功耗PDR电路(支持4级可编程下电复位阈值)  可编程电源监测模块(SVD)  2x低功耗模拟比较器  11-bit低功耗∑-△ADC,最大支持9个外部通道  高精度温度传感器,精度优于+/-2℃  通信接口  UART*6  7816智能卡接口*2  SPI*3,主从模式  I2C*1, 主机400K  7通道外设DMA  可编程CRC校验模块  定时资源  8-bit基本定时器*4  16-bit扩展定时器*4  16-bit通用定时器*1  24-bit Systick*1  16-bit低功耗定时器*1,可在休眠模式下工作  带窗口的CPU看门狗定时器*1  系统看门狗定时器*1  低功耗实时时钟日历(RTCC),带有数字调校功能, 最高调校精度+/-0.06ppm
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值