机器学习笔记:FLOPs

本文介绍了FLOPS(每秒浮点运算次数)和FLOPs(浮点运算数)的概念,它们分别用于衡量硬件性能和算法复杂度。在卷积运算中,每个红色单元格的计算量为2-1个乘法和加法,总FLOPs可通过单元格数量计算。在全连接层中,每个神经元的运算量为2倍输入数量,总FLOPs为输入和输出神经元数量的乘积。
摘要由CSDN通过智能技术生成

FLOPS与FLOPs

FLOPS:floating point operations per second的缩写,意指每秒浮点运算次数,理解为计算速度。是一个衡量硬件性能的指标。

FLOPs:注意s小写,是floating point operations的缩写(s表复数),意指浮点运算数,理解为计算量。可以用来衡量算法/模型的复杂度。

2 卷积的FLOPs

输出的红色单元格需要的运算数量:

  •  输入的虚线部分和K1进行逐元素相乘
    • 需要k_H \cdot k_W \cdot C_{in}次乘法
  • 上一行乘法的结果相加
    • 需要k_H \cdot k_W \cdot C_{in}-1次加法
  • ——>一个单元格需要的运算量为2k_H \cdot k_W \cdot C_{in}-1
  • 一共有C_{out} \cdot H_{out} \cdot W_{out}个单元格
    • ——>FLOPs为(2k_Hk_WC_{in}-1)C_{out}H_{out}W_{out}

3 全连接层的FLOPs

 输出层每一个神经元需要的乘法数量为:Cin 次【每个输入神经元乘以对应的权重】

 输出层每一个神经元需要的加法数量为:Cin-1次【上一行Cin个乘法结果相加】

加上bias,所以输出层每一个神经元需要的运算数量为2Cin

一共有Cout个神经元,所以FLOPs为2Cin*Cout

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UQI-LIUWJ

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值