再说L2-norm

哈喽,上篇博文被某公司的大佬骂了一顿,其关注点在于博文的最后语气,而不是问题所在,行吧。这么大的人了,还抓不住重点,纠结计较于小事。

【声明:我的博文都是纯学术探讨,不涉及其他情绪。我有时候也是如此,但我尽量克制,不争辩】

做推荐的一个大佬[不知道昵称叫啥了,因为我退群了,群主说不让相亲。。。]告诉我经过L2范数归一化后的数其平方和为1,是这么个道理,但这样的意义在于什么??我也不知道。

顺便将sklearn实现方法贴出来,上面提及的博文是用np实现的。

from sklearn.preprocessing import Normalizer
import numpy as np

L2norm=Normalizer(norm='l2')
>>> yy
array([ -3, -10,  -6,   7,   7,   9])

>>> L2norm.fit_transform(yy.reshape(1, -1))
array([[-0.16666667,
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小李飞刀李寻欢

您的欣赏将是我奋斗路上的动力!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值