最大化互信息

总说

因为,一般做分类的,交叉熵很常见吧,类似KL散度或者交叉熵,本质上就是利用“编码长度”作文章。比如KL散度就是,不完美的概率 q q q去编码完美信息条件下的概率 p p p,从而多需要的编码长度。这种都是利用直接预测的某件事情的概率去做的。

比如,我需要预测这张图是不是猫,预测的猫的概率为 p ( x ) p(x)

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
NMI(Normalized Mutual Information)是一种用于衡量聚类结果相似度的评价指标。它结合了信息熵和互信息的概念,可以用来衡量两个聚类结果之间的相似程度。NMI的计算公式可以表示为互信息除以聚类结果熵的最大值,从而将其标准化。 在Python中,可以使用sklearn库的metrics模块来计算NMI。具体步骤是导入相应的模块(from sklearn import metrics),然后提供两个聚类结果的标签(比如A和B),最后调用normalized_mutual_info_score函数计算NMI的值。 下面是一个示例代码: ```python from sklearn import metrics A = [1, 1, 1, 2, 3, 3] B = [1, 2, 3, 1, 2, 3] result_NMI = metrics.normalized_mutual_info_score(A, B) print("result_NMI:", result_NMI) ``` 以上代码会输出NMI的值,其中A和B是两个聚类结果的标签。你可以根据实际的聚类结果替换A和B的值,从而计算得到相应的NMI。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [聚类的评价指标NMI标准化互信息+python实现+sklearn调库](https://blog.csdn.net/weixin_42764932/article/details/114384803)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* [互信息计算matlab代码-adjusted_mutual_information:R代码,用于在聚类之间快速且并行地计算调整后的互信息](https://download.csdn.net/download/weixin_38522214/19144881)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值