- 博客(2)
- 收藏
- 关注
原创 《Distilling the Knowledge in a Neural Network》论文阅读笔记
《Distilling the Knowledge in a Neural Network》 Abstract: 对于很多大型的机器学习任务来说,集成是一个非常简便就能提高表现的方法,但是集成方法计算量太大。Caruana等人说明了将一个大型网络(集成的模型)中的知识压缩到一个便于计算的小模型中是可取的,Hinton等人提出了一种不同的知识压缩的技巧—知识蒸馏。作者在MNIST上将一个商用网络的知识蒸馏出来应用于一个小模型后,效果有了显著的提高。 Introduction: 基于幼虫理论—“许多
2021-02-01 15:16:23
459
原创 Python实现部分主元法下LU分解
Python实现部分主元法下LU分解 ''' 《矩阵分析与应用》小作业1 实现部分主元法下的LU分解 by苗栋 程序大体介绍: 引入了numpy便于对数组的操作 ①寻找出一列中绝对值最大的元素作为主元并进行数组的行交换,并将L主对角线元素置为1 ②构造两个for循环,取出L和A对应的值并保存 L[j, i] = A[j, i] / A[i, i] A[j, :] = A[j, :] - L[j, i] * A[i, :] ③最后打印结果 ''' import
2020-10-06 22:47:14
1030
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人