- 博客(7)
- 资源 (4)
- 收藏
- 关注
原创 数据归一化(附简单实现和sklearn简单处理数据)
有些变量之间差距太大.量纲不同.影响太大.可能会占主导地位. 为了取消这种问题.所以需要归一化 归一化:将所有数据映射到同一尺度 最值归一化:把所有的数据映射到0-1之间 适用于有边界为题的,如果存在极端的极值.会影响归一化的结果 x = np.random.randint(0,100,size=100) (x-x.min())/(x.max()-x.min()) #多行归一化 x = np.random.randint(0,100,(50,2)) x = np.array(x, dtype = fl
2020-06-24 15:36:59 830
原创 sklearn应用(介绍学习过的算法中用到sklearn中的内容,方便以后查询(主要是在knn中应用,但是涉及很多有用的思想
knn算法实现和应用 from sklearn import datasets from sklearn.neighbors import KNeighborsClassifier import numpy as np iris = datasets.load_iris() #加载数据集 x = iris.data y = iris.target #对数据进行乱序 shuffle_index = np.random.permutation(len(x)) test_index = int(0.2 * le
2020-06-08 22:31:50 153
原创 sklearn超参数和网格搜索的简单介绍
超参数:在算法运行前需要决定的参数 模型参数:算法训练过程中学习到的参数 本文简单介绍超参数如何使用sklearn查找.只是为了介绍使用封装好的方法…(其实网格查找就是把所有的参数都遍历一遍,但是人家模型写的更好,所以仅介绍如果调用.)后期如果复习到了可能再补充细节 ...
2020-06-08 12:15:58 650
原创 简单knn算法实现和简单讲解和sklearn实现
knn算法简单实现 简单介绍 knn算法比较简单,就是将待检测的数据放入数据集中,找出与之最近的k个数据进行投票,投票结果即为待测数据的类别。k必须为奇数,否则投票结果可能会出现意外。 简单代码示例 import numpy as np from math import sqrt from collections import Counter x = [[3.1123122,2.32], [3.53,1.78], [1.24,3.36], [3.58,4.67],
2020-06-05 14:33:20 629
Gradient-Based Learning Applied to Document Recognition.pdf
2021-04-17
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人