![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 78
Nicht_Sehen
这个作者很懒,什么都没留下…
展开
-
Pycharm 配置 gpu版TensorFlow
Pycharm: 2019.3.1Python: 3.7cuda: v10.1cudnn: v7.6.4TensorFlow: 2.0最近重装了系统,打算重新配置tensorflow的环境:D1.cuda 下载本来是直接在官网下载的10.2版本,突然发现cudnn没有支持10.2版本的,就下载了10.1版本,选择自己的系统适合的版本下载网址:https://develop...原创 2019-12-30 11:45:12 · 1474 阅读 · 0 评论 -
python 实现复合梯度公式及复合辛普森公式
1.复合梯形公式2.复合辛普森公式python实现import mathdef fun(x): return math.sin(x)/(x+1e-16) #加上1e-16避免除零错误# 复合梯度def tx(a,b,n): h=(b-a)/n fxi=0 xi=a for i in range(1,n): xi=xi+h...原创 2019-11-02 21:45:30 · 3217 阅读 · 1 评论 -
Win10下pytorch报错:BrokenPipeError: [Errno 32] Broken pipe
原因:不可使用多线程改正:将torch.utils.data.DataLoader函数中参数num_workers设置为0原创 2019-10-25 19:34:24 · 1931 阅读 · 0 评论 -
win10+pytorch 安装踩坑记录(anaconda+pycharm gpu版)
因为之前电脑安装过gpu版本的tf,所以我还是使用的之前安装的cuda和cudnn,我的cuda是9.1版本安装教程参考https://blog.csdn.net/kan2281123066/article/details/93789303这个安装教程写的很好,不过我还是不可避免的踩到了一些莫名奇妙的坑,在这里记录一下1. pytorch 官网无cuda9.1版本我直接下载的9.0版...原创 2019-10-22 20:27:43 · 931 阅读 · 0 评论 -
K-Means算法及图像分割实战(sklearn)
定义:k-平均算法(英文:k-means clustering)源于信号处理中的一种向量量化方法,现在则更多地作为一种聚类分析方法流行于数据挖掘领域。k-平均聚类的目的是:把 n个点(可以是样本的一次观察或一个实例)划分到k个聚类中,使得每个点都属于离他最近的均值(此即聚类中心)对应的聚类,以之作为聚类的标准。这个问题将归结为一个把数据空间划分为Voronoi cells的问题。------...原创 2019-04-09 17:52:55 · 2992 阅读 · 0 评论 -
【kaggle】 泰坦尼克之灾(一)[0.779]
kaggle上的一个经典入门比赛:https://www.kaggle.com/c/titanic/overview工具:kaggle kernel数据处理先导包:import pandas as pdimport numpy as npimport matplotlib.pyplot as pltimport seaborn as sns%matplotlib inline导...原创 2019-05-02 21:09:06 · 583 阅读 · 0 评论 -
【kaggle】泰坦尼克之灾(二)模型探索
参考:https://www.kaggle.com/kernels/scriptcontent/2051374/notebook第一篇:https://blog.csdn.net/Nicht_sehen/article/details/89741145看了这位大佬写的才知道怎么去挑选模型数据处理异:增加Familysize 看家庭人数,增加Isalone看是否独自一人drop 掉了’...原创 2019-05-05 22:06:02 · 394 阅读 · 0 评论 -
【kaggle】泰坦尼克之灾(三)[0.842]
数据处理名字还是一样处理,不过改了映射关系df_train=pd.read_csv('../input/train.csv')df_test=pd.read_csv('../input/test.csv')PassengerId=df_test['PassengerId']dataset = pd.concat([df_train, df_test], ignore_index = Tr...原创 2019-05-13 22:10:46 · 216 阅读 · 0 评论 -
【预选赛】2019CCCC大数据挑战赛 --------短文本情感分类
这个短文本情感分类开始照着别人的baselline做了一次,用的LSTM,后来自己改用了一下双向的,也就是Bi-LSTM 模型代码如下:import numpy as npimport pandas as pdimport retrain = pd.read_csv("C:/Users/Nicht_sehen/Desktop/train.csv", lineterminator='\n'...原创 2019-06-01 20:57:37 · 665 阅读 · 1 评论 -
线性回归,最小二乘,局部加权,岭回归,huberloss
这是一次统计学的作业线性模型今天我们所知道的回归是由达尔文(Charles Darwin)的表兄弟Francis Galton发明的。Galton于1877年完成了第一次回归预测,目的是根据上一代豌豆种子(双亲)的尺寸来预测下一代豌豆种子(孩子)的尺寸。Galton在大量对象上应用了回归分析,甚至包括人的身高。他注意到,如果双亲的高度比平均高度高,他们的子女也倾向于比平均高度高,但尚...原创 2019-09-11 10:35:04 · 937 阅读 · 0 评论 -
【面经】此处收集各厂 算法岗 面经/经验分享 (持续更新~/已更新2020届)
2019:腾讯机器学习面经2018:招商局 金融科技 NLP算法面经百度算法三面面经科大,百度,华为,阿里,网易,360,银联七家面经百度三面拿到offer百度-机器学习(已offer-手百推荐feed流)秋招面试–百度机器学习面经...原创 2019-10-03 14:54:36 · 2393 阅读 · 0 评论 -
KNN分类实战-----对鸢尾花数据进行分类(sklearn)
KNN算法介绍详见:https://blog.csdn.net/Nicht_sehen/article/details/80495884原理详见:维基百科题外话:维基百科真的是个好东西 (:D)查看数据首先我们来看一下数据集:import pandas as pdimport mglearnfrom sklearn.datasets import load_irisfrom s...原创 2019-04-10 18:38:08 · 3343 阅读 · 1 评论 -
PCA --理解及鸢尾花实践(sklearn)
简介PCA:主成分分析(Principal components analysis)主要是通过对协方差矩阵进行特征分解,以得出数据的主成分(特征向量)与它们的权值(特征值),它提供了一种降低数据维度的有效办法;如果分析者在原数据中除掉最小的特征值所对应的成分,那么所得的低维度数据必定是最优化的(也即,这样降低维度必定是失去讯息最少的方法)。其数学定义为: 一个正交化线性变换,把数据变换到一个...原创 2019-03-30 22:16:00 · 2078 阅读 · 0 评论 -
深度神经网络(DNN)学习小结
之前写过线性回归和逻辑回归,但是也有的情况这两种都不能很好的拟合,像这种: 假设我们有非常多的特征,例如大于 100 个变量,我们希望用这 100 个特征来构建一个非线性的多项式模型,结果将是数量非常惊人的特征组合,即便只采用两两特征的组合,我们也会有接近 5000 个组合而成的特征,计算起来就非常麻烦了。 这时候就要用到神经网络了,神经网络最重要的功能就是分类了。神经网络(NN)...原创 2018-04-30 21:07:50 · 19418 阅读 · 0 评论 -
【kaggle实战】——Predict Future Sales
这是一个playground类的题目,感觉playground的题目比较有意思而且数据不会太大,拿来练手挺好。。。。 比赛连接:Predict Future Sales简介:This challenge serves as final project for the “How to win a data science competition” Coursera course.I...原创 2018-04-24 17:01:07 · 5739 阅读 · 1 评论 -
卷积神经网络(CNN)学习小结
CNN结构一个经典的CNN结构如下图所示: 第一层为输入层。 接着为卷积层,由若干卷积单元组成,目的是提取输入的不同特征,第一层卷积层可能只能提取一些低级的特征,更复杂的特征需要更多层的神经网络从低级特征中迭代提取出来。 然后是池化层,将特征切成几个区域,取其最大值或平均值,得到新的、维度较小的特征。 最后是全连接层, 把所有局部特征结合变成全局特征,用来计算最后每一类的得分。...原创 2018-05-03 21:01:12 · 591 阅读 · 0 评论 -
集成学习(Ensemble Learning) 学习小结
集成学习是通过训练多个分类器,然后把这些分类器组合起来,以达到更好的预测性能。BoostingBoosting方法是一种用来提高弱分类算法准确度的方法,这种方法通过构造一个预测函数系列,然后以一定的方式将他们组合成一个预测函数。 Adaboost Adaboost中不同的子模型必须是串行训练获得的,每个新的子模型都是根据已训练出的模型性能来进行训练的 基本思想:1.多轮训练,...原创 2018-05-10 21:29:30 · 519 阅读 · 0 评论 -
决策树(Decision Tree)学习小结
决策树策树(Decision Tree)是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。(概念摘自百度百科)特征选择在这里先引入信息熵和信息增益的定义信息熵(information entropy)在信息论与概率论中,熵(entropy)用于表示随机变量不确定...原创 2018-05-08 14:49:42 · 429 阅读 · 0 评论 -
【cs231n学习笔记(2017)】—— 线性分类
关于线性分类器的理解基本表达式:f(xi,W,b)=Wxi+bf(xi,W,b)=Wxi+bf(x_i,W,b)=Wx_i+b 这个表达式有点眼熟啊,让我们来回忆一下机器学习里的线性回归基本表达式: hθ(x)=θTX+θ0hθ(x)=θTX+θ0h_\theta(x)=\theta^TX+\theta_0 是不是很类似?不过回归与分类是两类问题,线性回归一般是用线性函数来构造模型,...原创 2018-06-03 11:34:25 · 501 阅读 · 0 评论 -
【cs231n学习笔记(2017)】—— 神经网络激活函数
其实在讲解卷积神经网络之前课程还有两项内容,一个是损失函数的最优化,一个是反向传播。但是个人认为这两点理解起来都比较容易——当然,你得先有一定的高等数学基础——所以在这里我只对这两项内容进行简单的介绍,不做详细的解释或者公式的推导。 ——————————————————以下为正文——————————————————...原创 2018-06-12 15:35:46 · 393 阅读 · 0 评论 -
【cs231n学习笔记(2017)】——— 课程作业assignment1及拓展(KNN)
构建模型L1模型代码实现:import numpy as npclass KNN_L1: def __init__(self): pass def train(self,X, y): self.X_train = X self.y_train = y def predict(self, x): ...原创 2018-05-30 11:20:49 · 1280 阅读 · 0 评论 -
【cs231n学习笔记(2017)】—— 数据处理及监视训练
数据处理去均值将数据的特征都减去全部数据的特征均值,将输入数据各个维度的数据中性化到0,可用 X-=np.mean(X,axis=0)实现归一化将数据所有维度都归一化,使其数值范围近似相等,有两种方法: 1.用数据除以这个维度上的标准差(X /= np.std(X,axis=0)) 2.除以数据绝对值最大值,保证数据在[-1,1]之间PCA和白化(whitening)...原创 2018-06-16 16:59:00 · 367 阅读 · 0 评论 -
线性回归,逻辑回归,梯度下降学习小结
线性回归简单来说线性回归就是寻找一条能够和数据拟合的直线,像这样: (这是我上一篇博客中用到的图,顺手拿来用了^o^,数据都是瞎编的,用python的polyfit()函数拟合的) 很明显可以看出来有一些数据并不在我们拟合的这条直线上,说明我们拟合的直线还是有误差的 假定我们拟合的直线为: 一元的时候:hθ(x)=θ1x1+θ0hθ(x)=θ1x1+θ0h_\theta(x)=\t...原创 2018-04-22 20:24:11 · 556 阅读 · 0 评论