机器学习
fgh431
非淡泊无以明志
展开
-
CNN的反向传播算法
文章目录先说卷积层的反向传播算法先说卷积层的反向传播算法卷积核虽然是四维的但一个卷积核是三维的他只影响到卷积层输出的一个通道原创 2021-03-24 10:59:04 · 251 阅读 · 0 评论 -
pytorch早停系列
文章目录安装早停系列cani安装早停系列一开始我在我的pytorch模块执行完pip install pytorchtools然后执行from pytorchtools import EarlyStopping却说找不到EarlyStopping 原来是需要到这个github上面下载添加链接描述然后把这个东西下载下来,吧里面的py文件放到wife里重新执行老婆给的代码就ok啦!cani添加链接描述...原创 2021-03-21 14:48:41 · 988 阅读 · 0 评论 -
CelebA人脸数据集
cani添加链接描述原创 2021-03-12 13:25:14 · 288 阅读 · 0 评论 -
感知机试一试改成别的损失函数
感知机试一试改成别的损失函数我看李航那本书上是hinge loss啊!我给gz讲的也是hinge loss啊!例如原创 2021-01-25 22:30:37 · 180 阅读 · 0 评论 -
BP算法本质就是链式法则 利用计算图来理解BP算法
BP算法本质就是链式法则!原创 2021-01-24 23:21:25 · 565 阅读 · 0 评论 -
keras搭建CNN识别mnist且画了网络图并看到了每层的参数
keras搭建CNN识别mnistimport numpy as npimport matplotlib.pyplot as pltplt.rcParams['figure.figsize']=(7, 7)from keras.datasets import mnistfrom keras.models import Sequentialfrom keras.layers.core import Dense, Dropout, Activation,Flattenfrom keras.util原创 2021-01-23 15:53:35 · 279 阅读 · 1 评论 -
softmax层能用标准神经元实现吗?
softmax层能用标准神经元实现吗?原创 2021-01-11 18:36:45 · 132 阅读 · 0 评论 -
Softmax到底是啥啊!!!!!!!!!
直观理解神经网络最后一层全连接+Softmax原创 2021-01-10 19:14:14 · 386 阅读 · 0 评论 -
用MLPClassifier分成三类并用矩阵演算演示了一下+用MLPRegressor去证实我的想法
from sklearn.neural_network import MLPClassifierimport numpy as npX = [[0., 0.], [1., 1.],[3,3]]y = [0, 1,2]clf = MLPClassifier(solver='lbfgs', alpha=1e-5, hidden_layer_sizes=(2,), random_state=1, activation='ide原创 2021-01-10 18:45:55 · 625 阅读 · 0 评论 -
神经网络跑一跑mnist
from sklearn.neural_network import MLPClassifierimport numpy as np import numpy as npfrom sklearn.linear_model import LogisticRegressionpath = 'mnist.npz'f = np.load(path)X_train , y_train = f['x_train'], f['y_train']X_test , y_test = f[...原创 2021-01-10 00:08:59 · 237 阅读 · 0 评论 -
感知机和BP算法的渊源
cani机器学习笔记-Python实现感知机(Perceptron)原创 2021-01-08 18:07:12 · 157 阅读 · 0 评论 -
sklearn iris数据集好啊!
sklearn中自带了一些数据集,比如iris数据集,data存储花瓣长宽(column0,1)和花萼长宽(column2,3).target存储花的分类,Iris-setosa , Iris-versicolor , and Iris-virginica ,分别存储为数字 0,1,2from sklearn import datasetsimport numpy as np iris = datasets.load_iris()X = iris.data[:,[2, 3]]y = .原创 2021-01-06 10:47:22 · 145 阅读 · 0 评论 -
逻辑回归搞手写数字识别啊!
我不加max_iter = 10000他居然说他不收敛,那我只好加了!import numpy as npfrom sklearn.linear_model import LogisticRegressionpath = 'mnist.npz'f = np.load(path)print ("f的类型是:"+str(type(f))+"\n")X_train , y_train = f['x_train'], f['y_train']X_test , y_test = f.原创 2021-01-04 19:51:30 · 464 阅读 · 1 评论 -
train_test_split()
train_test_split()函数是用来随机划分样本数据为训练集和测试集的,当然也可以人为的切片划分。优点:随机客观的划分数据,减少人为因素完整模板:train_X,test_X,train_y,test_y = train_test_split(train_data,train_target,test_size=0.3,random_state=5)参数解释:train_data:待划分样本数据train_target:待划分样本数据的结果(标签)test_size:测试数据占样本数据原创 2021-01-02 14:49:25 · 356 阅读 · 0 评论 -
从一个乳腺癌谈的逻辑回归谈一谈混淆矩阵
import numpy as npimport pandas as pdfrom sklearn import datasetsfrom sklearn.linear_model import LogisticRegressionfrom sklearn.metrics import confusion_matrixfrom sklearn.model_selection import train_test_splitbreast_cancer=datasets.load_breas..原创 2021-01-02 12:03:14 · 427 阅读 · 0 评论 -
最小二乘法关于$\theta_0,\theta_1$是正定的吗?+ 4 个样本形成的正定损失函数
似乎是的!因为课本上面求解就是直接求驻点,然后算到最小值的!原创 2020-12-27 00:17:45 · 290 阅读 · 0 评论 -
梯度下降法更新时候参数变化规则
这解决了我埋藏好久的一个疑惑canci(fff)[https://blog.csdn.net/hpdlzu80100/article/details/111144125]原创 2020-12-21 15:39:20 · 478 阅读 · 1 评论 -
深度学习之谁是变量?
文章目录深度学习之谁是变量?深度学习之谁是变量?现在几乎每一个文章讲到RNN都会放一个图片上去其实x1x_1x1是一个向量,它不是光秃秃的一个数字啊每条线不仅仅是一个数,他是一个向量啊! 我要算一下∂nett∂nett−1=∂(Uxt+Wht−1)∂nett−1\frac{\partial{net_t}}{\partial{net_{t-1}}}=\frac{\partial{(Ux_t+Wh_{t-1}})}{\partial{net_{t-1}}}∂nett−1∂n原创 2020-06-27 16:13:05 · 321 阅读 · 0 评论 -
GBDT与XGBoost
GBDT与XGBoost介绍过梯度下降法与牛顿法,GBDT与XGBoost就与这两种方法有关boosting(GBDT、XGBoost)是一个加法模型可解释性强可处理混合类型特征具体伸缩不变性(不用归一化特征)有特征组合的作用可自然地处理缺失值对异常点鲁棒有特征选择作用可扩展性强,容易并行缺点:缺乏平滑性(回归预测时输出值只能输出有限的若干种数值)不适合处理高维稀疏数据一、GBDT泛指所有梯度提升树算法,XGBoost,是GBDT的一种变种,为区分,GBD原创 2020-06-18 01:16:22 · 226 阅读 · 0 评论 -
RankNet学习思路+损函感悟+\pi \xu 学xi+交叉熵损函详
排序学习实践—ranknet方法1 背景打开手机,点开手淘、美团,商品玲玲满目,而让用户将所有商品一页页看完已经不现实,通常情况下用户也就查看前几页,如果找不到满意的商品则退出,从而造成流单。如何对商品排序使得用户能尽快完成购买流程已经成为这些平台的重要攻克方向。 找几个特征比如评分、销量,找个打分函数如简单的线性函数:F=w1评分+w2销量+…,手工调整权重值w并结合abtest来达到排序的目的(分数越高排名越高)。 简单但面临着一些问题:1)每当增加一个特征都得调整原创 2020-06-18 11:04:47 · 1330 阅读 · 2 评论 -
序列最小最优化算法(SMO)
SMO算法要解决如下问题(7.98)maxα12∑i=1N∑j=1NαiαjyiyjK(xi,xj)−∑i=1Nαi\max \limits_{\alpha} \frac{1}{2} \sum_{i=1}^{N}\sum_{j=1}^{N}\alpha_i \alpha_jy_iy_jK(x_i,x_j)-\sum_{i=1}^{N}\alpha_i \tag{7.98}αmax21i=1...原创 2019-06-26 15:22:44 · 372 阅读 · 0 评论 -
SVM
标准形式Minf0(x)Min\qquad f_0(x)Minf0(x)s.t.fi(x)≤0i=1,...,ms.t.\qquad f_i(x) \le 0 \quad i=1,...,ms.t.fi(x)≤0i=1,...,mhi(x)=0i=1,...,p\qquad h_i(x)=0 \quad i=1,...,phi(x)=0i=1,...,p其中x∈Rnx \in...原创 2019-06-07 10:08:48 · 332 阅读 · 0 评论