机器学习
文章平均质量分 51
安东time
比技术更重要的是人品
展开
-
神经网络 tensorflow :损失函数
文章目录基础理论交叉熵tensorFlow中的损失函数BinaryCrosstropyCategoricalCrossentropyCosineSimilarityHingeHuberKLDivergenceLogCoshMeanAbsoluteErrorMeanAbsolutePercentageErrorMeanSquaredErrorMeanSquaredLogarithmicErrorPoissonSquaredHinge基础理论交叉熵参考:https://zhuanlan.zhihu.com原创 2021-05-10 16:52:50 · 555 阅读 · 0 评论 -
神经网络:激活函数
文章目录为什么用激活函数?选择激活函数需要考虑什么因素?梯度消失和梯度爆炸部分激活函数介绍sigmoid函数tanh函数relu函数个人总结参考:https://blog.csdn.net/tyhj_sf/article/details/79932893参考:https://zhuanlan.zhihu.com/p/25631496参考:https://zhuanlan.zhihu.com/p/73214810为什么用激活函数?神经网络的每一层由一个线性函数和非线性函数构成,这样可以提升每一层的拟原创 2021-05-09 11:45:08 · 220 阅读 · 0 评论 -
李宏毅生成对抗网络GAN
文章目录基础介绍基础介绍原创 2021-05-04 15:43:11 · 216 阅读 · 0 评论 -
深度学习:卷积神经网络
文章目录第一周卷积神经网络简介边缘检测案例padding卷积步长三维卷积单层卷积神经网络简单卷积神经网络简介池化层为什么使用卷积第二周经典网络残差网络残差网络为什么有用1*1 网络卷积Inception网络简介迁移学习第一周卷积神经网络简介卷积的应用:图像分类图像识别图像风格迁移(图像合成)边缘检测案例垂直边缘检测器padding就是将图像边缘补充,方便滤波器处理卷积步长通过改变步长,卷积后图像大小变化三维卷积多个滤波器联合,完成不同检测单层卷积神经网络原创 2021-05-04 00:01:08 · 950 阅读 · 9 评论 -
keras版本 str object has no attribute decode
pip install h5py==2.10 -i https://pypi.tuna.tsinghua.edu.cn/simple/转载 2021-01-03 14:47:25 · 1057 阅读 · 0 评论 -
tensorflow kears GPU CUDA Cudnn 各种版本问题
显卡和显卡驱动和cuda版本相关cuda和cudnn版本相关tensoflow-gpu和cuda以及cudnn的版本相关keras和tensoflow-gpu的版本相关keras和python版本相关原创 2021-01-02 21:33:50 · 109 阅读 · 0 评论 -
anaconda pycharm 动手学深度学习环境配置
一般按照这篇文章的5个步骤来。但是容易出错,主要是mxnet安装包没有安上,或者控制台连接不上等问题。要解决这些问题,先要理解以下 anaconda 是什么,pycharm是什么,mxnet是什么anacondaanaconda是一个python的环境和安装包管理工具,python是一种解释语言,需要在其相应的环境中运行,打开anaconda prompt 输入conda info --env可以查看当前存在的几个环境默认出于base这个环境conda activate gluon这个命令原创 2020-09-26 16:02:59 · 1063 阅读 · 0 评论 -
TensorFlow基础
1、tensorflow 基础结构2、tensorflow sessionimport tensorflow as tfmatrix1 = tf.constant([[3,3]])matrix2 = tf.constant([[2],[2]])product = tf.matmul(matrix1,matrix2);### method 1sess = tf.Session();result = sess.run(product);print(result)sess.close原创 2021-01-01 19:28:33 · 60 阅读 · 0 评论 -
LSTM 和 GRU
原创 2020-10-06 11:47:25 · 53 阅读 · 0 评论 -
pytorch 构建神经网络模型总结
1、pytorch的数据类型pytorch的数据都要使用叫tensor的类型,这个类型的数据应该是为pytorch量身打造的,为后面能够自动微分打下基础2、自动微分功能自动微分是为了解决机器学习的反馈问题,非常方便,自动微分要配合损失函数和优化器使用3、定义网络模型结构定义需要的网络模型结构,要继承,要定义forward函数4、循环训练神经网络...原创 2020-09-29 11:26:42 · 1473 阅读 · 4 评论 -
深度学习-序列模型
文章目录第一周循环神经网络应用场景数学符号循环神经网络简介后馈不同类型的循环神经网络第一周循环神经网络应用场景数学符号循环神经网络简介循环神经网络与一般网络不同之处在于中间的隐层a的计算输入考虑了之前的a值,也就是说中间的隐藏层实际上有两个w矩阵分别处理来自当前网络前向的输出和这个网络上一次计算保存的中间值。实际编程时可以把两个矩阵联合起来。后馈定义损失函数:时间序列上每个时刻的损失加起来不同类型的循环神经网络多对多多对多延时网络多对一一对一一对多...原创 2020-09-25 20:52:15 · 354 阅读 · 0 评论 -
深度学习神经网络:改善与优化的方法
训练集 验证集 测试集公认的比较好的比例是3:1:1,在数据量不是特别大的时候当数据特别大的时候根据情况考虑注意数据的分布性问题训练集(train set) —— 用于模型拟合的数据样本。验证集(development set)—— 是模型训练过程中单独留出的样本集,它可以用于调整模型的超参数和用于对模型的能力进行初步评估。测试集 —— 用来评估模最终模型的泛化能力。但不能作为调参、选择特征等算法相关的选择的依据。偏差和方差偏差大:过度拟合 训练集误差小 验证集误差大方差大:欠拟合 训练集原创 2020-09-24 19:33:34 · 3357 阅读 · 1 评论 -
吴恩达深度学习一:神经网络
三种典型神经网络standard NN :传统神经网络 解决一般问题卷积神经网络 convolutional NN :CNN 网络 适用于图像循环神经网络 Recurrent NN适用于一维时间序列监督学习的数据结构化数据非结构数据数据量对传统机器学习和深度学习的驱动力lost函数和cost函数cost函数是loss函数在全体样本上的一种集中体现比如平均损失。反向传播 更新参数如果中间有倒数趋近于0 这个更新公式就很困难了...原创 2020-09-22 15:46:38 · 483 阅读 · 0 评论 -
2020 华为杯 数模 B题 数据挖掘
B题是一道数据挖掘题目主要难点是 :题目样本较小,但是样本的维度又很大,需要分析的目标与数据之间的关系不明显解决这个题目应该注重以下几方面1、审题,对题目的要求一定要看清楚,特别是对提供的数据一定要仔细查看,最好用一些常规方法检验以下数据的分布情况2、降维之前要把数据处理做好,数据处理很重要3、建模之前要把降维做好,降维做得对,模型才好用4、所以从难度上来说数据处理小于数据降维小于模型调整,但是从重要性上来水数据处理大于数据降维大于模型调整,一般人很难做出新的模型去针对这个问题,所以在模型层面大原创 2020-09-21 16:27:31 · 5051 阅读 · 0 评论 -
线性支持向量机完全理解版
支持向量机看了很多次,这次觉得真的每个地方都理解了,还是李航的《统计学习方法》写的好!!!线性可分支持向量机支持向量机函数间隔几何间隔最优化问题线性支持向量机的对偶问题对偶问题的解释 拉格朗日函数对偶问题的条件 KKT条件对偶问题的求解线性不可分支持向量机核函数SMO方法算法程序实现...原创 2020-07-20 15:39:29 · 1124 阅读 · 0 评论 -
李航统计学习方法
统计学习方法概论:统计学习特点统计学习的对象是数据,它要求数据是独立同分布的,从数据中提取特征,抽象出模型,发现数据中的规律然后对数据进行分析于预测。统计学习方法三要素模型、策略 、算法模型:模型是所要学习的条件概率分布或决策函数,首先模型有一个假设空间,其包含所有可能的条件概率分布函数或者决策函数,假设空间中的模型有无穷多个。策略策略就是按照什么样的准则学习或者选择最优的模型,期望风险最小化是理论上的原则,但是期望风险不可以得到,所以用经验风险最小化原则和结构风险最小化原则替代期望风险原创 2020-07-16 17:33:44 · 542 阅读 · 0 评论 -
SVM SMO方法
参考资料:https://blog.csdn.net/v_JULY_v/article/details/7624837def smoSimple(dataMatIn, classLabels, C, toler, maxIter): dataMatrix = mat(dataMatIn); labelMat = mat(classLabels).transpose() b = ...原创 2020-03-27 22:16:10 · 127 阅读 · 1 评论