![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
ML&DL
付
这个作者很懒,什么都没留下…
展开
-
Tensorflow2.0 利用API 自定义构建回归模型
低阶API构建回归模型准备数据import numpy as np import pandas as pdfrom matplotlib import pyplot as plt #样本数量n = 400# 生成测试用数据集X = tf.random.uniform([n,2],minval=-10,maxval=10) w0 = tf.constant([[2.0],[-3.0]])b0 = tf.constant([[3.0]])Y = X@w0 + b0 + tf.rando原创 2020-08-02 12:42:39 · 390 阅读 · 1 评论 -
Tensorflow2.0 自动微分基础
自动微分(低阶方法)首先拿线性方程来举例说明基本步骤在 with GradientTape 内部 自定义的损失函数调用gradient方法对指定变量求导一阶导数import numpy as np # f(x) = a*x**2 + b*x + c的导数# 因为是 auto watched ,所以不需要watch, 常量需要watchedx = tf.Variable(0.0,name = "x",dtype = tf.float32) a = tf.constant(1.0)b原创 2020-08-02 12:08:29 · 391 阅读 · 0 评论 -
tensorflow2.0 基本流程学习笔记
定义模型# 销毁当前的TF图并创建一个新图。# 有助于避免旧模型/图层混乱。tf.keras.backend.clear_session()model = models.Sequential()model.add(layers.Dense(20, batch_input_shape=(None, 15)))##等价--1#model.add(layers.Dense(20,activation = 'relu', input_dim=15 ))##等价--2:Optionally, the原创 2020-06-07 16:44:10 · 256 阅读 · 0 评论 -
《TensorFlow实战》MNIST分类实战笔记-ch03
背景因为看paper或者别人的源码,总是连感性认识都没有,很是捉急。在网上找一些博客来看看, 不过是临时解决问题,碎片的很!故买本tensorflow实战书学习,培养感性认识,待将来有机会再上升到理性认识。学习内容因为之前隐约看过相关代码,装过tensorflow,跑过些例子。对于这个工具的属性,网络的输入、输出等方面都没有一个直观感受。所以笔记内容为本书学习章节代码注释版,也不敢妄称为学习...原创 2019-12-14 17:08:58 · 172 阅读 · 0 评论 -
深度学习之激活函数
激活函数sigmoid1、软饱和激活函数2、硬饱和激活函数,即:f’(x)=0,当 |x| > c,其中 c 为常数优点1、其饱和性虽然会导致梯度消失2、用于概率输出,常见于二分类问题3、它在物理意义上最为接近生物神经元缺点1 梯度消失问题误差不断向底层传递的过程中,f′(zl)会呈指数倍增加,而其值域为(0, 0.25],所以梯度越往后传递值越小,最终导致权重无法正常...原创 2019-08-17 10:08:39 · 181 阅读 · 0 评论 -
BP反向传播算法原理
BP 反向传播算法原理学习学习神经网络涉及到梯度消失、爆炸这块,搜寻一些资料加上个人理解,整理如下,以备后期复习。如能得到斧正,不胜感激!变量定义 reference:一文弄懂神经网络中的反向传播法——BackPropagationNeural Networks and Deep Learning...原创 2019-04-07 11:57:41 · 250 阅读 · 0 评论 -
台大机器学习基石上_lesson3
Machine Learning Foundations –lesson 3学习的类型不同的输出空间即我们常说的数据集中有多个或者两个类别的数据;还包含输出空间是数值型的回归问题 Learning with Different Output Space Ybinary classificationmulticlass classificationregression: ...原创 2018-08-26 11:38:45 · 197 阅读 · 1 评论 -
台大机器学习基石上_lesson 2
Machine Learning Foundations –lesson 2Perceptron definitonPerceptron Hypothesis下面是的对上面h(x) 向量表示,且假设函数(是一个超平面)的截距(threshold)变成W0, 那么X0变成1,即下面的向量表达顺利成章。 Perceptron Learning Algorithm下面是学...原创 2018-08-26 11:14:55 · 241 阅读 · 0 评论 -
台大机器学习基石上_lesson 1
Machine Learning Foundations –lesson 1Key Essence of Machine Learning1.exists some ‘underlying pattern’ to be learned 2.but no programmable (easy) definition 3.somehow there is data about the ...原创 2018-08-26 10:02:20 · 267 阅读 · 0 评论 -
Introduction to NLP
Introduction to NLP一、 what is Natural Language Processing?1. Question Answering (问答)问:威尔金森的一本书使一个作家成功写成一部很有名的小说,问这个作家是谁? 答案:Bram Stoker 2.Infomation Extraction (信息抽取)文本: 抽取结果: 3.Infomation Extractio原创 2017-12-30 15:46:29 · 376 阅读 · 0 评论 -
在windows7中安装xgboost
1: 首先使用windows中vs20013编译 -> build。成功后会在Release和Debug文件生成对应文件。 2:按照官方文档中的描述 To build with Visual Studio 2013 use cmake. Make sure you have a recent version of cmake added to your path and then原创 2016-07-26 20:16:33 · 789 阅读 · 0 评论 -
过度拟合
最近学习《机器学习》这门课程涉及到了OVE原创 2014-09-16 17:20:30 · 1611 阅读 · 0 评论