![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
DW
文章平均质量分 86
momokofly
奋志,集中心思致力于某种事业
展开
-
DW-matplotlib-Task5
本文主要介绍matplotlib中样式和颜色的使用,绘图样式和颜色是丰富可视化图表的重要手段。关于绘图样式常见的有4种方法,分别是修改预定义样式、自定义样式、rcparams和matplotlibrc文件。关于颜色使用有常见的5种表示单色颜色的基本方法和colormap多色显示的方法。一、matplotlib的绘图样式(style)在matplotlib中,要想设置绘制样式,最简单的方法是在绘制元素时单独设置样式。 但当用户在做专题报告时,往往会希望保持整体风格的统一而不用对每张图一张张修改,因此mat原创 2021-12-27 00:01:08 · 135 阅读 · 0 评论 -
DW-matplotlib-Task4
一、Figure和Axes上的文本Matplotlib具有广泛的文本支持,包括对数学表达式的支持、对栅格和矢量输出的TrueType支持、具有任意旋转的换行分隔文本以及Unicode支持。下面的命令是通过pyplot API和objected-oriented API分别创建文本的方式:pyplot APIOO APIdescriptiontexttext在Axes的任意位置添加texttitleset_title在Axes添加titlefigtexttext原创 2021-12-24 23:02:05 · 336 阅读 · 0 评论 -
DW-matplotlib-Task3
import numpy as npimport pandas as pdimport matplotlib.pyplot as pltplt.rcParams["font.sans-serif"] = ["SimHei"] #用来正常显示中文标签plt.rcParams["axes.unicode_minus"] = False #用来正常显示负号一、子图1.使用plt.subplots绘制均匀状态下的子图返回元素分别是画布和子图构成的列表,第一个数字为行,第二个为列。figsize参数可原创 2021-12-21 22:16:33 · 225 阅读 · 0 评论 -
DW-matplotlib-Task2
一、概述1、matplotlib的三层APImatplotlib的原理是用Artist对象在画布(canvas)上绘制(Render)图形。步骤类似于:准备一块画布或画纸准备好颜料、画笔等制图工具作画因此,matplotlib有三个层次的API,如下表所示:API说明matplotlib.backend_bases.FigureCanvas绘图区,所有的图像都是在绘图区完成的matplotlib.backend_bases.Renderer渲染器,可以近似理解原创 2021-12-19 20:32:38 · 159 阅读 · 0 评论 -
DW-matplotlib-Task1
一、认识matplotlibMatplotlib是python中的一个2D绘图库,用来绘制各种静态、动态、交互式的图表。它是Python数据可视化库中的泰斗,已经成为python中公认的数据可视化工具,pandas和seaborn的绘图接口其实也是基于matplotlib所作的高级封装。二、一个最简单的绘图例子Matplotlib的图像是画在figure上的,每一个figure又包含了一个或多个axes(一个可以指定坐标系的子区域)。最简单的创建figure以及axes的方式是通过pyplot.su原创 2021-12-14 09:58:52 · 1261 阅读 · 0 评论 -
DW李宏毅机器学习Task6
Self-Supervised Learning自监督学习从芝麻街的人物引入自监督学习的相关概念方法。ELMo、BERT、ERNIE、Big BirdBERT是非常复杂的模型,包含340million个参数。模型变得越来越复杂,参数越来越多。自监督学习介绍有监督和自监督学习的区别:有监督学习数据中包含标签,自监督学习数据中不包含标签,是无监督学习的一种。BERT是Transformer Encoder,,最早用在自然语言处理中,也可以用在语音等问题中。Masking:Bert输入文字原创 2021-09-25 23:59:18 · 193 阅读 · 0 评论 -
DW李宏毅机器学习Task5
1、当梯度很小时,优化效果没有达到期望Optimization失败的原因:(1)local minimum;(2)saddle point(鞍点)gradient为0,会导致loss不下降,即卡在了critical point(包括local minimum和saddle point)。 对于local minimum的问题可能无法解决,但是saddle point还是有可能解决。数学推导Taylar Series Approximation,泰勒展开式近似critical point是指,原创 2021-09-23 00:04:01 · 185 阅读 · 0 评论 -
DW李宏毅机器学习Task4
1、Deep Learning 的历史1958:Perceptron(linear model)1969:Perceptron has limitation1980s:Multi-layer perceptron(Do not have significant difference from DNN today)1986:Backpropagation(Usually more than 3 hidden layers is not helpful)1989:1 hidden layer i原创 2021-09-19 22:23:50 · 114 阅读 · 0 评论 -
DW李宏毅机器学习——Task3
1、误差的来源Where does the error come from ?并不是模型越复杂,误差越小error due to ‘bias’ and error due to ‘variance’理论上有一个最佳的函数f^\hat ff^,但我们没办法知道。利用训练数据,我们可以找到f∗f^*f∗,这个f∗f^*f∗只是f^\hat ff^的估计值。Bias and Variance of Estimator:估计随机变量xxx的均值:假设xxx的均值uuu,...原创 2021-09-17 23:49:31 · 110 阅读 · 0 评论 -
DW李宏毅机器学习Task2——Regression
回归的应用:(1)股票市场的预测(2)自动驾驶车(3)推荐系统应用例子:预测进化后的宝可梦CP值Step 1:ModelLinear model:y=b+∑wixiy=b+ \sum{}^{}w_ix_iy=b+∑wixixix_ixi:an attribute of input xxx (feature)wiw_iwi:weightbbb:biasStep 2:Goodness of FunctionSource:https://www.openintro.org原创 2021-09-16 01:05:14 · 140 阅读 · 0 评论 -
DW李宏毅机器学习Task1
通过Task1了解机器学习与AI,机器学习与深度学习的关联,以及机器学习中主要的学习方法。原创 2021-09-13 22:58:53 · 113 阅读 · 0 评论 -
DW集成学习Task8—案例二蒸汽量预测
背景:原创 2021-07-30 23:20:16 · 321 阅读 · 1 评论 -
DW集成学习Task7 Stacking和案例一
Stacking被称为“懒人算法”,因为它不需要花费过多时间的调参就可以得到一个效果不错的算法,也比bagging和boosting算法容易理解的多。Stacking严格来说并不是一种算法,而是对模型集成的一种策略。Stacking集成算法可以理解为一个两层的集成,第一层含有多个基础分类器,把预测的结果(元特征)提供给第二层, 而第二层的分类器通常是逻辑回归,他把一层分类器的结果当做特征做拟合输出预测结果。1.Blending集成学习算法Blending:简化版的StackingBlending集成原创 2021-07-27 23:47:40 · 334 阅读 · 0 评论 -
DW集成学习Task6 Boosting作业
1.Adaboost的基本思路2.Adaboost与GBDT的联系与区别?3.Boosting与Bagging的区别,以及如何提升模型的精度?4.使用基本分类模型和Boosting提升的模型,并画出他们的决策边界。5.尝试使用XGboost模型完成一个具体的分类任务,并进行调参。参考:...原创 2021-07-25 18:21:49 · 123 阅读 · 0 评论 -
DW集成学习Task5 Bagging
(视频在Task4中已看完,主要写一下主要的几个问题)1.什么是Bootstrap?称为“自助法”,是指用原样本自身的数据抽样得出新的样本及统计量,是一类Monte Carlo方法,实质是对观测信息进行再抽样,进而对总体的分布特性进行统计推断。由于从总体中重复多次抽取样本常常是不方便甚至无法实施的,因此Bootstrap只从总体中抽取一次样本,再在这个样本中进行多次有放回地抽样,得到多个“样本的样本”,通过统计这些小样本的分布,得到总体的统计量。Bootstrap方法充分利用了给定的观测信息,不需要模原创 2021-07-23 09:31:30 · 122 阅读 · 0 评论 -
DW集成学习Task4
混淆矩阵(真阳性TP:预测值和真实值都为正例、假阴性FN:预测值为负例,真实值位正例、假阳性FP:预测值为正例,真实值为负例、真阴性TN:预测值和真实值都为负例)分类模型的指标:准确率:分类正确的样本数占总样本的比例ACC=TP+TNFP+FN+TP+TNACC=\frac{TP+TN}{FP+FN+TP+TN}ACC=FP+FN+TP+TNTP+TN精度:预测为正且分类正确的样本占预测值为正的比例PRE=TPTP+FPPRE=\frac{TP}{TP+FP}PRE=TP+FPTP召回率:原创 2021-07-20 23:09:51 · 128 阅读 · 1 评论 -
DW集成学习Task3-偏差和方差理论
回归模型主要理解线性回归模型和决策树模型。决策树模型在集成学习模型中往往作为基模型来应用,进行集成。1.优化基础模型在回归问题中使用训练集估计模型的参数的原则一般都是使得损失函数在训练集达到最小值,其实在实际问题中,我们是可以让损失函数在训练集最小化为0的。但我们的目的是希望模型在测试集上表现优异。训练均方误差与测试均方误差模型在训练误差很小,但是测试均方误差很大时,称这种情况为模型的过拟合。偏差-方差的均衡测试均方误差曲线呈现U型曲线,表明在测试误差曲线中有两种力量在相互博弈。测试均方误原创 2021-07-18 00:30:23 · 172 阅读 · 0 评论 -
DW集成学习Task2
1. 导论有监督学习(回归、分类)和无监督学习(聚类)回归:因变量是连续变量分类:因变量是离散变量有监督学习:有因变量,有特征向量,预测结果/未来无监督学习:无因变量,有特征向量,寻找数据中的结构sklearn:包含各种数据集1.1 回归1.2 分类1.3 无监督学习2. 使用sklearn构建完整的机器学习项目流程明确项目任务:回归/分类收集数据集并选择合适的特征选择度量模型性能的指标:均方误差、平均绝对误差、决定系数、解释方差得分选择具体的模型并进行训练以优化模型(机器学校原创 2021-07-16 21:56:45 · 94 阅读 · 1 评论