笔记
文章平均质量分 63
LucyFang2020
这个作者很懒,什么都没留下…
展开
-
PPT制作——合并形状
PPT制作:合并形状原创 2023-01-14 18:13:57 · 396 阅读 · 0 评论 -
PPT制作——快捷键
PPT制作快捷键原创 2023-01-13 21:11:16 · 433 阅读 · 0 评论 -
PPT多媒体课件制作一
PPT制作一 默认工具原创 2023-01-11 20:08:46 · 127 阅读 · 0 评论 -
【DW10月-时间序列】Task01
文章目录一、R语言基础二、统计与时间序列分析基础一、R语言基础R语言跟Python类似用于数据分析和模型建立。主要的函数有matrix()、dim()、ts()、plot()、par()等。matrix():创建矩阵。dim():创建矩阵。ts():将一个向量或矩阵转成一个一元或多元的时间序列(ts)对象。plot():绘制图像。par():绘制多幅图画。二、统计与时间序列分析基础个体、总体、偏差、方差、正态分布、卡方分布、t分布、z分布、f分布自行了解。...原创 2021-10-12 10:17:52 · 124 阅读 · 0 评论 -
【DataWhale-集成学习】Task04 分类问题
文章目录一、什么是分类问题二、如何解决分类问题三、分类模型有哪些四、作业一、什么是分类问题在分类问题中,因变量是离散型变量,如:是否患癌症,西瓜是好瓜还是坏瓜等。二、如何解决分类问题首先,拿到数据需要确定属于什么性质类的问题,回归还是分类?然后,探索性分析不同特征之间的特点,相关性等等。接着,了解回归模型有哪些,以及他们之间的使用场景,优缺点等等。最后,用分类模型建立模型。三、分类模型有哪些贝叶斯、决策树、逻辑回归、XGBoost等四、作业...原创 2021-09-25 22:10:41 · 366 阅读 · 0 评论 -
【DataWhale-集成学习】Task03 偏差和方差
文章目录1、偏差与方差基本概念2、如何减少偏差和方差2.1 特征提取2.2 正则化2.3 降维2.4 使用不同模型进行训练3、作业1、偏差与方差基本概念模型的偏差是指:为了选择一个简单的模型去估计真实函数所带入的误差。模型的方差是指:用不同的数据集去估计 ???? 时,估计函数的改变量。一般来说,模型的复杂度越高,f的方差就会越大,模型的偏差会越少,我们要找到一个方差–偏差的权衡,使得测试均方误差最小。2、如何减少偏差和方差2.1 特征提取训练误差修正交叉验证最优子集选择向前逐步选择原创 2021-09-20 16:01:37 · 166 阅读 · 0 评论 -
【DataWhale-集成学习】Task02 回归问题
文章目录1、什么是回归问题2、如何解决回归问题3、代码示例3.1 导入包及数据3.2 探索性分析3.3 回归模型3.3.1 线性回归3.3.2 多项式回归3.3.3 回归树3.3.4 支持向量机回归(SVR)3.4 模型建立与参数调整4、总结1、什么是回归问题回归问题是针对因变量是连续型变量的问题,比如:房价,体重等等。与之对立的是分类问题,分类问题是针对因变量是离散型变量的问题,如:是否存活,是否违约等等。2、如何解决回归问题首先,拿到数据需要确定属于什么性质类的问题,回归还是分类?然后,探索原创 2021-09-19 11:06:04 · 145 阅读 · 0 评论 -
Task01数据加载与探索性数据分析
文章目录第一节 数据载入及初步观察1.1 导入数据库与数据集1.2 逐块读取数据集并修改表头1.3 初步观察数据后另存第二节 pandas基础2.1 DateFrame2.2 Series第三节 探索性数据分析3.1 综合排序3.2 计算船上最大的家族的人数3.3 describe()函数的应用第一节 数据载入及初步观察1.1 导入数据库与数据集import numpy as npimport pandas as pdtrain=pd.read_csv('train.csv')test=pd.原创 2021-08-15 21:34:15 · 99 阅读 · 0 评论 -
【DataWhale-李宏毅深度学习】Task07总结
文章目录一、前言二、总结2.1 初识机器学习2.2 回归2.3 误差和梯度下降2.3.1 误差2.3.2 梯度下降2.4 深度学习介绍2.5 网络设计的优化2.6 卷积神经网络一、前言经过半个月的学习,我收获了很多,因为自己的知识不是很丰富,平时还要上班,所以我对自己的定位就是尽可能多的了解深度学习的知识,看视频和阅读文档,没有进行拓展,也没用用代码进行验证,这是非常不足的。还需要多多加强深度拓展和代码方面的知识。以下是我对自己最近半个月的学习总结。二、总结2.1 初识机器学习机器学习是让机器有自原创 2021-07-25 17:19:11 · 305 阅读 · 0 评论 -
【DadaWhale-李宏毅深度学习】Task03误差和梯度下降
参考链接:https://github.com/datawhalechina/leeml-notes文章目录一、误差的来源一、误差的来源从上图可知, Average\ ErrorAverage Error 随着模型复杂增加呈指数上升趋势。更复杂的模型并不能给测试集带来更好的效果,而这些 ErrorError 的主要有两个来源,分别是 biasbias 和 variancevariance 。然而 biasbias 和 variancevariance 是什么?可以查看 机器学习中的Bias(偏差原创 2021-07-15 14:46:48 · 171 阅读 · 0 评论 -
【DW-李宏毅深度学习】Task02回归
一亿元大幅原创 2021-07-14 10:52:11 · 128 阅读 · 0 评论 -
Task 08总结
此次组队学习是关于图神经网络实战的学习:一,学习了基本的图论知识、常规的图预测任务和PyG库的安装与使用;二,学习了实现图神经网络的通用范式并实践了图神经网络的构建;三,以GCN和GAT(两个最为经典的图神经网络)为例,学习了基于图神经网络的节点表征学习的一般过程,实践了基于PyG的数据全部存于内存的数据集类的构造,并且实践了基于节点表征学习的图节点预测任务和边预测任务;四,学习并实践了应对在超大图上进行节点表征学习面临着的挑战的方案;五,学习了基于图神经网络的图表征学习的一般过程、实践了样本按需原创 2021-07-10 08:05:06 · 93 阅读 · 0 评论