![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 58
嘿哈哈哈
人生就像一场演出,不到谢幕永远不知道自己有多精彩。
展开
-
Google TTS 生成演讲音频
查看官网的示例,并复制示例请求复制示例请求,调用程序接口将输出的结果解码成音频文件原创 2022-11-09 18:18:15 · 234 阅读 · 0 评论 -
理清 NVIDIA,CUDA,cuDNN,nvcc 关系 && CUDA 环境安装
文章目录概念介绍CUDA 环境安装服务器基础环境安装基础软件SSH 和 SFTPAnaconda替换 apt 源NVIDIA 驱动安装CUDA-toolkit 安装cuDNN 安装概念介绍NVIDIA 驱动:显卡驱动,安装后可以使用 nvidia-smi 命令。CUDA:CUDA是一个并行计算平台和编程模型,能够使得使用GPU进行通用计算变得简单和优雅。可以看作编程语言,也可以看作 API。运行CUDA应用程序要求系统至少具有一个具有CUDA功能的GPU和与CUDA Toolkit兼容的驱动程原创 2022-04-13 11:36:23 · 1959 阅读 · 0 评论 -
读书笔记:《百面机器学习》
原创 2022-03-10 16:44:49 · 948 阅读 · 0 评论 -
机器学习比赛(ATEC)经验帖
文章目录@[TOC]数据分析基础分析缺失值分析详细分析数据处理特征和标签分离去除无效特征(只有单一值)处理缺失值(xgboost 无法处理缺失值,lightGBM 可以)去除离群点归一化和标准化数据集拆分特征工程模型选择(回归 or 分类)模型调优附录:Bert & 深度学习附录:黑技巧附录:资料存档附录:rank 代码数据分析基础分析import pandas as pdraw_data = pd.read_json(train_data_path,encoding='utf-8',lin原创 2021-11-08 18:36:24 · 1806 阅读 · 0 评论 -
归一化和标准化
归一化:数据平移缩放到0~1,去除量纲,但是对异常点比较敏感标准化:数据平移缩放到01正态分布,将集中分布的数据打散其他可选数据处理方式:缩放到均值为0,方差为1(Standardization——StandardScaler())缩放到0和1之间(Standardization——MinMaxScaler())缩放到-1和1之间(Standardization——MaxAbsScaler())缩放到0和1之间,保留原始数据的分布(Normalization——Normalizer())原创 2021-08-10 15:34:19 · 1313 阅读 · 0 评论 -
机器学习:考试总结
绪论机器学习能做什么?手写字符识别汽车自动驾驶下棋(Deep Blue)判断你的年龄如何实现,存在的问题:用何种形式来表示经验。如何从历史数据中提取经验。什么是机器学习?定义一:A computer program is said to learn from experience E with respect to some class of tasks T an...原创 2019-06-18 08:15:08 · 5697 阅读 · 0 评论 -
机器学习:过拟合和正则化
正则化过拟合问题过拟合:过拟合是指为了得到一致假设而使假设变得过度严格。避免过拟合是分类器设计中的一个核心任务。通常采用增大数据量和测试样本集的方法对分类器性能进行评价。过拟合的判断方法:一个假设在训练数据上能够获得比其他假设更好的拟合,但是在训练数据外的数据集上却不能很好地拟合数据,此时认为这个假设出现了过拟合的现象。出现这种现象的主要原因是训练数据中存在噪音或者训练数据太少。过拟合的...原创 2019-06-12 10:26:08 · 461 阅读 · 0 评论 -
机器学习:总结(周某华)
绪论基本术语机器学习(machine learning):致力于研究如何通过计算的手段,利用经验来改善系统自身的性能。机器学习所研究的主要内容,是关于在计算机上从数据中产生"模型"的算法,即"学习算法"(learning algorithm)。模型(model):泛指从数据中学得的结果。有文献用"模型"指全局性结 果(例如一棵决策树),而用"模式"指局部性结果(例如一条规则)。数据集(d...原创 2019-06-15 23:32:46 · 10658 阅读 · 0 评论 -
机器学习:贝叶斯学习
朴素贝叶斯分类器(Naive Bayesian Classifier)原创 2019-06-13 17:50:06 · 432 阅读 · 0 评论 -
机器学习:集成学习
BoostingAdaBoostBaggingStackingReferences:adaboost、bagging、boosting的区别集成学习系列(七)-Stacking原理及Python实现详解stacking过程原创 2019-06-13 11:32:27 · 375 阅读 · 0 评论 -
机器学习:非负矩阵分解(NMF)
原创 2019-06-13 11:10:16 · 2295 阅读 · 7 评论 -
机器学习:PageRank
PageRank核心思想PageRank算法PageRank算法总的来说就是预先给每个网页一个PR值(下面用PR值指代PageRank值),由于PR值物理意义上为一个网页被访问概率,所以一般是1N\frac{1}{N}N1,其中N为网页总数。另外,一般情况下,所有网页的PR值的总和为1。如果不为1的话也不是不行,最后算出来的不同网页之间PR值的大小关系仍然是正确的,只是不能直接地反映概率...原创 2019-06-13 10:59:53 · 2305 阅读 · 2 评论 -
机器学习:降维
降维目标数据压缩可视化主成分分析(PCA)PCA(Principal Component Analysis),即主成分分析方法,是一种使用最广泛的数据降维算法。PCA的主要思想是将n维特征映射到k维上,这k维是全新的正交特征也被称为主成分,是在原有n维特征的基础上重新构造出来的k维特征。PCA的工作就是从原始的空间中顺序地找一组相互正交的坐标轴,新的坐标轴的选择与数据本身是密切相...原创 2019-06-12 22:34:21 · 1082 阅读 · 0 评论 -
机器学习:聚类
聚类监督学习和无监督学习聚类算法优化目标随机初始化选取聚类数量肘部方法其他聚类算法基于密度的聚类算法:DBSCAN基于层次的聚类算法:AGNES高斯混合聚类算法:GMM网络数据聚类算法:Mincut...原创 2019-06-12 22:00:02 · 358 阅读 · 0 评论 -
机器学习:机器学习评估和统计学习理论
机器学习评估交叉验证与训练集、验证集、测试集使用验证集来选择假设模型。使用测试集来衡量假设模型的泛化误差。如果给定的样本数据充足,我们通常使用均匀随机抽样的方式将数据集划分成3个部分——训练集、验证集和测试集,这三个集合不能有交集,常见的比例是8:1:1。需要注意的是,通常都会给定训练集和测试集,而不会给验证集。这时候验证集该从哪里得到呢?一般的做法是,从训练集中均匀随机抽...原创 2019-06-12 20:56:17 · 1058 阅读 · 0 评论 -
机器学习:线性方法
线性回归任务和模型获取样本数据的一些特征,看作特征空间中的点,然后寻找线去拟合样本分布。模型表示训练集->学习算法->假设函数(h:是从 X 到 Y 的一个关系映射,可以是线性的,也可以是非线性的)任务的损失函数优化(梯度下降)多元线性回归特征缩放Make sure features are on a similar scale.better:(-1,1)...原创 2019-06-12 16:57:07 · 1287 阅读 · 0 评论 -
机器学习:绪论
绪论机器学习能做什么?手写字符识别汽车自动驾驶下棋判断你的年龄什么是机器学习?定义一:A computer program is said to learn from experience E with respect to some class of tasks T and performance measure P, if its performance at task...原创 2019-06-12 16:34:12 · 548 阅读 · 0 评论 -
机器学习:支持向量机
支持向量机优化目标与逻辑回归相似。直观上对大间隔的理解要想优化损失函数,不仅需要大于 0,更需要大于 1 才可以。大间隔的数学原理间隔越大,X 到 θ 的投影越大,损失函数越小。核函数选择标记点(样本)高斯核函数使用核函数的 SVM 的损失函数偏差方差折中C=1/λC 越大:高偏差,低方差(过拟合)C 越小:低偏差,高方差(欠拟合)σ^2σ...原创 2019-06-17 23:50:38 · 505 阅读 · 0 评论 -
机器学习:神经网络
神经网络学习非线性假设非线性假设采用神经网络的原因:逻辑回归问题不是解决包含大量特征的数据分类问题好办法。所以我们引入了神经网络。如果数据包含上百个特征时呢?例如包含上百个特征的房屋分类问题,或者图像识别领域。例如:(x1, x2, x3, … x100),则即便只包含二次项,二次项的个数也会非常的多。这将导致非常多的高阶多项式,多项式规模急剧膨胀。所以逻辑回归问题不是解决包含大量特征的数...原创 2019-06-12 16:11:12 · 750 阅读 · 0 评论