![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
Samantha_LY
这个作者很懒,什么都没留下…
展开
-
10个opencv的小项目
1.DrowsinessDetector睡意检测https://github.com/misbah4064/drowsinessDetector2.ObjectTracking目标跟踪https://github.com/misbah4064/object_tracking3.LaneDetection车道线检测https://github.com/misbah4064/lane_detection4.FaceLandmarkDetectio...原创 2020-10-26 14:44:14 · 3580 阅读 · 0 评论 -
kaggle-员工离职预测
建立模型1、逻辑回归a、写法from sklearn.model_selection import train_test_splitimport pandas as pdimport numpy as np from sklearn.linear_model import LogisticRegressionfrom sklearn.metrics import accuracy_score,recall_score,precision_score,\原创 2020-08-03 17:31:54 · 1492 阅读 · 1 评论 -
PyTorch入门
PyTorch快速入门1.安装Pytorchhttps://pytorch.org/get-started/locally/2.Pytorch和Numpy# 引入torch模块(这就是我们的pytorch) import torch import numpy # 创建一个Tensortorch_data = torch.Tensor([1,2,3]) # Torch ---> array np_data = torch_data.numpy(...原创 2020-07-15 17:38:30 · 121 阅读 · 0 评论 -
信息增益计算
* 信息增益原理“熵”:一个物理学概念,表示“一个系统的混乱程度”。系统的不确定性越高,熵就越大集合D种第k类样本所占比例为pk , 则D的信息熵定义为:的值越小,则D的纯度越高链接:里面举的例子特别好 https://blog.csdn.net/it_beecoder/article/details/79554388当给出一个样本的时候,通过属性a or b 对样本集D进行划分,目的是确认哪一个属性对正负样本的影响更大?这个时候就要计算<属性a>和<属性.原创 2020-05-09 15:37:21 · 3681 阅读 · 0 评论 -
Bagging与Boosting的区别
样本选择:Bagging算法是有放回的随机采样; Boosting算法是每一轮训练集不变,只是训练集中 的每个样例在分类器中的权重发生变化,而权重根据上一轮的分类结果进行调整;样例权重:Bagging使用随机抽样,样例的权重; Boosting根据错误率不断的调整样例的权重值, 错误率越大则权重越大;预测函数:Bagging所有预测模型的权重相等; Boosting算法对于误差小的分类器...原创 2020-07-06 16:41:20 · 434 阅读 · 0 评论