makerdown基础语法

1.标题

在文字前加#(#可以是1-6,个数不同,标题的级别不同)

2.代码块(代码引用)

语法:
​```
age=18
if age>=18:
	print('成年')
else:
    print('未成年')

3.文字效果

语法:

'文字效果'

引用效果

加粗 (ctrl+b)(2个*)

倾斜(ctrl+l)(1个*)

倾斜和加粗(3个***)

4.列表

有序列表

  1. list

  2. list

  3. list

  4. list


    无序列表

    .list

    .ist

    .list

    .list

    5.图片

    语法:
    ![](网址)

    6.超链接

    百度

    语法:
    [网址名称](网址)
    

    7.表格

    姓名性别年龄籍贯专业
    张三18乌鲁木齐电商

    语法:
    | 标题1  | 标题2  |  标题3 | 标题...|
    

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
## 决策树回归 ### 1. 简介 决策树回归(Decision Tree Regression)是一种基于树形结构的监督学习算法,用于解决回归问题。决策树回归通过将数据集分成多个小的数据子集,每个子集对应一颗决策树,从而构建一个预测模型。在预测时,将待预测样本从根节点开始,沿着特定的分支一直走到叶节点,叶节点的输出则作为预测值。 ### 2. 算法流程 1. 选择最优特征:根据数据集的特征选择最优划分特征。 2. 划分数据集:根据最优特征将数据集划分成子集。 3. 构建决策树:递归地调用步骤1和步骤2,直到所有子集中的数据都属于同一类别或达到预定阈值。 4. 预测结果:将待预测样本从根节点开始,沿着特定的分支一直走到叶节点,叶节点的输出则作为预测值。 ### 3. 实现方式 决策树回归可以通过基于信息增益、信息增益比、基尼指数等方式,选择最优特征划分数据集。常见的决策树算法包括ID3、C4.5、CART等。其中,CART算法可以处理离散型和连续型特征,同时可以处理多输出问题,因此被广泛应用。 ### 4. 优缺点 #### 优点: 1. 决策树易于理解和解释,可以可视化展示。 2. 决策树可以处理离散型和连续型特征,可以处理多输出问题。 3. 决策树可以通过剪枝等方式避免过拟合。 #### 缺点: 1. 决策树容易受到噪声的影响,容易过拟合。 2. 决策树对于那些各类别样本数量不一致的数据,信息增益的结果偏向于那些具有更多数值的特征。 3. 决策树的计算复杂度较高,特别是在处理大量特征时。 ### 5. 应用场景 决策树回归可以应用于各种回归问题,如房价预测、销售预测、股票价格预测等。同时,决策树也可以用于分类问题,如垃圾邮件分类、情感分析等。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值