《二代妖精之今生有幸》粉丝是什么意思,就是很喜欢你的人

身负巨债的动物饲养员袁帅,为了还清百万巨债,他四处与富家女相亲,却误打误撞爱上来人间报恩的狐妖白纤楚。

这里写图片描述

1.“粉丝是什么意思?” “就是很喜欢你的人。” “那我是你粉丝。”

2.你们平时,这个妖怪之间聊天,穿衣服吗? 不穿啊。 裸聊啊。 我们有毛啊。

3.“我要跟你结婚,生孩子,我要跟你过一辈子!” “你以为你是许仙白娘子啊?” “白娘子是白蛇,白蛇属白蛇纲,我和她不一样,我是北极银狐,我可比她宝贵多,我生的孩子可好看了!”

这里写图片描述

4.“我有句话要跟你说……” “你不要说,你别说嘛~” “不!我一定要跟你讲……” “你别说!别人都说,人说出这样的话就是快要死了!” “我要说……快叫……救护车……”

5.“你能想象吗?一只雄猫被一只雌鳄鱼抱着!你知道吗?我被玩儿了一整夜!一整夜!”

6.请问你是什么妖怪? 马屁精 气体也能成精? ​

这里写图片描述

7.北族银狐数量稀少,决不可被低贱的人类污染,你知道吗?

8.我才是你的粉丝

基于信息熵进行划分选择的决策树算法是一种用于分类和回归分析的机器学习算法。该算法通过计算样本集中各个属性的熵,选择熵最小的属性作为节点进行划分,进而构建决策树。 Python编程语言提供了丰富的库和工具,可以方便地实现基于信息熵的决策树算法。下面是一个示例代码: ```python import pandas as pd import numpy as np def calculate_entropy(labels): unique_labels = np.unique(labels) entropy = 0 total_samples = len(labels) for label in unique_labels: p_label = len(labels[labels == label]) / total_samples entropy += -p_label * np.log2(p_label) return entropy def calculate_information_gain(data, labels, attribute): unique_values = np.unique(data[attribute]) total_samples = len(labels) info_gain = calculate_entropy(labels) for value in unique_values: subset_labels = labels[data[attribute] == value] p_value = len(subset_labels) / total_samples info_gain -= p_value * calculate_entropy(subset_labels) return info_gain def choose_best_attribute(data, labels): attributes = data.columns best_attribute = '' max_info_gain = -np.inf for attribute in attributes: info_gain = calculate_information_gain(data, labels, attribute) if info_gain > max_info_gain: max_info_gain = info_gain best_attribute = attribute return best_attribute def create_decision_tree(data, labels): # 基准情况:如果所有实例都属于同一类别,则返回该类别 if len(np.unique(labels)) == 1: return labels[0] # 基准情况:如果没有属性可用于划分,则返回实例数量最多的类别 if len(data.columns) == 0: unique_labels, counts = np.unique(labels, return_counts=True) return unique_labels[np.argmax(counts)] best_attribute = choose_best_attribute(data, labels) tree = {best_attribute: {}} unique_values = np.unique(data[best_attribute]) for value in unique_values: subset_data = data[data[best_attribute] == value].drop(columns=best_attribute) subset_labels = labels[data[best_attribute] == value] if len(subset_labels) == 0: unique_labels, counts = np.unique(labels, return_counts=True) tree[best_attribute][value] = unique_labels[np.argmax(counts)] else: tree[best_attribute][value] = create_decision_tree(subset_data, subset_labels) return tree # 示例使用 data = pd.DataFrame({ 'Outlook': ['Sunny', 'Sunny', 'Overcast', 'Rain', 'Rain', 'Rain', 'Overcast', 'Sunny', 'Sunny', 'Rain', 'Sunny', 'Overcast', 'Overcast', 'Rain'], 'Temperature': ['Hot', 'Hot', 'Hot', 'Mild', 'Cool', 'Cool', 'Cool', 'Mild', 'Cool', 'Mild', 'Mild', 'Mild', 'Hot', 'Mild'], 'Humidity': ['High', 'High', 'High', 'High', 'Normal', 'Normal', 'Normal', 'High', 'Normal', 'Normal', 'Normal', 'High', 'Normal', 'High'], 'Wind': ['Weak', 'Strong', 'Weak', 'Weak', 'Weak', 'Strong', 'Strong', 'Weak', 'Weak', 'Weak', 'Strong', 'Strong', 'Weak', 'Strong'], 'Play': ['No', 'No', 'Yes', 'Yes', 'Yes', 'No', 'Yes', 'No', 'Yes', 'Yes', 'Yes', 'Yes', 'Yes', 'No'] }) labels = data['Play'] data = data.drop(columns='Play') decision_tree = create_decision_tree(data, labels) print(decision_tree) ``` 以上代码中,我们首先定义了几个辅助函数。`calculate_entropy`函数用于计算标签的熵,`calculate_information_gain`函数用于计算每个属性的信息增益,`choose_best_attribute`函数用于选择信息增益最高的属性作为划分节点。然后,我们定义了`create_decision_tree`函数来递归构建决策树。 在示例中,我们使用了一个天气预测的数据集来构建决策树。最终打印出的决策树是一个字典,其中键表示划分的属性,值表示该属性的不同取值所对应的子树。 总结来说,Python编程语言提供了丰富的库和工具,可以很方便地实现基于信息熵的决策树算法。通过计算属性的熵和信息增益,我们可以选择最优的属性进行划分,从而构建出一个高效且准确的决策树模型。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

李光春

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值