朴素贝叶斯分类

这个代码的主要目的是预测中文姓名的性别。为了实现这个目标,我们采用了朴素贝叶斯分类器。以下是代码的主要思路、思维方法和使用技巧:

数据准备:

a. 加载数据集:使用pandas库加载一个包含中文姓名和性别的数据集。数据集中的每一行包含一个姓名和对应的性别标签(男或女)。

b. 数据预处理:将每个姓名拆分为单个汉字,并将性别标签转换为数字(0表示男,1表示女)。

c. 特征提取:将每个汉字转换为一个数字特征向量。为此,我们创建了一个字符到索引的映射,用于将每个汉字映射到一个唯一的索引。然后,我们将每个姓名转换为一个向量,其中每个元素表示该姓名中对应汉字出现的次数。

实现朴素贝叶斯分类器:

a. 初始化:定义一个朴素贝叶斯分类器类,用于存储类别数量、特征数量、先验概率和条件概率。

b. 训练:在训练过程中,我们首先计算每个类别的先验概率。然后,我们计算每个特征在每个类别下的条件概率。

c. 预测:在预测过程中,我们计算每个类别的后验概率,并选择具有最高后验概率的类别作为预测结果。

训练和评估模型:

a. 数据集划分:将数据集分为训练集和测试集,以便在训练集上训练模型并在测试集上评估模型的性能。

b. 训练模型:使用训练集训练朴素贝叶斯分类器。

c. 评估模型:在测试集上预测性别,并计算预测准确率。

预测新的中文姓名的性别:

a. 定义一个预测函数:该函数接受一个中文姓名作为输入,并返回预测的性别。

b. 输入检查:确保输入的姓名是一个字符串。

c. 特征提取:将输入的姓名转换为数字特征向量,与训练数据的特征表示相同。

d. 预测性别:使用训练好的朴素贝叶斯分类器预测输入姓名的性别,并返回预测结果。

在整个过程中,我们使用了Python的numpy和pandas库来处理数据和进行计算。此外,我们还使用了列表推导式、lambda函数和map函数等Python特性来简化代码和提高代码可读性。

import pandas as pd
import numpy as np

# 加载数据集
df = pd.read_csv('Name2.txt', header=None, names=['name', 'gender'], delimiter='\t', encoding='utf-8')

# 将姓名拆分为单个汉字
df['name'] = df['name'].apply(lambda x: list(x))

# 将标签转换为数字
df['gender'] = df['gender'].map({'男': 0, '女': 1}).values

# 将姓名转换为数字特征向量
char_to_index = {}
index_to_char = {}
for name in df['name']:
    for char in name:
        if char not in char_to_index:
            index = len(char_to_index)
            char_to_index[char] = index
            index_to_char[index] = char

num_chars = len(char_to_index)
num_names = len(df)
X = np.zeros((num_names, num_chars))
for i, name in enumerate(df['name']):
    for char in name:
        j = char_to_index[char]
        X[i, j] += 1

y = df['gender']

class NaiveBayesClassifier:
    def __init__(self, num_classes, num_features):
        self.num_classes = num_classes
        self.num_features = num_features
        self.priors = np.zeros(num_classes)
        self.conditionals = np.zeros((num_classes, num_features))
        
    def fit(self, X, y):
        # 计算先验概率
        for i in range(self.num_classes):
            self.priors[i] = np.mean(y == i)
        
        # 计算条件概率
        for i in range(self.num_classes):
            X_i = X[y == i]
            self.conditionals[i] = (X_i.sum(axis=0) + 1) / (X_i.sum() + self.num_features)
        
    def predict(self, X):
        # 计算后验概率
        log_p_y = np.log(self.priors)
        log_p_x_y = np.log(self.conditionals)
        log_p_x_y_c = np.dot(X, log_p_x_y.T)
        log_p_y_x = log_p_x_y_c + log_p_y
        # 预测类别
        y_pred = np.argmax(log_p_y_x, axis=1)
        return y_pred

# 将数据集分为训练集和测试集
num_train = int(num_names * 0.8)
X_train, y_train = X[:num_train], y[:num_train]
X_test, y_test = X[num_train:], y[num_train:]

# 训练朴素贝叶斯分类器
clf = NaiveBayesClassifier(num_classes=2, num_features=num_chars)
clf.fit(X_train, y_train)

# 测试分类器
y_pred = clf.predict(X_test)
accuracy = np.mean(y_pred == y_test)
print('Accuracy: %.2f%%' % (accuracy * 100))

# 定义一个函数来预测中文姓名的性别
def predict_gender(name):
    # 检查输入名字是否为字符串
    if not isinstance(name, str):
        raise ValueError("输入的名字必须是一个字符串")

    # 将姓名转换为数字特征向量
    name_vec = np.zeros(num_chars)
    for char in name:
        if char in char_to_index:
            j = char_to_index[char]
            name_vec[j] += 1
    log_p_male = np.log(clf.priors[0]) + np.sum(np.log(clf.conditionals[0][name_vec.nonzero()]))
    log_p_female = np.log(clf.priors[1]) + np.sum(np.log(clf.conditionals[1][name_vec.nonzero()]))
    gender = 0 if log_p_male > log_p_female else 1
    return '女' if gender == 1 else '男'

# 预测新的中文姓名的性别
name1 = '乾元滴'
gender1 = predict_gender(name1)
print(name1 + '的性别是:' + gender1)

name2 = '殷无霜'
gender2 = predict_gender(name2)
print(name2 + '的性别是:' + gender2)

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值