学习目标:
逻辑回归
学习内容:
线性回归预测的是一个连续值,逻辑回归给出的”是”和“否”的回答
逻辑回归
sigmoid函数是一个概率分布函数,给定某个输入,它将输出为一个概率值。
逻辑回归损失函数:
平方差所惩罚的是与损失为同一数量级的情形。对于分类问题,我们最好的使用交叉熵损失函数会更有效,交叉熵会输出一个更大的“损失”
代码:
import tensorflow as tf
import pandas as pd
imoort numpy as np
import matplotlib.pyplot as plt
print("Tensorflow Version: {}".format(tf.__version__))
#导入数据
data = pd.read_csv('dataset/credit-a.csv', header = None) #没有表头
data.iloc[:, -1].value_counts() # 最后一列的类别统计个数
1 357
-1 296
Name: 15, dtype: int64
#构建训练数据
x = data.iloc[:, :-1]
y = data.iloc[:, -1].replace(-1, 0) # 把-1取代为0 ,一般分类标签是0和1
#建立模型
model = tf.keras.Sequential()
model.add(tf.keras.layers.Dense(4, input_shape=(15,), activation='relu')
model.add(tf.keras.layers.Dense(4, activation='relu')
model.add(tf.keras.layers.Dense(1, activation='sigmoid')
#模型概述
model.summary()
#模型编译
model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['acc']) #交叉熵损失函数
#训练模型
history = model.fit(x, y, eporch=1000) #记录训练过程参数
#画图
plt.plot(history.epoch, history.histroy.get('loss'))
plt.plot(history.epoch, history.histroy.get('acc'))
参考文献:
https://study.163.com/course/introduction/1004573006.htm