tf.keras逻辑回归

学习目标:

逻辑回归


学习内容:

线性回归预测的是一个连续值,逻辑回归给出的”是”和“否”的回答


逻辑回归

sigmoid函数是一个概率分布函数,给定某个输入,它将输出为一个概率值。

逻辑回归损失函数:
平方差所惩罚的是与损失为同一数量级的情形。对于分类问题,我们最好的使用交叉熵损失函数会更有效,交叉熵会输出一个更大的“损失”


代码:

import tensorflow as tf
import pandas as pd
imoort numpy as np
import matplotlib.pyplot as plt

print("Tensorflow Version: {}".format(tf.__version__))
#导入数据
data = pd.read_csv('dataset/credit-a.csv', header = None) #没有表头
data.iloc[:, -1].value_counts() # 最后一列的类别统计个数
		 1    357
		-1    296
		Name: 15, dtype: int64
#构建训练数据
x = data.iloc[:, :-1]
y = data.iloc[:, -1].replace(-1, 0) # 把-1取代为0 ,一般分类标签是0和1
#建立模型
model = tf.keras.Sequential()
model.add(tf.keras.layers.Dense(4, input_shape=(15,), activation='relu')
model.add(tf.keras.layers.Dense(4, activation='relu')
model.add(tf.keras.layers.Dense(1, activation='sigmoid')
#模型概述
model.summary()
#模型编译
model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['acc'])  #交叉熵损失函数
#训练模型
history = model.fit(x, y, eporch=1000)  #记录训练过程参数
#画图
plt.plot(history.epoch, history.histroy.get('loss'))
plt.plot(history.epoch, history.histroy.get('acc'))

参考文献:
https://study.163.com/course/introduction/1004573006.htm

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值