机器学习:【5】逻辑回归实践(二分类问题)

  • 对于逻辑回归函数,最好使用交叉熵损失函数更有效,交叉熵会输出一个更大的损失
  • 交叉熵刻画的是实际输出概率和期望输出概率的的距离
#本代码基于tensorflow2.0

import tensorflow as tf
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline

#1 导入数据
data = pd.read_csv('data.csv')
data = head()

data.iloc[:, -1].value_counts() #对这一列所有的值进行计数,可以观察数据特征

x = data.iloc[;,  :-1]
y = data.iloc[;, -1].replace(-1, 0) #将数据替换为0,便于模型训练

#2 建立模型
model = tf.keras.Sequential()
model.add(tf.keras.layers.Dense(4, input_shape=(15, ), acticvation = 'relu'))
model.add(tf.keras.layers.Dense(4, acticvation = 'relu')) #程序内部会自行推断,不用定义input
model.add(tf.keras.layers.Dense(1, acticvation = 'sigmoid')) #逻辑回归,使用sigmoid函数

model.summary()

#3 模型编译
model.compile(optimizer='adam',
              loss='binary_crossentropy', #损失函数为二元交叉熵
              metrics=['acc'] #可以输出acc为正确率
)

#4 模型训练
history = model.fit(x, y, epochs=100)

history.history.keys() #可以看到history中记录了loss和acc的变化
plt.plot(history.epoch, history.history.get('loss'))
plt.plot(history.epoch, history.history.get('acc'))

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Alex-YiWang

不要打赏,想要一个赞

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值