深度学习(二)-逻辑回归

本文介绍了如何使用PyTorch实现逻辑回归,用于解决二分类问题。通过迭代的梯度下降法寻找最佳决策边界。文中展示了数据获取、可视化、损失函数与优化器的设定,以及训练过程。最终,利用训练得到的模型参数绘制了分类边界。
摘要由CSDN通过智能技术生成

  逻辑回归很多人并不陌生,我再前面机器学习的逻辑回归:LR这一章节中也有过简单的描述。
  Logistic 回归不仅可以解决二分类问题,也可以解决多分类问题,但是二分类问题最为常见同时也具有良好的解释性 。 对于二分类问题, Logistic 回归的目标是希望找到一个区分度足够好的决策边界,能够将两类很好地分开 。而在前面我也讲过,要找到某函数的最大值,最好的方法是沿着该函数的梯度方向寻找,所以我们可以使用迭代的梯度下降来获得区分函数的最合适的参数。

  这里我使用的数据是《深度学习之pytorch》这本书中处理逻辑回归的数据,数据格式为 ( x i , y i , 类 别 ) (x_i, y_i, 类别) (xi,yi,),首先我们获取数据,并将其可视化:

	with open("./data/data.txt") as f:
	    data_list = [line.strip().split(',') for line in f.readlines()]
	    data = [(float(i[0]), float(i[1]), float(i[2])) for i in data_list]
	
	# 标准化
	x0_max = max([i[0] for i in data])
	x0_min = min([i[0] for i in data])
	x1_max = max([i[1] for i in data])
	x1_min = min([i[1] for i in data])
	data = [
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值