跟着迪哥学python_资料 | 跟着迪哥学Python数据分析与机器学习实战

原标题:资料 | 跟着迪哥学Python数据分析与机器学习实战

下载地址:

https://www.yanxishe.com/resourceDetail/1366?from=leiphonecolumn_res0514

图书简介信息来自:https://www.epubit.com/bookDetails?id=UB6c785855eae64

内容简介:

全书共20章,大致分为4个部分。第1部分介绍了Python必备的工具包,包括科学计算库Numpy、数据分析库Pandas、可视化库Matplotlib;第2部分讲解了机器学习中的经典算法,例如回归算法、决策树、集成算法、支持向量机、聚类算法等;第3部分介绍了深度学习中的常用算法,包括神经网络、卷积神经网络、递归神经网络;第4部分是项目实战,基于真实数据集,将算法模型应用到实际业务中。

AI 研习社已经和阿里大文娱、旷视、搜狗搜索、小米等知名公司达成联系,帮助大家更好地求职找工作,一键投递简历至 HR 后台,准备了一些内推渠道群。

欢迎大家添加研习社小学妹微信(aiyanxishe),小学妹拉你加入(备注求职)。

雷锋网雷锋网雷锋网(公众号:雷锋网)

相关文章:

资料 | 【中译本】Effective Python. 编写高质量 Python 代码的 59 个有效方法.Brett Slatkin

资料 | Java 核心技术第 10 版(套装共 2 册)

资料 | 数据科学家养成手册

资料 | 重磅!阿里达摩院发布2020十大科技趋势(附PDF)

资料 | 解忧程序员——高薪编程、求职面试与成长转型宝典

资料 | Python入门经典:以解决计算问题为导向的Python编程实践

资料 | 2019年新书《基于PyTorch的自然语言处理》pdf

资料 | 算法导论(原书第2版)

资料 | 普林斯顿大学陈丹琦主讲2020课程《深度学习自然语言处理》课程课件

资料 | Yann Lecun 纽约大学《深度学习(PyTorch)》课程(2020)PPT

资料 | 干货书《数据科学数学系基础》2020 最新版

资料 | 《(中文版)数据结构与算法分析:C 语言描述》

资料 | 简明 Python 教程

资料 | 《 神经网络与深度学习 中文版 PDF 》

资料 |《 21 个项目玩转深度学习——基于TensorFlow 的实践详解 》

资料 | 《 具体数学 计算机科学基础(第2版)-中英双版 》

资料 |《程序员面试逻辑题解析》

资料 | ​精通数据科学:从线性回归到深度学习

资料 | ​学习 OpenCV 中文版

资料 | ​解析卷积神经网络 ——深度学习实践手册

雷锋网版权文章,未经授权禁止转载。详情见转载须知。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
逻辑回归是一种机器学习算法,常用于二分类问题。下面是一个逻辑回归的Python代码实现的例子: ```python import numpy as np import pandas as pd # Sigmoid函数,用于将预测结果转化为概率值 def sigmoid(z): return 1 / (1 + np.exp(-z)) # 损失函数,用于评估模型的准确性 def cost(theta, X, y): theta = np.matrix(theta) X = np.matrix(X) y = np.matrix(y) first = np.multiply(-y, np.log(sigmoid(X * theta.T))) second = np.multiply((1-y), np.log(1 - sigmoid(X * theta.T))) return np.sum(first - second) / len(X) # 梯度下降算法,用于最小化损失函数,得到最优参数 def gradientDescent(X, y, theta, alpha, iters): temp = np.matrix(np.zeros(theta.shape)) parameters = int(theta.ravel().shape[1]) cost = np.zeros(iters) for i in range(iters): error = sigmoid(X * theta.T) - y for j in range(parameters): term = np.multiply(error, X[:,j]) temp[0,j] = theta[0,j] - (alpha / len(X)) * np.sum(term) theta = temp cost[i] = cost(theta, X, y) return theta, cost # 读取数据 data = pd.read_csv('data.csv') # 添加一列全为1的特征列 data.insert(0, 'Ones', 1) # 将数据转化为矩阵 cols = data.shape[1] X = data.iloc[:,0:cols-1] y = data.iloc[:,cols-1:cols] X = np.matrix(X.values) y = np.matrix(y.values) theta = np.zeros([1,3]) # 设置习率和迭代次数 alpha = 0.01 iters = 1000 # 执行梯度下降算法,得到最优参数 theta, cost = gradientDescent(X, y, theta, alpha, iters) # 输出最优参数和损失函数值 print("最优参数:", theta) print("损失函数值:", cost[-1]) ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值