![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
学习记录
AndrewMX
这个作者很懒,什么都没留下…
展开
-
Numpy常见函数用法解析
一.max(), min() 返回指定数组的最大值或者最小值,其中max(0)返回每一列的最大值,min(1)返回每一行的最小值二. tile(data, shape) 重复某个数组,重复的形式与shape有关,如(3,1)即把数组data在行数上扩充,相当于[data,data,data],而如果shape = (1,2) 则在列上扩充,得到[data:data]三. n...原创 2019-05-19 21:07:09 · 239 阅读 · 2 评论 -
机器学习领域内的好博客--总结
本博客总结了本人在学习机器学习和深度学习方向上的好博客,好文章,会一直更新下去的!算法类 1. 学习七种机器学习算法:小姐姐带你用Python实现7种机器学习算法 使用python和numpy,sklearn实现了诸如线性回归、逻辑回归、感知器算法、最近邻算法、神经网络等; 2. 通俗易懂的理解KNN算法:机器学习实战之KNN语言浅显易懂,很风趣,用三个例子实现了KNN,通...转载 2019-05-17 18:33:25 · 483 阅读 · 0 评论 -
Leetcode刷题笔记
按照力扣官网上的题目顺序,先慢慢写吧:1.两数之和 给定一个整数数组nums和一个目标值target,请你在该数组中找出和为目标值的那两个整数,并返回他们的数组下标。PS:你可以假设每种输入只会对应一个答案。但是,你不能重复利用这个数组中同样的元素。思路:用target减去nums中的每一个数,并设立一个字典来记录对应的下标class Solution: def twoS...原创 2019-05-27 20:18:54 · 175 阅读 · 0 评论 -
从头实现主成分分析(PCA)--Python
主成分分析是一种常用的降维方法,多见于数据预处理阶段,其伪代码如下:输入:样本数据集D={x1,x2,x3,x4},低空间维度数d'过程: 1 对所有样本进行中心化(每个特征维度都减去其均值) 2 计算所有样本的协方差矩阵 3 对协方差矩阵进行特征分解 4 取最大的d'个特征值的对应特征向量w1,w2,w3 输出: 投影矩阵W*=(w1,w2,wd'...原创 2019-06-29 16:13:33 · 856 阅读 · 0 评论 -
我的机器学习之旅
从17年初第一次接触接触机器学习,至今已有两年多,现在将自己会的部分,记录如下:1. 线性回归和逻辑回归核心思路:代价函数最小化方法:最小二乘法(Linear Regression) 梯度下降法 牛顿法2. 主成分分析核心思路:数据降维,保留重要特征方法: 通过中心化和求解协方差矩阵的特征向量,得到降维后结果我的blog:从头实现主成分分析(PCA)--P...原创 2019-07-02 15:10:54 · 2207 阅读 · 0 评论