- 博客(90)
- 资源 (1)
- 收藏
- 关注
原创 吴恩达《深度学习》笔记汇总
第一门课:神经网络和深度学习(第一周)——深度学习引言第一门课:神经网络和深度学习(第二周)——神经网络的编程基础第一门课:神经网络和深度学习(第三周)——浅层神经网络第一门课:神经网络和深度学习(第四周)——深层神经网络第二门课:改善深层神经网络:超参数调试、正则化以及优化(第一周)——深度学习的实用层面第二门课:改善深层神经网络:超参数调试、正则化以及优化(第二周)——优化算法第二门课:改善深层神经网络:超参数调试、正则化以及优化(第三周)——超参数调试、Batch正则化和程序框架 ....
2022-12-14 10:17:33 12146 2
原创 一文捋清【reshape、view、rearrange、contiguous、transpose、squeeze、unsqueeze】——python & torch
一文捋清【reshape、view、rearrange、contiguous、transpose、squeeze、unsqueeze】1. reshape2. view3. rearrange4. transpose5. permute6. contiguous7. squeeze8. unsqueeze1. reshapereshape() 函数: 用于在不更改数据的情况下为数组赋予新形状。注意: 用于低维度转高维度c = np.arange(6)print("** ", c)c1 = c.r
2022-05-08 10:02:17 5149
转载 论文中出现的 cf. i.e. s.t. e.g. w.r.t. et al. etc等英文缩写是什么意思
写在前面本文转载于 论文中出现的 cf. i.e. s.t. e.g. w.r.t. et al. etc等英文缩写是什么意思 https://blog.csdn.net/weixin_42623382/article/details/105104169 ,感谢原博主的汇总。侵删。论文阅读中经常遇到的一些缩写、简拼,具体含义cf. 参考例句:The prefix B denotes that the corresponding quantity is expressed in the frame B
2022-04-02 08:29:19 1650
转载 深度学习的宏观框架——训练(training)和推理(inference)及其应用场景
一个完整的深度框架中应该包含两个主要部分,即训练(training)和推理(inference)训练(Training)打个比方,你现在想要训练一个能区分苹果还是橘子的模型,你需要搜索一些苹果和橘子的图片,这些图片放在一起称为训练数据集(training dataset),训练数据集是有标签的,苹果图片的标签就是苹果,橘子亦然。一个初始神经网络通过不断的优化自身参数,来让自己变得准确,可能开始10张苹果的照片,只有5张被网络认为是苹果,另外5张认错了,这个时候通过优化参数,让另外5张错的也变成对的。这
2022-04-01 22:04:38 2354
转载 深度学习中backbone、head、neck等术语解释
我们在阅读文章的时候,经常看到backbone head neck 这一类的术语,但是我们可能并不知道是什么意思,这篇文章就是对这些术语进行解释:1.backbone:翻译为主干网络的意思,既然说是主干网络,就代表其是网络的一部分,那么是哪部分呢?这个主干网络大多时候指的是提取特征的网络,其作用就是提取图片中的信息,共后面的网络使用。这些网络经常使用的是resnet VGG等,而不是我们自己设计的网络,因为这些网络已经证明了在分类等问题上的特征提取能力是很强的。在用这些网络作为backbone的时候,
2022-02-16 15:30:40 2034 3
原创 第五门课:序列模型(第三周)——序列模型和注意力机制
1. 基础模型seq2seq : 语言翻译特征:输入长度和输出长度不一样image to sequence:图片描述特征:先获取图片中的信息,然后将信息转译出来2. 选择最可能的句子机器翻译模型(条件语言模型) 和 语言模型 一个主要的区别:语言模型 随机地生成句子条件语言模型,你要找到最有可能的英语句子,但是由于句子组合数量过于巨大,因此需要一种合适的搜索算法——集束搜索(Beam Search)贪心搜索算法:每次根据条件概率找到最好的构成句子的单词,但是这种算法没有
2021-09-10 10:11:01 1135
原创 第五门课:序列模型(第二周)——自然语言处理与词嵌入
自然语言处理与词嵌入1. 词汇表征2. 使用词嵌入3. 词嵌入的特性4. 嵌入矩阵5. 学习词嵌入6. Word2Vec7. 负采样8. GloVe 词向量9. 情感分类10. 词嵌入除偏1. 词汇表征词嵌入(word embeddings),这是语言表示的一种方式,可以让算法自动的理解一些类似的词,比如 男人对女人,国王对王后而如果使用个one-hot 向量来表示词,缺点:它把每个词孤立起来,算法对相关词的泛化能力不强(每两个词之间的向量内积都是0)t-SNE(t-distributed sto
2021-09-03 21:16:20 1315
转载 第五门课:序列模型(第一周)——循环序列模型
循环序列模型1. 为什么选择序列模型2. 数学符号3. 循环Recurrent 神经网络模型4. 通过时间的反向传播5. 不同类型的循环神经网络6. 语言模型和序列生成7. 对新序列采样8. 循环神经网络的梯度消失9. Gated Recurrent Unit(GRU单元)10. LSTM(long short term memory)unit11. 双向循环神经网络(Bidirectional RNN)12. 深层循环神经网络(Deep RNNs)1. 为什么选择序列模型有些问题,输入数据 X 和
2021-09-02 11:54:53 1505
转载 关于目标检测章节中出现的问题
什么是Bounding Box、anchor box?由于最近在看YOLOv3算法,感觉老是不清楚bounding box和anchor box的概念,看完吴恩达的视频后准备写一篇博客记下笔记。em…所以也会用吴恩达视频中的例子来讲。在视频中,有一张图片,假设要检测的目标类别有3类,行人、轿车、摩托车。我们将图片划分为3*3的网格(grid cells),并且设置有两个anchor boxes(即,图中那两个紫色边框)。这样每次检测一个grid cell,就会输出一个向量y = [Pc, bx, by
2021-08-31 10:50:47 519
转载 第四门课:卷积神经网络(第四周)——特殊应用:人脸识别和神经风格转换
特殊应用:人脸识别和神经风格转换1. 什么是人脸识别2. One-Shot学习3. Siamese 网络4. Triplet 损失5. 人脸验证与二分类6. 什么是神经风格迁移7. 深度卷积网络在学什么8. Cost function9. Content cost function10. Style cost function11. 一维到三维推广1. 什么是人脸识别门禁闸机:人脸识别+活体检测人脸验证(face verification)输入图片,ID / 人名输出图片是否是这个人(1对1问题
2021-08-29 17:27:15 1015
转载 第四门课:卷积神经网络(第三周)——目标检测
目标检测1. 目标定位2. 特征点检测3. 目标检测4. 滑动窗口的卷积实现5. Bounding Box预测(YOLO)6. 交并比7. 非极大值抑制8. Anchor Boxes9. YOLO 算法10. 候选区域1. 目标定位定位分类问题:不仅要判断图片中是不是一辆汽车,还要标记出它的位置,用框圈起来2. 特征点检测Landmark 检测3. 目标检测基于滑动窗口的目标检测将目标剪切出来,训练卷积网络以一定大小的窗口扫描图片,将窗口内的图片输入卷积网络预测更改窗口大小,重
2021-08-25 17:27:17 1520
原创 Resnet-50网络结构详解
解决的问题:梯度消失,深层网络难训练。因为梯度反向传播到前面的层,重复相乘可能使梯度无穷小。结果就是,随着网络的层数更深,其性能趋于饱和,甚至迅速下降。核心思想:引入一个恒等快捷键(也称之为跳跃连接线),直接跳过一个或者多个层。当有这条跳跃连接线时,网络层次很深导致梯度消失时,F(x)=0,y=g(0+x)=relu(x)=xF(x)=0,y=g(0+x)=relu(x)=xF(x)=0,y=g(0+x)=relu(x)=x在网络上堆叠这样的结构,就算梯度消失,我什么也学不到,我至少把
2021-08-25 10:13:34 29282 2
转载 第四门课:卷积神经网络(第二周)——深度卷积网络:实例探究
深度卷积网络:实例探究1. 为什么要进行实例探究2. 经典网络3. 残差网络 ResNets4. 残差网络为什么有用5. 网络中的网络 以及 1×1 卷积6. 谷歌 Inception 网络简介7. Inception 网络8. 使用开源的实现方案9. 迁移学习10. 数据增强 Data augmentation11. 计算机视觉现状1. 为什么要进行实例探究学习大佬们的组建网络的方法,借鉴过来解决自己的问题经典的网络模型:LeNet-5AlexNetVGGResNet,残差网络,它有152
2021-08-21 14:52:35 1600
翻译 第四门课:卷积神经网络(第一周)——卷积神经网络
卷积神经网络1. 计算机视觉2. 边缘检测示例3. 更多边缘检测4. Padding5. 卷积步长6. 三维卷积7. 单层卷积网络8. 简单卷积网络示例9. 池化层10. 卷积神经网络示例11. 为什么使用卷积?1. 计算机视觉举例:图片猫????识别,目标检测(无人驾驶),图像风格转换(比如转成素描)等等面临的挑战:数据的输入可能会非常大一张1000×1000的图片,特征向量的维度达到了1000×1000×3(RGB,3通道) = 300万在第一隐藏层中,你也许会有1000个隐藏单元,使用标
2021-08-17 11:26:17 2056
转载 第三门课:结构化机器学习项目(第二周)——机器学习策略(2)
机器学习策略[2]1. 进行误差分析2. 清除标注错误的数据3. 快速搭建你的第一个系统,并进行迭代4. 使用来自不同分布的数据,进行训练和测试5. 数据分布不匹配时,偏差与方差的分析6. 定位数据不匹配问题7. 迁移学习 Transfer learning8. 多任务学习 Multi-task learning9. 什么是端到端的深度学习10. 是否要使用端到端的深度学习1. 进行误差分析举例:图片猫分类器,算法将一些狗????分类为猫????收集 n 个预测错误的开发集样本,手动检查(错误分
2021-08-14 18:50:40 1166
转载 第三门课:结构化机器学习项目(第一周)——机器学习策略(1)
机器学习策略[1]1. 机器学习策略2. 正交化 Orthogonalization3. 单一数字评估指标4. 满足和优化指标5. 训练/开发/测试集划分6. 开发集和测试集的大小7. 什么时候该改变开发/测试集和指标8. 人类的表现水准9. 可避免偏差10. 理解人的表现11. 超过人的表现12. 改善你的模型的表现1. 机器学习策略如何改善模型的性能?收集更多数据训练集多样性(如,识别猫,收集各种姿势的猫,以及反例)训练的时间更长一些尝试不同的优化算法(如 Adam优化)规模 更大 /
2021-08-12 09:44:11 1313
转载 吴无需降级scipy的情况下解决AttributeError: module ‘scipy.misc‘ has no attribute ‘imread‘,imresize,imsave等问题
无需降级scipy的情况下解决以下问题:AttributeError: module ‘scipy.misc’ has no attribute ‘imread’,AttributeError: module ‘scipy.misc’ has no attribute ‘imresize’,AttributeError:module ‘scipy.misc’ has no attribute 'imsave’imread,imresize,imsave最近遇到如下三个错误AttributeErr
2021-08-08 09:45:49 1588
转载 第二门课:改善深层神经网络:超参数调试、正则化以及优化(第三周)——超参数调试、Batch正则化和程序框架
这里写目录标题1. 调试处理2. 为超参数选择合适的范围3. 超参数调试的实践4. 归一化网络的激活函数5. 将 Batch Norm 拟合进神经网络6. Batch Norm 为什么奏效7. 测试时的 Batch Norm8. Softmax 回归9. 训练一个 Softmax 分类器10. 深度学习框架11. TensorFlow1. 调试处理需要处理的参数:参数重要程度学习率 α\alphaα★★★★Momentum(动量梯度下降法)参数 β=0.9\beta = 0
2021-08-07 10:44:00 1857
转载 第二门课:改善深层神经网络:超参数调试、正则化以及优化(第二周)——优化算法
这里写目录标题1. Mini-batch 梯度下降2. 理解 mini-batch 梯度下降3. 指数加权平均数4. 理解指数加权平均数5. 指数加权平均的偏差修正6. 动量Momentum梯度下降法7. RMSprop8. Adam 优化算法9. 学习率衰减10. 局部最优的问题1. Mini-batch 梯度下降在巨大的数据集上进行训练,速度非常慢,如何提高效率?前面我们学过向量化可以较快的处理整个训练集的数据,但是如果样本非常的大,在进行下一次梯度下降之前,你必须完成前一次的梯度下降。如果我们能
2021-08-06 10:44:25 1693 1
转载 第二门课:改善深层神经网络:超参数调试、正则化以及优化(第一周)——深度学习的实用层面
深度学习的实用层面1. 训练,验证,测试集2. 偏差,方差3. 机器学习基础4. 正则化5. 为什么正则化预防过拟合6. dropout(随机失活)正则化7. 理解 dropout8. 其他正则化9. 归一化输入10. 梯度消失 / 梯度爆炸11. 神经网络权重初始化12. 梯度的数值逼近13. 梯度检验14. 梯度检验的注意事项1. 训练,验证,测试集深度学习是一个典型的迭代过程,迭代的效率很关键创建高质量的训练数据集,验证集和测试集有助于提高循环效率切分标准:小数据量时代,常见做法是三七分,
2021-08-01 16:04:22 2757 1
原创 第一门课:神经网络和深度学习(第四周)——深层神经网络
深层神经网络1. 深层神经网络2. 深层网络中的前向传播3. 前向传播和反向传播4. 核对矩阵的维数5. 为什么使用深层表示?6. 搭建神经网络块7. 参数 vs. 超参数8. 深度学习和大脑的关联性1. 深层神经网络深层神经网络其实就是包含更多的隐藏层神经网络。如下图所示,分别列举了逻辑回归、1个隐藏层的神经网络、2个隐藏层的神经网络和5个隐藏层的神经网络它们的模型结构。命名规则上,一般只参考隐藏层个数和输出层。例如,上图中的逻辑回归又叫1 layer NN,1个隐藏层的神经网络叫做2 laye
2021-07-30 20:13:55 3413 7
原创 第一门课:神经网络和深度学习(第三周)——浅层神经网络
浅层神经网络1. 神经网络概览2. 神经网络的表示3. 神经网络的输出4. 多样本向量化5. 激活函数6. 为什么需要 非线性激活函数7. 激活函数的导数8. 随机初始化1. 神经网络概览对于以往由逻辑单元组成的简单神经网络,我们对其计算过程已经大致了解。接下来我们类比于浅层神经网络中。第一层根据输入计算 z[1]z^{[1]}z[1] ,然后计算第一层的输出 a[1]a^{[1]}a[1]。把第一层的输出 a[1]a^{[1]}a[1] 作为第二层的输入, 计算 z[2]z^{[2]}z
2021-07-26 12:06:07 2903 1
原创 吴恩达《机器学习》笔记汇总
根据学习进度,将课程分为15部分进行笔记,具体内容如下:吴恩达机器学习(一)—— 简介吴恩达机器学习(二)—— 线性回归吴恩达机器学习(三)—— Logisitic回归吴恩达机器学习(四)—— 正则化吴恩达机器学习(五)—— 神经网络吴恩达机器学习(六)—— 神经网络的学习吴恩达机器学习(七)—— 应用机器学习的建议吴恩达机器学习(八)—— 机器学习系统的设计吴恩达机器学习(九)—— 支持向量机吴恩达机器学习(十)—— 聚类吴恩达机器学习(十一)—— 降维吴恩达机器学习(十二)——
2021-07-22 16:07:51 16279 5
原创 吴恩达《机器学习》课程总结
机器学习课程总结一、有监督学习(Supervised learning)1. 线性回归(Linear regression)2. 逻辑回归(Logistic regression)3. 神经网络(Neural Networks)4. 支持向量机(Support Vector Machines)二、无监督学习(Unsupervised learning)1. K-means算法2. PCA主成分分析三、具体应用实例1. 手写数字识别2. 人脸图像压缩3. 异常检测(Anomaly detection)4. 推
2021-07-22 12:09:49 2899
原创 第一门课:神经网络和深度学习(第一周)——深度学习引言
引言1. 什么是神经网络2. 神经网络的监督学习3. 为什么深度学习会兴起1. 什么是神经网络 我们从一个房价预测的例子开始讲起。 假设你有一个数据集,它包含了六栋房子的信息。所以,你知道房屋的面积是多少平方英尺或者平方米,并且知道房屋价格。这时,你想要拟合一个根据房屋面积预测房价的函数。如下图所示。 我们知道价格永远不会是负数的。所以我们应用一个新的函数来拟合这组数据。该函数从趋近于零开始,然后变成一条直线。这个函数被称作ReLU激活函数,它的全称是Rectified Linear Uni
2021-07-20 16:28:46 3130 3
转载 吴恩达机器学习(十五)—— 应用实例:图片文字识别
应用实例:图片文字识别1. 问题描述和流水线2. 滑动窗口3. 获取大量数据:人工数据合成4. 上限分析:流水线的哪个模块最有改进价值 学习图片文字识别的应用实例要做的事情:展示一个复杂的机器学习系统是如何组合起来的;介绍机器学习流水线(machine learning pipeline)的有关概念以及如何分配资源来对下一步的计划作决定;通过介绍photo OCR(photo Optical Charater Recognition 照片光学字符识别)问题,明白如何将机器学习应用到计算机视觉中及
2021-07-16 11:45:59 1472
转载 吴恩达机器学习(十四)—— 大规模机器学习
大规模机器学习1. 大型数据集的学习2. 随机梯度下降3. 小批量梯度下降4. 随机梯度下降收敛5. 在线学习6. 映射化简和数据并行1. 大型数据集的学习 " It’s not who has the best algorithm that wins. It’s who has the most data. "所以说,要想得到一个高效的机器学习系统的最好方式之一,就是用一个低偏差的学习算法,然后用很多数据来训练它。 但是用很大的数据集也有自己的问题,特别是计算量的问题。假设训练集大小为m=100
2021-07-16 11:29:07 1448
转载 吴恩达机器学习(十三)—— 推荐系统
推荐系统1. 问题规划2. 基于内容的推荐算法3. 协同过滤4. 协同过滤算法5. 向量化:低秩矩阵分解6. 均值归一化1. 问题规划 推荐系统是机器学习中的一个重要应用。 在机器学习中,针对一些问题,有算法可以为系统自动学习一套好的特征。因此,不要试图手动设计,但手写代码是我们目前为止常干的事情。有一些设置,我们可以有一个算法,仅仅学习其使用的特征,推荐系统就是类型设置的一个例子。 电影预测评分的例子如下。假使我们是一个电影供应商,现在有5部电影和4个用户,要求用户为电影打分。 从上表
2021-07-10 11:42:04 1663
转载 吴恩达机器学习(十二)—— 异常检测
异常检测1. 问题的动机2. 高斯分布3. 算法4. 开发和评价异常检测系统5. 异常检测与监督学习对比6. 选择特征7. 多元高斯分布8. 使用多元高斯分布进行异常检测1. 问题的动机 异常检测是机器学习算法的一个常见应用,这种算法的一个有趣之处在于:它虽然主要用于非监督学习,但从某些角度来看,又类似于一些监督学习问题。 一个异常检测的例子:假设作为一个飞机引擎制造商,当我们生产的飞机引擎从生产线上流出时,我们需要进行QA(质量控制测试),而作为这个测试的一部分,我们测量了飞机引擎的一些特征变量
2021-07-10 11:19:16 1753 1
原创 机器学习作业——主成分分析PCA
主成分分析PCA--------------PCA简单使用-------------一:回顾PCA(一)主成分分析法是干什么用的?(二)主成分分析法在做什么?(三)主成分分析法具体怎么做呢?——降维(四)主成分分析法具体怎么做呢?——重建数据二:数据集导入及可视化三:数据预处理三:奇异值分解四:使用PCA进行降维五:数据升维六:绘制PCA可视化图像-------------人脸像素降维之PCA使用---------------------------PCA简单使用-------------一:回顾PCA
2021-07-09 23:05:33 782 5
转载 吴恩达机器学习(十一)—— 降维
降维1. 动机1:数据压缩2. 动机2:数据可视化3. 主成分分析问题规划4. 主成分分析算法5. 重建压缩表示6. 主成分数量的选择7. 应用PCA的建议1. 动机1:数据压缩 数据压缩不仅能对数据进行压缩,使得数据占用较少的内存或硬盘空间,还能让我们对学习算法进行加速。 假使我们要采用两种不同的仪器来测量一些东西的尺寸,其中一个仪器测量结果x1x_{1}x1的单位是厘米,另一个仪器测量的结果x2x_{2}x2是英寸,我们希望将测量的结果作为我们机器学习的特征,如下图所示。现在的问题的是,两
2021-07-08 17:44:07 1580
转载 吴恩达机器学习(十)—— 聚类
聚类1. 无监督学习:简介2. K-均值算法3. 优化目标4. 随机初始化5. 选择聚类数1. 无监督学习:简介在典型的监督学习中,我们有一个有标签的训练集,目标是找到能够区分正样本和负样本的决策边界。与此不同的是,在无监督学习中,我们需要将一系列无标签的训练数据输入到一个算法中,然后让这个算法为我们找到训练数据的内在结构。下图中的无标签数据集看起来可以分成两个分开的点集(称为簇),能够划分这些点集的算法,就被称为聚类算法。有监督学习有标签数据集:{(x(1),y(1)),(x(2),y(2))
2021-07-07 18:54:30 1737 1
转载 吴恩达机器学习(九)—— 支持向量机
支持向量机1. 优化目标2. 大间距的直观理解3. 大间距分类器背后的数学原理4. 核函数5. 使用支持向量机1. 优化目标 与Logistic回归和神经网络相比,支持向量机(SVM)在学习复杂的非线性方程时提供了一种更为清晰、更加强大的方式。 接下来,我们从Logistic回归开始展示我们如何一点一点修改来得到本质上的支持向量机。 Logistic回归模型的假设函数是hθ(x)=g(θTx)=11+e−θTxh_{\theta }(x)=g(\theta ^{T}x)=\frac{1}{1+
2021-07-03 23:38:19 2455
转载 吴恩达机器学习(八)—— 机器学习系统的设计
机器学习系统的设计1. 优先处理的工作:垃圾邮件分类例子2. 误差分析3. 偏斜类的误差度量4. 查准率和查全率之间的权衡5. 机器学习的数据1. 优先处理的工作:垃圾邮件分类例子 在实际的工作过程中,我们应该明白哪些事情要优先处理,接下来我们以一个垃圾邮件分类器算法为例子进行讨论。为了解决这样一个问题,我们首先要做的决定是如何选择并表达特征向量 x x x。我们可以选择一个由100个最常出现在垃圾邮件中的词所构成的列表,根据这些词是否在邮件中出现来获得我们的特征向量(出现为1,不出现为0),尺寸为1
2021-07-03 19:47:39 2002 1
转载 吴恩达机器学习(七)—— 应用机器学习的建议
应用机器学习的建议1. 决定下一步做什么2. 评估假设函数3. 模型选择和训练、验证、测试集4. 诊断偏差和方差5. 正则化和偏差/方差6. 学习曲线7. 决定下一步做什么1. 决定下一步做什么 假设我们正在开发一个机器学习系统,或者想试着改进一个机器学习系统的性能,那么我们该如何去决定接下来要选择哪条道路呢? 看一个例子,假设我们已经实现了预测房价的正则化线性回归,也就是最小化代价函数的值,但是当我们运用训练好了的模型来预测未知数据的时候发现存在较大的误差,我们下一步需要做什么?使用更多的训
2021-07-03 19:07:47 2167
原创 机器学习中关于偏差、方差和误差的理解
在模型预测中,模型可能出现的误差来自两个主要来源: 1、因模型无法表示基本数据的复杂度而造成的偏差(bias); 2、因模型对训练它所用的有限数据过度敏感而造成的方差(variance)。 误差是测量值与真实值之间的差值。用误差衡量测量结果的准确度,用偏差衡量测试结果的精确度;误差是以真实值为标准,偏差是以多次测量结果的平均值为标准。 而方差在统计学中是指各个数据与其平均数之差的平方的和的平均数,它表示的是一种偏离程度:当数据分布比较分散时,方差就较大;因此方差越大,数据的波动越大;方差越小
2021-07-02 17:22:32 2088
转载 吴恩达机器学习(六)—— 神经网络的学习
文章目录1. 代价函数2. 反向传播算法3. 反向传播算法的直观理解4. 实现注意:展开参数5. 梯度下降6. 随机初始化7. 综合起来8. 自动驾驶 神经网络是当下最强大的学习算法之一。接下来讨论一个能在给定训练集时为神经网络拟合参数的学习算法。1. 代价函数 神经网络在分类问题中的应用: 首先引入一些标记方法:假设神经网络的训练样本有 m m m个,每个包含一组输入xxx和一组输出yyy,LLL表示神经网络层数,SlS_{l}Sl 表示第lll层的单元数即神经元的数量(不包含第lll层
2021-06-25 21:03:23 2931
原创 Numpy中matrix和ndarray的区别
文章目录1.生成方式的区别1.1生成martix对象1.2生成ndarray对象2.matrix()和array()关于秩的区别3.运算的区别3.1运算的局限性3.2矩阵乘法3.3维数变化4.两个对象之间的相互转化1.生成方式的区别初始化特定值的矩阵,我们一般用到的方式是np.mat()或np.array()。相信使用过numpy库的学者都应该接触过这两种方法,但对于这两种方法的区别,肯定会有一些初学的小白们没细想它们。下面结合本篇主题,讲讲这两个方法的用法和区别。1.1生成martix对象生成ma
2021-06-21 16:48:50 1068
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人