机器学习
文章平均质量分 75
取名真难.
这个作者很懒,什么都没留下…
展开
-
使用word2vec+tensorflow自然语言处理NLP
Word2Vec是一种用于将文本转换为向量表示的技术。它是由谷歌团队于2013年提出的一种神经网络模型。Word2Vec可以将单词表示为高维空间中的向量,使得具有相似含义的单词在向量空间中距离较近。这种向量表示可以用于各种自然语言处理任务,如语义相似度计算、文本分类和命名实体识别等。Word2Vec的核心思想是通过预测上下文或预测目标词来学习词向量。具体而言,它使用连续词袋(CBOW)和跳字模型(Skip-gram)来训练神经网络,从而得到单词的向量表示。原创 2024-02-13 11:56:31 · 1011 阅读 · 0 评论 -
使用Word Embedding+Keras进行自然语言处理NLP
Word Embedding是一种将单词表示为低维稠密向量的技术。它通过学习单词在文本中的上下文关系,将其映射到一个连续的向量空间中。在这个向量空间中,相似的单词在空间中的距离也比较接近,具有相似含义的单词在空间中的方向也比较一致。Word Embedding可以通过各种方法来实现,包括基于统计的方法(如Word2Vec和GloVe)和基于神经网络的方法(如Skip-gram和CBOW模型)。这些方法通常使用大量的文本语料库来学习单词的向量表示。原创 2024-02-13 11:31:36 · 1250 阅读 · 0 评论 -
应用ANN+SMOTE+Keras Tuner算法进行信用卡交易欺诈侦测
SMOTE(Synthetic Minority Over-sampling Technique)是一种用于处理不均衡数据集的采样方法。在不均衡数据集中,某个类别的样本数量往往很少,这导致了模型对少数类别的预测效果较差。SMOTE采样通过合成新的少数类样本来增加其数量,从而提高模型对少数类样本的学习能力。SMOTE采样的基本思想是对于每个少数类样本,从其最近的k个最近邻样本中随机选择一个样本,然后在该样本与原始样本之间生成一个合成样本。原创 2024-02-07 20:49:56 · 466 阅读 · 0 评论 -
CNN应用Keras Tuner寻找最佳Hidden Layers层数和神经元数量
Keras Tuner是一种用于优化Keras模型超参数的开源Python库。它允许您通过自动化搜索算法来寻找最佳的超参数组合,以提高模型的性能。Keras Tuner提供了一系列内置的超参数搜索算法,如随机搜索、网格搜索、贝叶斯优化等。它还支持自定义搜索空间和搜索算法。通过使用Keras Tuner,您可以更轻松地优化模型的性能,节省调参的时间和精力。原创 2024-02-04 17:47:40 · 859 阅读 · 0 评论 -
RNN(神经网络)
RNN,全称为循环神经网络(Recurrent Neural Network),是一种深度学习模型,它主要用于处理和分析序列数据。与传统的前馈神经网络不同,RNN具有循环连接,允许信息在网络中进行循环传递。RNN的特点在于它可以利用前面的输入信息来影响当前的输出,从而捕捉序列数据中的时序关系。这使得它在处理语音识别、自然语言处理、机器翻译等任务时表现出色。RNN的核心思想是将前一个时间步的输出作为当前时间步的输入,从而在神经网络中引入了记忆机制。原创 2024-02-04 12:49:56 · 1225 阅读 · 1 评论 -
Convolutional Neural Network (CNN) 识别手写数字字体
卷积神经网络(Convolutional Neural Network,CNN)是一种在计算机视觉领域广泛应用的深度学习模型。它主要用于图像识别、目标检测、图像分割等任务。CNN的核心思想是利用卷积操作提取图像的特征。卷积操作是一种基于滤波器的操作,通过滑动窗口在输入图像上提取局部特征,并生成对应的特征图。这种局部感受野的操作可以有效捕捉到图像的空间结构特征,并且具有平移不变性。CNN的结构由多个卷积层、池化层和全连接层组成。卷积层利用多个卷积核对输入图像进行特征提取,每个卷积核对应一个特征图;原创 2024-02-03 23:18:35 · 734 阅读 · 0 评论 -
ANN(MLP) 三种预测
多层感知器(Multilayer Perceptron,MLP)是一种基于人工神经网络的机器学习算法。它由多个神经元(也称为节点)组成,这些神经元排列在不同的层中,并且每个神经元都与上一层的神经元相连。MLP的基本结构包括输入层、输出层和一个或多个隐藏层。输入层接收输入数据,输出层产生最终的输出结果。隐藏层在输入层和输出层之间,它们的作用是对输入数据进行抽象和特征提取。每个神经元都有一个与之关联的权重,这些权重用于计算神经元的加权和。加权和经过激活函数的处理,最终产生神经元的输出。原创 2024-02-03 21:27:01 · 1653 阅读 · 0 评论 -
调整Activation Function参数对神经网络的影响
Activation Function(激活函数)是一种非线性函数,应用在神经网络的每个节点(神经元)上,用来引入非线性变换,增加神经网络的表达能力。在神经网络中,每个节点的输入是通过加权和计算得到的,然后通过激活函数进行非线性变换,得到输出。激活函数可以将输入的范围映射到一个固定的范围内,常用的范围是[0, 1]或[-1, 1]。激活函数的引入可以使神经网络具有更强的表达能力,能够处理更复杂的输入数据。Sigmoid函数:将输入映射到[0, 1]的范围内,具有平滑的非线性特性,但存在梯度消失的问题。原创 2024-02-01 17:57:53 · 752 阅读 · 0 评论 -
应用keras建立ANN模型.
Keras是一个开源的神经网络库,它基于Python语言,并能够在多个深度学习框架上运行,包括TensorFlow、Theano和CNTK。Keras提供了一种简洁而高层次的API,使得用户能够快速构建、训练和部署神经网络模型。Keras的设计理念是以用户友好和易用性为重点。它提供了一系列高层次的构建模块,可以快速创建各种类型的神经网络模型,如全连接神经网络、卷积神经网络和循环神经网络等。Keras还提供了丰富的预训练模型和工具,方便用户进行模型的迁移学习和迁移部署。原创 2024-01-31 22:47:41 · 471 阅读 · 0 评论 -
神经网络建立(结果可变)最小神经元
在深度学习中,神经元通常指的是人工神经元(或感知器),它是深度神经网络中的基本单元。深度学习的神经元模拟了生物神经元的工作原理,但在实现上更加简化和抽象。在深度学习神经元中,每个神经元接收一组输入信号,通过加权求和和激活函数来生成输出信号。每个输入信号都有一个对应的权重,用于控制其对输出信号的影响程度。加权求和之后,通过激活函数进行非线性变换,以生成最终的输出信号。原创 2024-01-29 22:03:58 · 439 阅读 · 0 评论 -
使用程序设计流程图解析并建立神经网络(不依赖深度学习library)
(1)Take inputs 输入#(3)Assign random weights to input features 随机一个权重#(4)Run the code for training. 训练集训练#(5)Find the error in prediction. 找预测损失#(6)Update the weight by gradient descent algorithm. 根据梯度下降更新权重。原创 2024-01-29 20:38:42 · 647 阅读 · 2 评论 -
深度学习使用python建立最简单的神经元neuron
在深度学习中,神经元通常指的是人工神经元(或感知器),它是深度神经网络中的基本单元。深度学习的神经元模拟了生物神经元的工作原理,但在实现上更加简化和抽象。在深度学习神经元中,每个神经元接收一组输入信号,通过加权求和和激活函数来生成输出信号。每个输入信号都有一个对应的权重,用于控制其对输出信号的影响程度。加权求和之后,通过激活函数进行非线性变换,以生成最终的输出信号。原创 2024-01-29 19:10:39 · 639 阅读 · 0 评论 -
对于已交付(客户流失预警)模型的模型可解释LIME
LIME (Local Interpretable Model-agnostic Explanations) 是一种解释机器学习模型的方法。它通过生成一个可解释模型,来解释黑盒模型的预测。LIME的主要思想是在附近生成一组局部数据点,然后使用可解释模型来逼近黑盒模型在这些数据点上的预测。通过解释局部数据点上的预测结果,LIME可以帮助我们理解黑盒模型的决策过程,并提供对预测结果的解释。LIME广泛应用于解释图像分类、自然语言处理和其他机器学习任务中的模型预测。原创 2024-01-29 17:54:11 · 490 阅读 · 0 评论 -
基于信用卡交易欺诈非均衡数据的处理
SMOTETomek结合了SMOTE和Tomek Links的方法,首先使用SMOTE生成合成样本来增加少数类别的数量,然后使用Tomek Links来删除类别之间的重叠样本,从而达到平衡数据集的目的。在不平衡数据集中,少数类别的样本数量较少,导致模型在预测时可能倾向于预测多数类别,从而影响模型的性能。明显用over_sampling来建模,不仅precision_score的值提高了,accuracy_score的值还没有降低,说明在预测交易欺诈这个数据集类型时,用over_sampling会更好。原创 2024-01-18 22:44:01 · 892 阅读 · 0 评论 -
十一种无监督聚类算法说明
无监督聚类是一种机器学习技术,用于将数据分组成不同的类别,而无需提前标记或指导。在无监督聚类中,算法通过分析数据之间的相似性和差异性,自动将数据划分为具有相似特征的组。原创 2024-01-17 18:40:41 · 1252 阅读 · 0 评论 -
八种无监督聚类算法说明
无监督聚类是一种机器学习技术,用于将数据分组成不同的类别,而无需提前标记或指导。在无监督聚类中,算法通过分析数据之间的相似性和差异性,自动将数据划分为具有相似特征的组。原创 2024-01-17 17:51:51 · 1179 阅读 · 0 评论 -
四种无监督聚类算法说明
无监督聚类是一种机器学习技术,用于将数据分组成不同的类别,而无需提前标记或指导。在无监督聚类中,算法通过分析数据之间的相似性和差异性,自动将数据划分为具有相似特征的组。原创 2024-01-13 12:08:51 · 1557 阅读 · 0 评论 -
无监督学习Principal Component Analysis(PCA)精简高维数据
PCA通过线性变换将高维数据映射到低维空间,从而得到数据的主要特征。PCA的目标是找到一个正交基的集合,使得将数据投影到这些基上时,能够保留尽可能多的数据信息。每个正交基称为一个主成分,它的重要性通过其对应的特征值来衡量。PCA通过计算特征值和特征向量,找到数据中最重要的特征,将数据投影到这些特征上,从而达到降维和提取主要特征的目的。通过PCA可以减少数据的维度,并且可以保留数据的主要特征,以便于后续的数据分析和建模。原创 2024-01-12 12:02:24 · 449 阅读 · 0 评论 -
KMeans clustering如何验证K点最佳 - silhouette analysis
Silhouette系数越接近1,表示数据点与其所属聚类的内部距离较小,与其他聚类的外部距离较大,说明聚类有效。而Silhouette系数越接近-1,表示数据点与其所属聚类的内部距离较大,与其他聚类的外部距离较小,说明聚类结果不准确。它根据每个数据点与其所属聚类的内部距离和与其他聚类的外部距离之间的比值,计算出一个介于-1和1之间的Silhouette系数。通过对所有数据点的Silhouette系数进行平均,可以得到一个聚类的整体Silhouette系数,用于评估聚类的质量。原创 2024-01-12 09:42:28 · 663 阅读 · 0 评论 -
Support Vector Machine 建模(基于三种数据集)
SVM的目标是将数据集划分为不同的类别,并且找到一个最优的超平面,使得不同类别的样本在超平面上的投影点尽可能地分离开来。SVM的训练过程可以通过求解一个二次规划问题来实现,该问题的目标是最大化边界的宽度,同时使得分类误差最小化。在求解过程中,只有支持向量(离超平面最近的样本点)对最终分类结果有影响,而其他样本点对最终结果没有影响,这使得SVM具有较好的鲁棒性。支持向量机在不同的问题中有多种变体,包括线性支持向量机(Linear SVM)、非线性支持向量机(Nonlinear SVM)、多类别支持向量机等。原创 2024-01-08 16:44:22 · 915 阅读 · 0 评论 -
纽约Uber数据分析图形化和K-means计算热点
K-means是一种聚类算法,用于将一组样本分成预定数量的簇。它通过计算样本之间的距离,将它们分配到最近的簇中,然后根据分配的结果,更新簇的中心位置。这个过程迭代进行,直到簇的中心位置不再变化或达到预定的迭代次数。K-means算法的目标是最小化簇内样本之间的方差,同时最大化簇与簇之间的距离,以达到有效的聚类效果。它是一种简单且高效的聚类算法,常用于数据挖掘、图像处理和模式识别等领域。原创 2024-01-08 11:36:47 · 523 阅读 · 0 评论 -
DBSCAN聚类模型
DBSCAN算法的基本思想是通过计算每个数据点的邻域密度来确定聚类。具体而言,算法从一个未访问的数据点开始,找到其邻域内的所有数据点。如果邻域内包含足够数量的数据点,则形成一个聚类。然后,对于聚类中的每个数据点,继续查找其邻域内的数据点,并将其加入到聚类中。它能够将具有足够高密度的数据点聚类在一起,并且能够识别噪声点。邻域半径和最小邻域数决定了聚类的紧密度和噪声点的容忍度。DBSCAN算法的特点是能够识别任意形状的聚类,并且对噪声点具有鲁棒性。它能够根据数据点的密度特征自动确定聚类,并且能够处理噪声点。原创 2024-01-07 16:55:14 · 1638 阅读 · 1 评论 -
Hierarchical Clusting模型
Hierarchical Clustering 是一种常用的聚类方法,它通过构建一个层次化的聚类树(或者称为聚类图),将数据点逐步合并组成不同的聚类簇。Hierarchical Clustering 的主要思想是将相似的数据点归为一类,然后逐步合并这些类别,最终形成一个层次化的聚类结果。这个过程可以通过两种方式实现:自底向上的聚合(Agglomerative Clustering)和自顶向下的分解(Divisive Clustering)。自底向上的聚合是一种自底向上逐步合并数据点的方法。原创 2024-01-06 18:05:58 · 400 阅读 · 0 评论 -
四个模型建模及数据分析整理(基于Titanic数据集)
AdaBoost的基本思想是对训练样本进行加权,将分类错误的样本权值增大,再训练下一个分类器。经过多轮迭代,每个样本都会得到不同的权值,并且每个分类器都有一定的权重。最终,AdaBoost通过对所有分类器的加权求和,得到最终的分类结果。它通过训练一系列弱分类器(即准确率略高于随机猜测的分类器),然后将它们组合成一个强分类器。总的来说,AdaBoost是一种强大的集成学习算法,可以通过组合多个弱分类器来提高分类的准确性。最终的强分类器是将每个弱分类器的输出加权求和,并根据总体输出判断样本的分类。原创 2024-01-06 17:08:56 · 1470 阅读 · 0 评论 -
无监督学习(K-Means)的认识
无监督学习是一种机器学习的方法,与监督学习不同,无监督学习不需要标记好的训练数据作为输入。在无监督学习中,算法根据输入数据的内在结构和模式来自动学习。这种学习的目标是发现数据中的隐藏模式、结构或关系,而不是根据预定义的标签进行分类或预测。无监督学习算法可以用于聚类、降维、异常检测等任务,可以帮助我们理解数据的特点和相似性,挖掘数据的潜在知识,以及发现数据中的异常情况。原创 2024-01-05 21:25:39 · 1187 阅读 · 0 评论 -
Bayes贝叶斯识别Spam Email垃圾邮件
贝叶斯算法是一种基于概率模型的分类算法,它利用贝叶斯定理来对待分类样本进行概率推断。贝叶斯定理是一种条件概率关系,它的核心思想是根据已知的先验概率和新的证据信息,来更新对事件发生概率的估计。收集和准备数据集:收集已知样本,对数据进行清洗和预处理,确保数据的质量和准确性。计算先验概率:根据已知样本的类别标签,计算各个类别的先验概率,即在没有其他信息的情况下,每个类别发生的概率。计算条件概率:对于每个类别,计算每个特征的条件概率,即在该类别下,每个特征取某个值的概率。原创 2024-01-04 20:18:46 · 1171 阅读 · 0 评论 -
k Nearest Neighbour(KNN)建模
它的基本思想是对未知样本进行预测时,先找到训练数据集中与该样本最近的K个样本,然后根据这K个样本的标签进行预测。1. 计算未知样本与训练数据集中所有样本的距离,常用的距离度量方法有欧氏距离、曼哈顿距离等。KNN模型在实际应用中广泛使用,特别是在文本分类、图像识别、推荐系统等领域取得了良好的效果。3. 根据K个样本的标签进行投票或者计算加权平均值,得到未知样本的预测结果。2. 根据计算得到的距离按照从小到大的顺序排序,选取距离最近的K个样本。2. 对异常值不敏感,因为它是基于距离进行判断的。原创 2024-01-04 12:37:17 · 487 阅读 · 0 评论 -
随机森林,Random Forests Classifiers/Regressor
随机森林在许多方面都表现出良好的性能。它可以用于分类问题和回归问题,并且对于处理高维数据和大型数据集也非常有效。此外,随机森林能够处理缺失数据和不平衡数据,并能够评估特征的重要性。总的来说,随机森林是一种强大的机器学习算法,它通过组合多个决策树的预测结果来提高模型的性能和鲁棒性。它在实际应用中广泛使用,并且具有很好的可解释性和通用性。随机森林(Random Forests)是一种集成学习算法,它由多个决策树组成。它在每个决策树的训练过程中引入了随机性,以提高模型的泛化能力和鲁棒性。1.4 特征值的缩减。原创 2024-01-04 12:21:22 · 1243 阅读 · 0 评论 -
Decision Tree建模with Gini and Entropy
决策树是一种用于分类和回归分析的机器学习算法。它通过创建树状的决策规则来对数据进行分类或预测。决策树的每个节点代表一个属性,每个分支代表一个判断条件,而每个叶节点代表一个类别或一个回归值。决策树的构建过程是通过计算数据集中各个属性的信息增益或信息熵来选择最优的属性进行划分,直到所有数据都被准确分类或达到停止条件。决策树具有可解释性强、易于理解和实现等优点,广泛应用于数据挖掘、模式识别和预测分析等领域。原创 2023-12-21 16:26:25 · 1407 阅读 · 0 评论 -
机器学习数据的清洗,转化,汇总及建模完整步骤(基于Titanic数据集)
线性回归是一种常用的机器学习方法,用于建立一个输入变量与输出变量之间线性关系的预测模型。线性回归的目标是找到一条最佳拟合直线,使得预测值与实际观测值之间的误差最小。线性回归的训练过程是通过最小化目标变量与预测值之间的平方误差来确定模型的参数。常用的最小化目标函数是平方误差和(Sum of Squared Errors,SSE)。线性回归模型的优点包括简单易懂、计算效率高、可解释性强。然而,线性回归模型的局限性在于假设了输入和输出之间的关系是线性的,无法很好地处理非线性关系。原创 2023-12-20 23:34:06 · 1095 阅读 · 0 评论 -
Logistic Regression逻辑线性回归(基于diabetes数据集)
Logistic Regression(逻辑回归)是一种用于解决分类问题的统计学习方法。它是线性回归的一种改进,主要用于处理二分类问题,也可以通过修改算法来处理多分类问题。Logistic Regression的主要思想是通过线性回归模型的线性组合,将其映射到一个特定的函数(称为sigmoid函数)的输出范围内,从而将输入数据映射为一个概率值。sigmoid函数的输出范围为0到1之间,表示某个样本属于某个类别的概率。Logistic Regression的训练过程是通过最大似然估计来求解模型参数。原创 2023-12-20 17:38:05 · 1157 阅读 · 0 评论 -
Ridge & Lasso Regression解决线性回归的过拟合(Overfitting)(基于波士顿房价预测)
过拟合(Overfitting)是指机器学习模型过于复杂,过于精确地适应了训练数据,导致在新数据上的预测表现不佳的现象。当一个模型过拟合时,它会在训练数据上表现得非常好,但在测试数据或新数据上的表现则很差。过拟合通常发生在模型复杂度较高、参数较多的情况下。原因可能是模型过多地记住了训练数据的细节和噪声,而忽略了数据的一般特征和模式。过拟合也可能是由于训练数据不足或不平衡导致的。原创 2023-12-19 22:59:51 · 1215 阅读 · 3 评论 -
Linear Regression多重共线性
多重共线性是指在线性回归模型中,自变量之间存在强相关性或线性关系,从而导致模型的稳定性和可解释性受到影响。在线性回归中,我们希望自变量与因变量之间有一定的线性关系,且自变量之间尽可能不相关,这样可以更好地解释因变量的变化。然而,当自变量之间存在强相关性时,模型很难区分各自变量对因变量的独立贡献,导致估计结果不准确。多重共线性会对线性回归模型产生以下影响:1. 估计值不稳定:由于自变量之间存在强相关性,小的变动可能导致估计值发生较大变化,使得模型不稳定。原创 2023-12-19 17:37:21 · 377 阅读 · 0 评论 -
Polynomial(Linear) Regression 多项式线性回归
多项式线性回归的优点是可以适用于非线性数据,并且具有较强的拟合能力。因此,在应用多项式线性回归模型时,需要注意选择合适的模型复杂度,并进行模型评估和调整。然后,选择适当的多项式阶数,并使用最小二乘法或其他方法拟合多项式线性回归模型。总之,多项式线性回归是一种扩展了线性回归模型的方法,通过引入多项式函数来拟合非线性数据。其中,y是因变量,x是自变量,b0、b1、...、bn是回归系数,n是多项式的阶数。多项式线性回归是一种线性回归的扩展,它允许我们在模型中使用多项式函数来拟合数据。3.2 多项式线性回归。原创 2023-12-18 22:45:10 · 709 阅读 · 0 评论 -
Linear Regression线性回归(一元、多元)
线性回归是一种用于预测数值输出的统计分析方法。它通过建立自变量(也称为特征变量)和因变量之间的线性关系来进行预测。在线性回归中,自变量和因变量之间的关系可以用一条直线来表示。线性回归的目标是找到最佳拟合直线,使得预测值和真实值之间的差异最小化。常用的求解方法是最小二乘法,即通过最小化预测值与真实值之间的平方差来确定最佳拟合直线的参数。线性回归模型的表示形式如下:其中,Y是因变量,X1到Xn是自变量,β0到βn是模型的参数,ε是误差项。线性回归的优点包括模型简单易解释、计算效率高等。原创 2023-12-18 22:22:11 · 1918 阅读 · 0 评论 -
单变量、双变量、多变量分析(基于iris数据集)
利用padas、numpy、matplotlib、seaborn库,对数据进行分析。Iris数据集是非常著名的机器学习数据集之一,在统计学和机器学习领域被广泛应用。该数据集包含了150个样本,分别来自三种不同的鸢尾花(Iris)品种:山鸢尾(setosa)、变色鸢尾(versicolor)和维吉尼亚鸢尾(virginica)。每个样本包含了4个特征:花萼长度(sepal length)、花萼宽度(sepal width)、花瓣长度(petal length)和花瓣宽度(petal width)。原创 2023-12-17 09:54:47 · 461 阅读 · 0 评论 -
seaborn库图形进行数据分析(基于tips数据集)
Seaborn 是一个基于 matplotlib 的数据可视化库,可以用来绘制各种统计图表,包括散点图、条形图、折线图、箱线图等。Seaborn 提供了一些用于美化图表的默认样式和颜色主题,使得生成的图表更具有吸引力。下面是一些 Seaborn 库的常用功能和用法。原创 2023-12-16 23:05:12 · 955 阅读 · 0 评论 -
matplotlib
Matplotlib是一个用于创建2D图表和绘图的Python库。它提供了广泛的功能,可以用于生成各种类型的图表,包括线图、散点图、条形图、直方图、饼图等等。Matplotlib可以用于数据可视化、数据分析、数据探索和科学计算。Matplotlib的主要特点包括:1. 易于使用:Matplotlib提供了简单直观的API,使得绘制图表变得简单。用户可以通过简单的几行代码就能够创建出复杂的图表。原创 2023-12-16 12:48:34 · 204 阅读 · 0 评论 -
Pandas库
Pandas提供了丰富的数据处理和分析工具,包括数据读取、数据过滤、数据清洗、数据计算、数据统计、数据可视化等功能。DataFrame是二维的表格结构,类似于关系型数据库中的表格,可以存储多种类型的数据。DataFrame由多个Series组成,每个Series代表一列数据,可以通过列的索引来访问和操作数据。Pandas是一个开源的Python数据分析库,提供了丰富的数据结构和数据分析工具,使得数据处理任务变得更加简单和高效。Series是一维的数据结构,类似于一维数组,可以存储任意类型的数据。原创 2023-12-15 23:10:02 · 132 阅读 · 0 评论 -
Numpy库
NumPy是一个用于数值计算的Python库,它提供了高效的多维数组对象(ndarray)、用于数组计算的函数以及用于线性代数、傅里叶变换和随机数生成的工具。NumPy的主要特点包括:1. ndarray:NumPy的多维数组对象,可以存储相同类型的元素,并提供了许多用于数组操作的方法。2. 广播(broadcasting):NumPy能够进行不同形状数组之间的运算,通过广播机制自动对数组进行扩展和操作。原创 2023-12-14 23:02:27 · 303 阅读 · 0 评论