![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
AI 人工智能
文章平均质量分 95
风尘浪子
IT是我最热爱的行业,我永远可以事工作于娱乐,永远生活幸福当中!
展开
-
TensorFlow 2.0 深度学习实战 —— 浅谈卷积神经网络 CNN
卷积神经网络 CNN(Convolutional Neural Networks,ConvNet)是一种特殊的深度学习神经网络,近年来在物体识别、图像重绘、视频分析等多个层面得到了广泛的应用。本文将介绍 CNN 卷积神经网络的基本原理和基础概念,卷积层与池化层的作用,并以常用的 VGG16 为例子,介绍常用模型的使用方式。把中间激活层输出图,滤波器,热力图等进行可视化分析,让大家进一步了解 CNN 的结构特征。原创 2022-03-28 18:10:17 · 3393 阅读 · 0 评论 -
TensorFlow 2.0 深度学习实战 —— 详细介绍损失函数、优化器、激活函数、多层感知机的实现原理
本文主要介绍了 MSE、MAE、CEE 、Hinge、Huber 等 15 个常用损失函数的计算方式和使用场景,讲解 SGD、AdaGrad、Adam、RMSProp 4类优化器的公式原理,对阶跃激活函数、Sigmoid 激活函数、ReLU激活函数、Leaky ReLU 激活函数、Tanh 激活函数、Softmax激活函数等进行分析。通过分类与回归的使用实例对 MLP 多层感知器的使用进行介绍,对比 Tensorflow 1.x 与 Tensorflow 2.x 在应用上区别。最后,讲解如何使用 dropo原创 2022-03-28 18:04:51 · 6270 阅读 · 0 评论 -
NLP 自然语言处理实战
本文从分词、词频、词向量等基础领域开始讲解自然语言处理的原理,讲解 One-Hot、TF-IDF、PageRank 等算法及 LDA、LDiA、LSA 等语义分析的原理。介绍 Word2vec、GloVe 、Embedding 等常用词嵌入及 NLTK、Jieba 等分词工具的应用。原创 2022-03-28 15:49:54 · 12405 阅读 · 3 评论 -
Python 机器学习实战 —— 无监督学习(下)
本文将对聚类算法进行讲解,聚类算法就是将数据集划分成组的任务,这些组叫成簇,同一个簇内的数据点特征非常相似,不同簇内的数据点特征区别很大,这点与监督学习中的分类算法很类似,运行完成后系统会为同一簇内的数据分配同一个数字,不同簇的数字都不一样。常见的聚类模型有 KMeans、DBSCAN、GMM 、Agglomerative等,下面将一一介绍。原创 2021-12-16 14:56:43 · 1797 阅读 · 1 评论 -
Python 机器学习实战 —— 无监督学习(上)
无监督学习顾名思义数据中不包含已知的输出结果,学习算法中只有输入数据,算法需要从这些输入数据中提取相关规律。无监督学习主要分为两种类型:数据集变换与聚类算法,数据集的无监督变换是创建数据集的新的表达方式,使其特性更容易理解,最常见的模型有 PCA、NMF、t-SNE 等模型。聚类算法则是将数据划分成不同的组.原创 2021-12-07 16:19:41 · 2718 阅读 · 0 评论 -
Python 机器学习实战 —— 监督学习(下)
本文主要介绍支持向量机、k近邻、朴素贝叶斯分类 、决策树、决策树集成等模型的应用。讲解了支持向量机SVM线性与非线性模型的适用环境,并对核函数技巧作出深入的分析,对线性Linear核函数、多项式Poly核函数,高斯RBF核函数进行了对比。讲述了K近邻的使用方法。对高斯朴素贝叶斯分类器(Gaussian naive Bayes)、多项式朴素贝叶斯分类器(Multinomial naive Bayes)和 伯努利贝叶斯分类器 (Bernoullinaive Bayes)进行了不同的介绍。原创 2021-07-29 12:23:35 · 488 阅读 · 0 评论 -
Python 机器学习实战 —— 监督学习(上)
本文主要讲述了机械学习的相关概念与基础知识,监督学习的主要流程。对损失函数进行了基础的介绍,并对常用的均方误差与递度下降法的计算过程进行演示。对常用的 LogisticRegression , LinearSVC、SGDClassifier、 LinearRegression、Ridge、Lasso 、SGDRegressor 等线性模型进行了介绍。最后对非线性的 PolynomialFeatures 多项式回归模型进行介绍,讲解管道 Pipe 的基本用法。一、浅谈机器学习原创 2021-06-17 13:53:45 · 748 阅读 · 0 评论