![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习从入门到放弃
文章平均质量分 92
MrKaj
这个作者很懒,什么都没留下…
展开
-
初识神经网络——基于TensorFlow&Keras完成猫狗数据集
文章目录一、实验准备二、开始实验2.1 制作数据集2.2 卷积神经网络CNN2.3 使用预先训练网络和特征抽取大力提升图像识别率一、实验准备1.1 实验环境:anaconda3 + python3.8 + Jupyter notebook1.2 理解卷积神经网络CNN这部分网上资源很多1.3 下载安装TensorFlow 和Keras1)命令行安装pip install tensorflowpip install keras2)anaconda软件中安装keras同理二、开始原创 2021-06-18 10:58:48 · 420 阅读 · 0 评论 -
信息熵与压缩编码基础
文章目录一、信息熵1.1 什么是信息熵?1.2 信息熵基本内容1.2.1 信息熵定义由来1.2.2 信息熵的三个性质1.2.3 对信息熵的理解1.2.4 信息熵的主要计算方法二、压缩编码1.压缩编码技术2.香农-范诺编码3.霍夫曼编码(最优二叉树)3.1 定义3.2 原理3.3 定理三、例题实战1.2.一、信息熵1.1 什么是信息熵?信息熵这个词是C.E.Shannon(香农)从热力学中借用过来的。热力学中的热熵是表示分子状态混乱程度的物理量。香农用信息熵的概念来描述信源的不确定度。——百度百科原创 2021-05-22 18:37:31 · 698 阅读 · 0 评论 -
python实现梯度下降法
文章目录一、什么是梯度下降法二、如何理解梯度下降法2.1 概念2.2 举例说明一、什么是梯度下降法梯度下降是迭代法的一种,可以用于求解最小二乘问题(线性和非线性都可以)。在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(Gradient Descent)是最常采用的方法之一,另一种常用的方法是最小二乘法。在求解损失函数的最小值时,可以通过梯度下降法来一步步的迭代求解,得到最小化的损失函数和模型参数值。反过来,如果我们需要求解损失函数的最大值,这时就需要用梯度上升法来迭代了。在机器学习中,基于原创 2021-04-05 22:10:12 · 23907 阅读 · 3 评论 -
python解决线性规划问题
文章目录一、问题描述一、问题描述原创 2021-04-01 21:55:59 · 693 阅读 · 0 评论 -
ROS服务编程
文章目录一、项目准备一、项目准备原创 2021-03-21 22:28:11 · 155 阅读 · 0 评论 -
线性回归练习————线性回归、Anscombe四重奏以及【SVM线性分类】鸢尾花Iris数据集分析
文章目录一、线性回练习1. 一元线性回归练习二、四重奏数据集分析三、小结一、线性回练习1. 一元线性回归练习高尔顿数据集进行线性回归分析父母身高平均值和其中一个子女身高进行回归分析数据整理,一般获得的数据都会比较多,必须先分析整理数据,以下图为例。每个家庭中父亲母亲身高肯定一定,所以不用去求平均值,针对每个家庭中子女性别的不同,我分为了两个表子表女表2.因为这两个表中或多或少都会存在家庭编号重复的问题所以分别对两个表的子女身高求平均值可得新表对上述数据分析之后得出结果父原创 2021-03-20 21:55:04 · 1110 阅读 · 0 评论