自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(10)
  • 收藏
  • 关注

原创 Tensorflow2.4GPU版安装指南

要想安装好tensorflow2.4需要Python,CUDA,cuDNN。3个版本对应起来。具体看下表:1.安装CUDA跟cuDNNA.先要看自己的电脑是否配适右键单击NVDIA控制面板->帮助->系统信息->组件。查看驱动版本。本机最高驱动11.1,也就是说只能安装11.1以下的版本。B.安装CUDAD地址CUDA Toolkit 11.0 Download | NVIDIA DeveloperC.安装cuDNN地...

2021-12-01 09:07:09 2744 2

原创 极大似然估计量(θ)

很经典的一句话,存在即合理。要明白这个θ,我们首先得先了解什么是极大似然原理。极大似然估计原理:在n个不确定事情中,发生了这1件事情,那我们就认为发生这个事情的概率就是最大的。(要不然怎么不发生其他事情呢?)案例:a出门的时候经常忘记带钥匙,b出门的时候偶尔会忘记带钥匙。现在我们让他们2人同时保管这个钥匙。有一天,回家的时候发现没带钥匙,进不去家门了。这个时候我们是不是想当然的认为是a忘记带钥匙了。(这个想当然的认为,就是极大似然估计)接下来我们说一下这个极大似然估计量(θ)。这个其实就

2021-11-25 16:34:21 1856

转载 史上最全计算机视觉和机器学习面试经验分享,持续更新...

史上最全计算机视觉和机器学习面试经验分享,持续更新... - 知乎前言:今年CV方向确实难找,投递的人数越来越多,各个CV岗位对投递人员的要求也越来越高,本文分享一下自己2020年春招找实习的经历和秋招找工作的经历。 刷题要趁早,论文要顶会,比赛要多打,项目要多做,语言要…https://zhuanlan.zhihu.com/p/136730119...

2021-11-17 15:56:50 185

原创 K-means 详细代码(2种方法,对比循环次数及用时)

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录前言 一、pandas是什么? 二、使用步骤 1.引入库 2.读入数据 总结前言通过本文您可以学到K-means的基本思想,以及2种代码实现方法!一、K-means是什么?K-menas是机器学习中的一种无监督的算法,属于聚类的算法。作用是将一堆数据,按照相关的联系分为几个类别。一般用于客户分类等方面。二、主要思想1. 核心思想:核心思想...

2021-11-16 21:19:16 1031

原创 集成学习思想

前言 一、pand模型as是什么? 文章目录 前言 一、集成学习是什么? 二、2种思想介绍 1.bagging(集体表决,少数服从多数) 2.boosting(精益求精,最求卓越) 总结 前言集成学习的准确率较高,本文将介绍一下它的2种思想,并行思想(bagging),串行思想(boosting)。一、集成学习是什么?俗话说,三个臭皮匠顶个诸葛亮,集成学习是生成几个模型来解决单一模型预测泛化能力弱的问题。通过生成几个单一的模型,分别进行...

2021-11-15 18:39:27 1814

转载 one_hot,embedding

转载:笔记1 one-hot、embedding - 知乎one-hot在特征工程中需要对数据进行预处理,one-hot在数据预处理中比较常见 1.什么是one-hotOne-Hot编码,又称为一位有效编码,主要是采用N位状态寄存器来对 N个状态进行编码,每个状态都由他独立的寄存器位,并且…https://zhuanlan.zhihu.com/p/146117421one-hot在特征工程中需要对数据进行预处理,one-hot在数据预处理中比较常见1.什么是one-hotOne-Hot编..

2021-11-11 10:24:04 598

原创 Batch Normalization 原理及作用

用一句话来说清楚:对数据进行缩放,并且分布在激活函数最佳分类区间内。作用:类似于机器学习中的特征缩放,将分散的数据集中起来。用法:通常放在全连接、卷积层之后,relu层之前。原理:图像数据经过卷积层后,相当于进行了一次线性变换。此时数据的离散程度比较高,分布范围如下图所示,大概在[-4,4]的区间内。我们sigmid函数分辨率最好的区域是[-2,2],其中导数值[0.1,0.25]区间。其余部分导数较小接近于0,分布在此的数据对对激活函数的敏感程度低,分类效果不明显。批量归一的作用.

2021-11-01 20:29:25 2152

原创 卷积层,池化层,padding=‘same‘ ,为什么卷积层图像尺寸不变,池化层后图像尺寸减半呢?

先摆一下通用计算公式:h:图像长度,k:卷积/池化核尺寸,p:填充数,s:移动步长长度公式:宽度公式:对于经过卷积,池化后的图像尺寸都可以按照此公式进行计算。在实际的使用过程中经常会有此疑惑点:卷积层跟池化层都使用了padding = 'same',为什么卷积层图像尺寸不变,池化层后图像尺寸减半呢?print(images.shape) # 输入图片conv1 = layers.Conv2D(filters=64,kernel_size=3,strides=1,paddi.

2021-11-01 19:07:05 3097 3

原创 常见的读取图片方法

1. opencv读取cv2.imread('图片名称')此方法只需要添加图片的名字即可读取图片。在此之前要指定一下读取图片的工作路径,否则无法读取图片。备注:cv2.imread() 无法采用读取图片路径的方法加载图片数据。images = []labels = []os.chdir(train_file_path) # 指定工作路径for i in os.listdir(): image = cv2.imread(i) # i 为图片名称 images.

2021-10-20 11:40:18 2542

原创 计算机视觉中Inception网络优势

通常在构建卷积网络的过程中,我们需要根据经验选择卷积核的尺寸,1x1 或者3x3 或者5x5 或者7x7等,而且构建的网络总体参数计算量比较大。相比之下inception网络的优势有2点:1.inception网络会代替人工选择卷积的类型或者确定是否要选择卷积核或者池化层案例:在这个网络中,并行使用1x1x192x64,3x3x192x128,5x5x192x32的卷积核,再加一个最大池化层。将所有的结果堆叠起来,最终构成1x28x28x256的图像。它的核心思想是不需要决.

2021-10-18 13:31:57 3030 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除