自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(17)
  • 收藏
  • 关注

原创 python对目标检测数据集xml文件操作

https://blog.csdn.net/weixin_38632246/article/details/90710139?ops_request_misc=&request_id=&biz_id=102&utm_term=%E8%A7%A3%E6%9E%90xml%E6%95%B0%E6%8D%AE%E9%9B%86%E6%96%87%E4%BB%B6&utm_medium=distribute.pc_search_result.none-task-blog-2allso

2020-07-21 10:17:27 257

原创 Anaconda 自带的 python版本降级为3.5 or 3.6

今天写程序,发现之前的代码现在重新运行遇到了点问题,貌似是 python 版本带来了,因为我现在用的是 Anaconda 官网直接下载的安装包,目前自带的 python 版本是3.7,但是之前用的是3.6,感觉还是出了点问题。• 看了文档之后,发现可以降级为 3.5 或者 3.6,这里我选择了3.6• 操作:Anaocnda Prompt 下输入conda install python=3.5  orconda install python=3.6...

2020-07-20 17:10:27 2001

原创 怎样用预训练模型搞定深度学习?

引言跟传统的监督式机器学习算法相比,深度神经网络目前最大的劣势是什么?贵!尤其是当我们在尝试处理现实生活中诸如图像识别、声音辨识等实际问题的时候。一旦你的模型中包含一些隐藏层时,增添多一层隐藏层将会花费巨大的计算资源。庆幸的是,有一种叫做“迁移学习”的方式,可以使我们在他人训练过的模型基础上进行小改动便可投入使用。在这篇文章中,我将会讲述如何使用预训练模型来加速解决问题的过程。注:这篇文章默认读者对于神经网络和深度学习有着一定的了解,如果你不了解深度学习,那么我强烈建议你先了解一下深度学习的基础概念。

2020-07-11 17:06:51 1570

原创 【OpenCV + Python】ret, frame = cap.read()返回值含义&视频读取

ret, frame = cap.read()返回值含义:参数ret 为True 或者False,代表有没有读取到图片第二个参数frame表示截取到一帧的图片camera = cv2.VideoCapture(0)ret, frame = camera.read()

2020-07-07 11:18:04 3308

原创 帧高度宽度

帧宽度bai和帧高度分别指就是图像的宽和高的像素数du,也可以是画面的宽高尺寸zhi,单位可是英寸也可以是毫米dao。分辨率可以从显示分辨率与图像分辨率两个概念:显示分辨率(屏幕分辨率)是屏幕图像的精密度,是指显示器所能显示的像素有多少。由于屏幕上的点、线和面都是由像素组成的,显示器可显示的像素越多,画面就越精细,同样的屏幕区域内能显示的信息也越多,所以分辨率是个非常重要的性能指标之一。图像分辨率则是单位英寸中所包含的像素点数,其定义更趋近于分辨率本身的定义。区别主要是单位不同:描述分辨率的单位有

2020-07-07 11:12:52 3965

原创 python—OpenCV2中 cv2.VideoCapture(),read(),waitKey()的使用

程序段里,1、cap = cv2.VideoCapture(0)VideoCapture()中参数是0,表示打开笔记本的内置摄像头,参数是视频文件路径则打开视频,如cap = cv2.VideoCapture("…/test.avi")2、ret,frame = cap.read()cap.read()按帧读取视频,ret,frame是获cap.read()方法的两个返回值。其中ret是布尔值,如果读取帧是正确的则返回True,如果文件读取到结尾,它的返回值就为False。frame就是每一帧的图.

2020-07-07 11:06:12 1210

原创 级联分类

级联分类器包括两个:训练和检测;这里主要是介绍检测部分;关于CascadeClassifier的简介:CascadeClassifier是opencv下objdetect模块中用来做目标检测的级联分类器的一个类;简而言之是滑动窗口机制+级联分类器的方式;早期opencv版本仅支持haar特征的目标检测,分别在opencv2.2和2.4之后开始支持LBP和HOG特征的目标检测。Haar特征:类Haar-like特征描述如下图:在所有缩放尺度下,这些特征组成了boosting分类器使用的全部“原材

2020-07-07 10:24:50 991

原创 OpenCV从图片路径读入图片的方法

OpenCV从图片路径读入图片的方法OpenCV中将图片和源文件放在同一个文件目录下,我们可以很熟悉的调用,例如可是如果我们将图片放在桌面上,怎么用路径的方法读入??首先想到的是直接用图片路径替换上面程序双引号中图片的名称显示错误。这是由于在C和C++里面,例如,输出字符串时,如果想输出一个换行,那就要加上’\n’这个标志,类似的,输出一个TAB,就加上’\t’,也就是说,反斜杠("")这个符号会把跟在它后面的字符结合起来转义成其它字符。根据这个原理,如果想输出(""),就需要输入"\",这样才

2020-07-04 22:29:23 1030

转载 正则化

[Keras] ImportError: Failed to import pydot. You must install pydot and graphviz for pydotprint toXovee 2019-06-14 10:13:49 3877 收藏 4分类专栏: 报错版权问题描述事情是这样的,当时我正在愉快地使用Keras搭建模型,发现官方还有一个绘制模型的函数plot_model(),于是我愉快地调用了这个函数keras.utils.plot_model(model, ‘m

2020-07-04 11:01:58 125

原创 Xception

Xceptionkeras.applications.xception.Xception(include_top=True, weights=‘imagenet’, input_tensor=None, input_shape=None, pooling=None, classes=1000)在 ImageNet 上预训练的 Xception V1 模型。在 ImageNet 上,该模型取得了验证集 top1 0.790 和 top5 0.945 的准确率。该模型可同时构建于 channels_fi

2020-07-04 07:11:20 247

原创 Xception

Xceptionkeras.applications.xception.Xception(include_top=True, weights=‘imagenet’, input_tensor=None, input_shape=None, pooling=None, classes=1000)在 ImageNet 上预训练的 Xception V1 模型。在 ImageNet 上,该模型取得了验证集 top1 0.790 和 top5 0.945 的准确率。该模型可同时构建于 channels_fi

2020-07-04 07:08:53 186

原创 预训练模型 xception 参数量少 准确率高 最好的nasnet参数有点大

模型 大小 Top-1 准确率 Top-5 准确率 参数数量 深度Xception 88 MB 0.790 0.945 22,910,480 126VGG16 528 MB 0.713 0.901 138,357,544 23VGG19 549 MB 0.713 0.900 143,667,240 26ResNet50 98 MB 0.749 0.921 25,636,712 -ResNet101 171 MB 0.764 0.928 44,707,176 -ResNet152 232 MB 0

2020-07-04 06:51:36 1421 1

原创 通道优先 通道略后

CIFAR100 小图像分类数据集50,000 张 32x32 彩色训练图像数据,以及 10,000 张测试图像数据,总共分为 100 个类别。用法:from keras.datasets import cifar100(x_train, y_train), (x_test, y_test) = cifar100.load_data(label_mode=‘fine’)返回:2 个元组:x_train, x_test: uint8 数组表示的 RGB 图像数据,尺寸为 (num_samples

2020-07-03 21:30:02 296

原创 数据预处理shape +none

第一个例子中tf.placeholder(tf.float32, shape=(None, 1024))1024是指的数据的尺寸,None指的batch size的大小,所以可以是任何数。第二个例子里tf.placeholder(tf.float32, shape=[None, img_height, img_width, channels])类似地,后面几个是图片尺寸的参数,第一个参数为None,表示batch size的大小。...

2020-07-03 16:33:07 1062

原创 shape

对于图像来说: img.shape[0]:图像的垂直尺寸(高度) img.shape[1]:图像的水平尺寸(宽度) img.shape[2]:图像的通道数举例来说,下面是一张300X534X3的图像,我们用代码,进行验证。代码如下:import matplotlib.image as mpimg # mpimg 用于读取图片if name == ‘main’:img = mpimg.imread(‘cat.jpg’) # 读取和代码处于同一目录下的 img.pn

2020-07-03 15:45:20 153

原创 c.shape[0] +shape[1] +c.shape

Python: numpy–函数 shape用法shape函数是numpy.core.fromnumeric中的函数,它的功能是查看矩阵或者数组的维数。举例说明:建立一个3×3的单位矩阵e, e.shape为(3,3),表示3行3列,第一维的长度为3,第二维的长度也为3[plain] view plain copye = eye(3)earray([[ 1., 0., 0.],[ 0., 1., 0.],[ 0., 0., 1.]])e.shape(3, 3)

2020-07-03 15:40:12 460

原创 numpy reshape

在学习TensorFlow入门课程的时候,碰到了reshape这个函数,比较神奇,话不多说,直接上干货。首先,最基本的,比如arr = [1,2,3,4,5,6,7,8,9] 一个一维的list,长度为9现在,我想把arr变成一个3*3的矩阵,这就可以用的reshape了,两个方法,第一arr.reshape(3,3)这个很好理解,不多说,重点看第二个方法arr.reshape(-1,3)这样也可以把arr变成3*3的矩阵,这个-1代表的意思就是,我不知道可以分成多少行,但是我的需要是

2020-07-03 15:33:00 109

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除