ALITAN
文章平均质量分 54
时间不够呀,一定要不断学习,冲鸭!
王山山
破卷如有神
展开
-
基于BOW和SVM的目标检测
数据集制作参照博客基于PIL批量修改图片JPG格式为PGM格式制作数据集。源程序import cv2import numpy as npdata_path = "train_data/"SAMPLES = 10def path(cls, i): return "%s/%s%d.pgm" % (data_path, cls, i + 1) # pgm格式pos, ...原创 2020-01-10 11:19:58 · 773 阅读 · 0 评论 -
基于PIL批量修改图片JPG格式为PGM格式
安装PILpip install pillow修改JPG格式为PGM格式import osfrom PIL import Imagefile_src_path = "../frame/" # store jpg imagesfile_des_path = "../pgm/" # storing pgm format def jpg2pgm(file_src_path, fi...原创 2020-01-09 16:55:59 · 594 阅读 · 0 评论 -
基于opencv-python实现视频集逐帧提取为图片格式
程序代码框架video # 文件夹,存放着视频集frame # 文件夹,保存逐帧提取出来的图片src # 文件夹 video_to_frame.py # 源程序源程序代码import osimport cv2video_src_path = '../video/'frame_des_path = '../frame/'def video2frame(video_sr...原创 2020-01-08 15:07:48 · 1053 阅读 · 1 评论 -
神经网络进一步优化
指数衰减的学习率学习率决定了参数每次更新的幅度。如果幅度过大,那么可能导致参数在极优值的两侧来回移动。相反,当学习率过小时,虽然能保证收敛性,但是会大大降低优化速度。为了解决设置学习率的问题,TensorFlow提供了一种更加灵活的学习率设置方法——指数衰减法。tf.train.exponential_decay函数是实现了指数衰减学习率,先使用较大的学习率来快速得到一个较优的解,然后随着迭代...原创 2019-08-23 01:13:25 · 188 阅读 · 0 评论 -
神经网络优化算法
梯度下降算法gradient decent主要用于优化单个参数的取值,而反向传播算法给出了一个高效的方式在所有参数上使用梯度下降算法,从而使神经网络模型在训练数据上的损失函数尽可能小。梯度下降算法会迭代式更新参数θ,不断沿着梯度的反方向让参数朝着总损失更小的方向更新,参数的梯度可以通过求偏导的方式计算。学习率learning rate 定义每次参数更新的幅度。神经网络的优化过程可以分为两个阶...原创 2019-08-23 01:13:19 · 251 阅读 · 0 评论 -
损失函数
神经网络模型的效果以及优化的目标是通过损失函数loss function来定义的。监督学习的两个种类:分类问题和回归问题。分类问题分类问题希望解决的是将不同的样本分到事先定义好的类别中。通过神经网络解决多分类问题最常用的方法是设置n个输出节点,其中n为类别的个数。对于每一个样例,神经网络可以得到的一个n维数组作为输出结果。数组中的每一个维度对应一个类别。交叉熵cross entropy...原创 2019-08-23 01:12:52 · 118 阅读 · 0 评论 -
placeholder机制
神经网络的训练过程就是设置神经网络参数的过程。使用监督学习的方式设置神经网络参数需要有一个标注好的训练数据集。监督学习最重要的思想就是在已知答案的标注数据集上,模型给出的预测结果要尽量接近真实的答案。通过调整神经网络中的参数对训练数据进行拟合,可以使得模型对未知的样本提供预测的能力。在神经网络优化算法中,最常用的办法是反向传播算法backpropagation。反向传播算法实现了一个迭代的过程。...原创 2019-08-23 01:12:45 · 343 阅读 · 0 评论 -
TensorFlow变量
在TensorFlow中,变量(tf.Variable)的作用就是保存和更新神经网络中的参数。TensorFlow中变量的初始值可以设置成随机数、常数或者是通过其他变量的初始值计算得到的。随机数生成器TensorFlow随机数生成函数函数名称随机数分布主要参数tf.random_normal正态分布平均值、标准差、取值类型tf.truncated_norm...原创 2019-08-23 01:12:36 · 140 阅读 · 0 评论 -
TensorFlow运行模型——会话
TensorFlow中的会话session用来执行定义好的计算。会话拥有并管理TensorFlow程序运行时的所有资源。所有计算完成之后需要关闭会话来帮助系统回收资源,否则就可能出现资源泄露的问题。TensorFlow中使用会话的模式需要明确调用会话生成函数和关闭会话函数为了解决异常退出时资源释放的问题,TensorFlow可以通过Python的上下文管理器来使用会话。with...原创 2019-08-23 01:12:25 · 168 阅读 · 0 评论 -
TensorFlow数据模型——张量
张量是TensorFlow管理数据的形式。在TensorFlow程序中,所有的数据都通过张量的形式来表示。从功能的角度上看,张量可以被简单理解为多维数组。但张量在TensorFlow中的实现并不是直接采用数组的形式,它只是对TensorFlow中的运算结果的引用。在张量中并没有真正保存数字,它保存的是如何得到这些数字的计算过程。import tensorflow as tfa = tf.c...原创 2019-08-23 01:10:48 · 234 阅读 · 0 评论 -
TensorFlow计算模型——计算图
在TensorFlow中,张量Tensor可以被简单地理解为多维数组,流Flow直观地表达了张量之间通过计算相互转化的过程。TensorFlow是一个通过计算图的形式来表述计算的编程系统。TensorFlow中的每一个计算都是计算图中的一个节点,而节点之间的边描述了计算之间的依赖关系。在TensorFlow程序中,系统会自动维护一个默认的计算图,通过tf.get_default_graph函数可...原创 2019-08-23 01:10:40 · 159 阅读 · 0 评论