自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

Cutepingping的博客

REAL IS TRUE

  • 博客(31)
  • 资源 (4)
  • 收藏
  • 关注

原创 深度探索C++对象模型-纲要

深度探索C++对象模型-纲要这个寒假第一个flag就要立起来啦,emmm,我觉得还是有必要坚持的,毕竟自己真的不小了。(2018/1/31)对于这本书来说第一章主要是讲关于对象,提供以对象为基础的观念背景。第二章构造函数语意学,讨论构造函数如何工作。第三章是数据语意学,讨论数据成员的处理。第四章是函数语意学,专注于各式各样的成员函数。第五章是析构,构造,拷贝语意学。

2018-01-31 23:52:34 167

原创 Cpp-友元知识补充

Cpp-友元知识补充在有些情况必须得允许非成员函数访问一个类的私有成员,同时可以组织一般的访问。比如重载操作符,输入或者输出操作符,经常在类中需要访问类的私有成员。友元这个机制允许一个类将其非公有成员的访问权授予指定的函数或者类,友元的声明用friend开始。它只表明在类定义的内部,友元可以出现在类中的任何地方。通常来说一般将友元声明放在类定义的开始或者结尾。1,友元函数友元函数虽然不

2018-01-28 19:24:04 342

原创 Opencv系列-图像增强

Opencv系列-图像增强图像增强对于图像预处理有很大的帮助,再一次看到这篇文章的时候,有如看到。。。反正不一样的感觉1. 基于直方图均衡化的图像增强直方图均衡化是通过图像的灰阶分布,使得在0-255灰阶上的分布更加均衡,提高了图像的对比度,达到改善图像的效果与目的。对比度比较低的图像适合使用直方图均衡化方法来增强图像细节。彩色图像的直方图均衡化细节:#include #in

2018-01-27 23:52:47 1914

原创 Cpp-多线程简述

Cpp-多线程简述对于多线程而言是所有程序的利器,所以多线程是比较关键的。在C++11中,引入了thread这个库函数,所以对于线程操作就比较简单。一、定义线程void thread01(){ for (int i = 0; i < 5; i++) { std::cout << "Thread 01 is working!" << std::endl; Sleep(1

2018-01-27 20:34:41 2546

原创 Cpp-泛型编程基础

Cpp-泛型编程基础哇,很久没有写cpp了,写得太挫了,主要是。emm,好像数据结构作业是实现线程池,趁此机会好好学一遍cpp吧,不要再吹水了。只希望。C++是一门很强大的语言,泛型编程一般来说可望而不可及,今天来啃一下这小基础吧。函数重载假设要比较两个数的值,我们可以使用两个函数进行重载:int compare(const int&a, const int&b){ if

2018-01-27 17:26:13 1387

原创 keras搬砖系列-调参经验

keras搬砖系列-调参经验1,观察loss胜于观察准确率,loss设计要比较合理,对比训练集和验证集的loss2,relu可以很好的防止梯度弥散的问题,当然最后一层激活函数尽量别用relu,如果分类则用softmax3,BatchNorm 可以大大加快训练速度和模型的性能4,Dropout防止过拟合,可以直接设置为0.5,一半一半,测试的时候把Dropout关掉5,Loss选

2018-01-21 20:59:16 1805 1

原创 keras瞎搞系列-early stopping

keras瞎搞系列-early stopping在训练中,有些时候需要在停止的位置进行停止。但是Earyly stopping可以实现这些功能,这些时候模型泛化能力比较强。与L2正则化相似,选择参数w范数比较小的神经网络。有些时候可以采用early stopping。early Stopping优点:只运行一次梯度下降,就可以找出W的比较小的值,中间值和比较大的值。无需尝试

2018-01-21 20:50:26 3346

原创 keras搬砖系列-正则化

keras搬砖系列-正则化1,正则化简介 以逻辑回归来对正则化进行介绍 逻辑回归原来的代价函数为: minw,bJ(w,b)=minw,b1m∑mi=1L(y^(i),y(i))\min_{w,b}J(w,b)=\min_{w,b}\frac{1}{m}\sum^m_{i=1}\mathcal L(\hat y^{(i)},y^{(i)}) 其中:w∈Rnx,b∈Rw∈\Bbb R^{n_x

2018-01-21 20:06:23 6267

原创 深度学习-softmax损失函数

softmax损失函数softmax函数定义 softmax用于多分类过程中,它将多个神经元的输出,映射到(0,1)区间内,可以看成概率来理解,从而进行多分类! softmax计算公式,假设我们有一个数组,V,Vi表示V中的第i个元素,那么这个元素的softmax值为: Si=ei∑jejS_i = \frac{e^i}{\sum_j e^j} 对于softmax定义比较简单,当我们在应用多

2018-01-21 16:26:46 13122 1

原创 keras瞎搞系列-卷积自编码去噪

keras瞎搞系列-卷积自编码去噪我们把训练样本用噪声污染,然后使解码器解码出干净的照片,以获得去噪自动编码器。首先我们把原图片加入高斯噪声,然后把像素值clip到0~1。头文件from keras.layers import Input,Convolution2Dfrom keras.models import Model from keras.datasets im

2018-01-19 19:59:51 1838 2

原创 keras搬砖系列-正则项

keras搬砖系列-正则项正则项在优化的过程中层的参数或者层的激活值添加惩罚项,这些惩罚项将与损失函数一起作为网络的最终优化目标。惩罚项是对层进行惩罚,目前惩罚项的接口与层有关。主要由:kernel_regularizer:施加在权重上的正则项,为keras.regularizer.Regularizer对象bias_regularizer:施加在偏置向量上的正则项,为keras.regulari

2018-01-19 00:18:15 1819

原创 keras搬砖系列-BN层

keras搬砖系列-BN层BN层的作用:1,加速收敛;2,控制过拟合,可以少用Dropout或者不用Dropout;3,降低网络对初始化权重的不敏感;4,允许使用比较大的学习率。BN层?批规范化,每次SGD的时候,采用mini-batch的时候对相应的activation做一次规范化,使得结果的均值为0,方差为1,最后的scale and shift 操作则是为了因训练所需刻意加入的BN能够有可能

2018-01-19 00:08:56 10339 2

原创 keras搬砖系列-单层卷积自编码器

keras搬砖系列-单层卷积自编码器考试成绩出来了,竟然有一门出奇的差,只是有点意外。觉得应该不错的,竟然考差了,它估计写了个随机数吧。头文件from keras.layers import Input,Densefrom keras.models import Model from keras.datasets import mnistimport numpy as np import

2018-01-18 20:43:09 784

原创 keras搬砖系列-重温序贯模型与函数模型

keras搬砖系列-重温序贯模型与函数模型共同的API:model.summary():打印出模型的概况,它实际调用的是keras.utils.print_summarymodel.get_config():返回包含模型配置信息的PYthon字典。模型也可以从config中重构回去。config = model.get_config()model = Model.from_con

2018-01-17 00:25:48 870

原创 keras搬砖系列-重温函数式模型

keras搬砖系列-重温函数式模型keras函数式模型接口是用户定义多输出模型,非循环有向模型或具有共享层的模型等复杂模型的途径。需要多个输出,应该选择函数式模型。第一个模型:全连接网络输入是张量,输出也是一个框架就是一个模型,通过Model定义。from keras.layers import Input,Densefrom keras.models import Mode

2018-01-17 00:09:09 431

原创 keras搬砖系列-序贯模型简单例子

keras搬砖系列-序贯模型简单例子最近实验室又开始搬位子,,,有点小烦,搬来搬去并不能加快学习啊。利用好手里这批人才是关键,为什么大家心理不想想自己熟不熟悉这个领域就开始搞。。。可能最近要做语音识别了。softmax分类器# -*- coding: utf-8 -*-"""Created on Mon Jan 15 01:14:26 2018@author: Admi

2018-01-16 23:18:25 1164

原创 keras搬砖系列-重新认识Sequential()模型

keras搬砖系列-重新认识Sequential()模型重新认识一下Sequential()模型,虽然之前经常写,但是时候总结一下。Sequential()传递一个layer的列表来进行构建通过.add的方法就可以加入新的一层。第一层需要指定输入的维度model = Sequential()model.add(Dense(20,input_dim=10))Dense(out_

2018-01-16 20:39:38 409

原创 keras搬砖系列-重新认识keras

keras搬砖系列-重新认识keras对事物学习后应该有一个新的认知,决定重看这些概念发现确实有不一样的理解。keras是采用计算图模型,也就是说每次我们把框架搭好后,需要我们自己实际注入数据才可以运行。keras调用GPU采用tf为后端的时候,当机器上有GPU的时候,代码会自己调用GPU采取并行计算。对于keras可以采用多GPU进行并行计算。在keras的keras

2018-01-14 19:53:27 898

原创 机器学习实战-模型评估

机器学习实战-模型评估对于所学到的东西需要做一个评估。错误率错误率=a个样本分类错误/m个样本精度=1-错误率误差:学习器与实际预测输出与样本的真实值产生的差异训练误差:即经验误差,学习器在训练集上的误差泛化误差:学习器在新样本上的误差。评估方法留出法D分为两个互斥的集合,一个作为S,一个作为T。分层采样:S中正例和T中反例子一样。比如,

2018-01-12 00:44:13 376

原创 机器学习机器学习实战-kmeans

机器学习机器学习实战-kmeans简介:聚类算法是一种无监督学习,它将相似的对象归类到同一簇中。聚类的方法可以应用所有的对象,簇内的对象越相似,聚类效果也就越好。聚类和分类的最大不同之处在于,分类的目标是已知的,聚类是完全无监督学习,类别没有像分类那样被预先定义出来,所以叫做无监督学习。kmeans算法是实际中最常用的聚类算法,没有之一。kmeans算法的原理简单,实现起来不是很复

2018-01-11 23:50:14 916

原创 keras搬砖系列-vgg16进行分类

keras搬砖系列-vgg16进行分类表头:import timefrom keras.applications.imagenet_utils import preprocess_input, decode_predictionsfrom keras.layers import Dropout, Flatten, Densefrom keras.layers.convolutiona

2018-01-11 23:04:47 6243 4

原创 keras搬砖系列-Flatten ValueError

keras搬砖系列-Flatten ValueError之前总是会出现,ValueError: The shape of the input to "Flatten" is not fully defined (got (0, 6, 80). Make sure to pass a complete "input_shape" or "batch_input_shape" argument

2018-01-11 22:03:46 1876 1

原创 经验系-C++ new失败的处理

C++ new失败的处理哇,简直不敢说我会cpp了,我记得有一次有人和我说过当时候没注意。sad,我可能是假的程序员今天在知乎上看到了,涨下姿势,efftive C++里面有吧。我们都知道,使用 malloc/calloc 等分配内存的函数时,一定要检查其返回值是否为“空指针”(亦即检查分配内存的操作是否成功),这是良好的编程习惯,也是编写可靠程序所必需的。但是,如果你简单地把

2018-01-10 20:49:10 604

原创 keras瞎搞系列-加载和保存模型

keras瞎搞系列-加载和保存模型我们竟然会训练一些数据库,但是不可能每次遇到相同的结构and相同数据的时候,不可能每次都烧GPU去训练所以对于每次训练的权重可以进行保存,留着下次再用。对于keras来说加载和保存模型主要是依据model.save(),和model.load()。keras支持的数据库很多,所以除了h5应该还有别的格式。一小段线性回归的代码:# -*- c

2018-01-10 15:19:43 489

原创 keras搬砖系列-ResNet小结

ResNet小结依旧只是蜻蜓点水,ResNet依然是:没有最深,只有更深(152层)。听说目前层数已突破一千。想要知道ResNet为什么可以这么深。。。我过几天再讲吧。主要的创新在残差网络,如下图所示,其实这个网络的提出本质上还是要解决层次比较深的时候无法训练的问题。这种借鉴了Highway Network思想的网络相当于旁边专门开个通道使得输入可以直达输出,而优化的目标由原来的拟

2018-01-10 13:54:42 1396 1

原创 keras搬砖系列-GoogLeNet

GoogLeNet小结emmm,应该不算小结吧,充其量就是蜻蜓点水,所有的东西都等考试再弄吧。Andrew课对inception讲的很好。主要的创新在于他的Inception,这是一种网中网(Network In Network)的结构,即原来的结点也是一个网络。Inception一直在不断发展,目前已经V2、V3、V4了,感兴趣的同学可以查阅相关资料。Inception的结构如图9所

2018-01-09 23:42:22 1705 3

原创 keras搬砖系列-VGG19

VGG-19小结VGG-19层数为19,在原有AlexNet上可谓很深。结构图:keras代码:#coding=utf-8from keras.models import Sequentialfrom keras.layers import Dense,Flatten,Dropoutfrom keras.layers.convolutional import Conv

2018-01-09 23:18:25 3206 3

原创 keras搬砖系列-AlexNet

AlexNet小结AlexNet是比较基本的线型网络。网络结构:统共分为8层,前五层为卷积层,后三层为全连接层。前五层卷积层分别为:(96,(11,11)),(256,(5,5)),(384,(3,3)),(384,(3,3)),(256,(3,3))keras代码:# -*- coding: utf-8 -*-"""Created on Tue Jan 9

2018-01-09 23:11:46 1018

原创 flag传-2018寒假

flag传:考试初期看到B站上沐神的mxnet教程,,,心如神往,,,,看了几节视频实现了下,很不错。keras不能丢,,,几大神经网络大致看懂了。总结下去噪。

2018-01-09 22:09:05 253

原创 dlib系列-人脸检测

Dlib 是一个机器学习库,采用C++编写(提供C++和python接口),里面包含 许多常用机器学习算法。总之就是很好的框架,代码是官网给的教程。#-*- coding:utf-8 –*-import sysimport dlibimport cv2from skimage import io #检测器detector = dlib.get_frontal_face_dete

2018-01-05 16:05:51 420

原创 逃离学校-挑战Python刷题

描述如题:求解100以内的所有素数 最古老的方法:result = []for i in range(2,101): j = 2 flag = True while j<i and flag: if i%j==0: flag = False j=j+1 if flag: result.append(str(i))print(' '.join(result))筛

2018-01-05 14:53:03 1129

dlib_face_recognition_resnet_model_v1.dat

dlib_face_recognition_resnet_model_v1.datdlib_face_recognition_resnet_model_v1.dat

2018-01-05

dlib-py27-18.17.whl

dlib免编译版本,只适合py27,64位系统。谢谢,。。。。。。。。。。。。。。。。。。。

2018-01-05

xgboost-master

xgboost支持win版本

2017-08-13

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除