自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(98)
  • 收藏
  • 关注

转载 python 文件读写

博客园首页新随笔联系订阅管理随笔 - 69  文章 - 3  评论 - 5Python之文件读写(可以读写txt,jpeg等格式的数据)本节内容:I/O操作概述文件读写实现原理与操作步骤文件打开模式Python文件操作步骤示例Python文件读取相关方法文件读写与字符编码一、I/O操作概述I/O

2018-01-11 16:43:20 2787

转载 数据预处理与tensorboard数据可视化

图像是人们喜闻乐见的一种信息形式,“百闻不如一见”,有时一张图能胜千言万语。图像处理是利用计算机将数值化的图像进行一定(线性或非线性)变换获得更好效果的方法。Photoshop,美颜相机就是利用图像处理技术的应用程序。深度学习最重要的应用领域就是计算机视觉(CV, Computer Vision),历史上,MNIST 手写体数字识别和 ImageNet 大规模图像识别均得益于深度学习模型,取得了相

2018-01-11 15:50:37 529

转载 tf数据读取

十图详解tensorflow数据读取机制(附代码)何之源7 个月前在学习tensorflow的过程中,有很多小伙伴反映读取数据这一块很难理解。确实这一块官方的教程比较简略,网上也找不到什么合适的学习材料。今天这篇文章就以图片的形式,用最简单的语言,为大家详细解释一下tensorflow的数据读取机制,文章的最后还会给出实战代码以供参考。一、tensorflow读取机

2018-01-11 15:19:50 924

转载 python os模块解读

#!/usr/bin/env python##-*- coding: utf-8 -*- import os print "n欢迎大家跟我一起学Python"; system=os.name;                                                              

2018-01-11 14:00:08 344

转载 python中的参数解析模块详解

在python中,命令行解析的很好用,首先导入命令行解析模块import argparseimport sys然后创建对象(解析器对象)parse=argparse.ArgumentParser()(构建详细解析器对象(模板)))parse.add_argument("--learning_rate",type=float,default=0.0

2018-01-10 17:07:19 795

转载 数据汇总相关操作与tensorboard可视化

(新手上路,如果有不对的地方,望指正。另外有没有小伙伴一起学习交流啊?) tensorboard为tensorflow提供了可视化,它的重要性不言而喻。 tensorboard是通过读取events files来显示的,events file则包含在图计算时生成的summary data。1 tf.summary.scalar('mean',

2018-01-10 14:48:06 289

转载 tf中的tf.sparse_to_dense的用法

tf.sparse_to_dense(sparse_indices, output_shape, sparse_values, default_value, name=None)除去name参数用以指定该操作的name,与方法有关的一共四个参数:第一个参数sparse_indices:稀疏矩阵中那些个别元素对应的索引值。     有三种情况:     spa

2018-01-09 23:46:24 4310

原创 有关tf的有用网站

『TensorFlow』函数列表->(张量属性查询、张量调整)https://www.cnblogs.com/hellcat/p/6906130.html

2018-01-09 20:57:49 304

原创 tesnorflow minst用卷积网络做识别

import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_datamnist=input_data.read_data_sets('MNIST_data/',one_hot=True)def weight_variable(shape):    initial_value=tf.trun

2018-01-09 20:27:44 293

转载 tensorflow dropout解释

一、 Dropout原理简述:tf.nn.dropout是TensorFlow里面为了防止或减轻过拟合而使用的函数,它一般用在全连接层。Dropout就是在不同的训练过程中随机扔掉一部分神经元。也就是让某个神经元的激活值以一定的概率p,让其停止工作,这次训练过程中不更新权值,也不参加神经网络的计算。但是它的权重得保留下来(只是暂时不更新而已),因为下次样本输入时它可能又得工作了。示

2018-01-09 13:11:40 1383

原创 mnist入门

import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_datamnist=input_data.read_data_sets("MNIST_data/",one_hot=True)input=tf.placeholder(tf.float32,[None,784])w=tf.Vari

2018-01-08 22:47:48 347

转载 python *args和**kwargs

先来看个例子:def foo(*args, **kwargs): print 'args = ', args print 'kwargs = ', kwargs print '---------------------------------------'if __name__ == '__main__': foo(1,2,3,4) foo(a=1,

2018-01-01 23:19:06 772

原创 python相关网站

1、各种函数的help中文文档:http://www.runoob.com/python/python-func-isinstance.html

2017-12-23 15:30:47 207

转载 转义字符介绍

C语言中的转义字符 在字符集中,有一类字符具有这样的特性:当从键盘上输入这个字符时,显示器上就可以显示这个字符,即输入什么就显示什么。这类字符称为可显示字符,如a、b、c、$、+和空格符等都是可显示字符。另一类字符却没有这种特性。它们或者在键盘上找不到对应的一个键(当然可以用特殊方式输入),或者当按键以后不能显示键面上的字符。其实,这类字符是为控制作用而设计的,故称为控制字符。

2017-12-23 14:55:25 33815

原创 tf应用TFRecord存取数据

概述最新上传的mcnn中有完整的数据读写示例,可以参考。关于Tensorflow读取数据,官网给出了三种方法:供给数据(Feeding): 在TensorFlow程序运行的每一步, 让Python代码来供给数据。从文件读取数据: 在TensorFlow图的起始, 让一个输入管线从文件中读取数据。预加载数据: 在TensorFlow图中定义常量或变量来保存所有数据(仅适用于数

2017-12-13 11:56:31 476

原创 python基础

1、读取图片from PIL import Imageim= Image.open("j.jpg")im.rotate(45).show()2、文件路径查找返回所有匹配的文件路径列表importglob#获取指定目录下的所有图片printglob.glob(r"E:/Picture/*/*.jpg")#获取上级目录

2017-12-13 11:55:05 346

原创 tf基础知识

1、tensorflow 创建b=tf.ones([1],dtype=tf.int32,name="bb")#创建维度为一(一维数组,此处长度为1),类型为tf.int32的tensor:b,tensor的名字为"bb"c=tf.ones([2,3],dtype=tf.int32,name="bb")#创建维度为二(二位数组(矩阵,2x3)),类型为tf.int32的tensor:c,te

2017-12-13 11:51:17 371

原创 交叉验证

假设我们需要从某些候选模型中选择最适合某个学习问题的模型,我们该如何选择?以多元回归模型为例:,应该如何确定k的大小,使得该模型对解决相应的分类问题最为有效?如何在偏倚(bias)和方差(variance)之间寻求最佳的平衡点?更进一步,我们同样需要知道如何在加权回归模型中选择适当的波长参数,或者在基于范式的SVM模型中选择适当的参数C?我们假设模型集合为有限集,我们的目的就是从这d个模型

2017-11-26 22:05:41 538

转载 P-R曲线与mAP

reference:http://blog.csdn.NET/marising/article/details/6543943在信息检索、分类体系中,有一系列的指标,搞清楚这些指标对于评价检索和分类性能非常重要,因此最近根据网友的博客做了一个汇总。准确率、召回率、F1信息检索、分类、识别、翻译等领域两个最基本指标是召回率(Recall Rate)和准确率(Precision R

2017-11-26 18:59:08 17105

转载 ROC

ROC和AUC介绍以及如何计算AUCJune 22, 2013ROC(Receiver Operating Characteristic)曲线和AUC常被用来评价一个二值分类器(binary classifier)的优劣,对两者的简单介绍见这里。这篇博文简单介绍ROC和AUC的特点,以及更为深入地,讨论如何作出ROC曲线图以及计算AUC。ROC曲线需要提前说明的是,

2017-11-26 18:26:21 262

转载 KL散度与极大似然

极大似然估计是一种概率论在统计学中的应用,建立在极大似然原理的基础上,极大似然原理的直观解释是:一个随机试验如有若干个可能的结果A、B、C、…,若在一次试验中,结果A出现,则一般认为试验条件对A出现有利,也即A出现的概率很大,那么就取参数估计,使A出现的概率最大。设随机变量Y具有概率密度函数,θ是参数向量。当我们得到Y的一组独立观测值时,定义θ的似然函数为。极大似然法是采用使L(θ)最大的

2017-11-23 23:34:35 4324 3

原创 极大似然与最小二乘

最大似然估计和最小二乘法还有一大区别就是,最大似然估计是需要有分布假设的,属于参数统计,如果连分布函数都不知道,又怎么能列出似然函数呢? 而最小二乘法则没有这个假设。 二者的相同之处是都把估计问题变成了最优化问题。但是最小二乘法是一个凸优化问题,最大似然估计不一定是。那么为啥有这么多人把MLE和OLSE搞混,因为当likelihood用于gaussian的时候,由于gaussian k

2017-11-23 23:04:07 649

转载 PCA主成分分析

一、PCA简介1. 相关背景      上完陈恩红老师的《机器学习与知识发现》和季海波老师的《矩阵代数》两门课之后,颇有体会。最近在做主成分分析和奇异值分解方面的项目,所以记录一下心得体会。      在许多领域的研究与应用中,往往需要对反映事物的多个变量进行大量的观测,收集大量数据以便进行分析寻找规律。多变量大样本无疑会为研究和应用提供了丰富的信息,但也在一定程度上增加了

2017-11-23 21:33:11 316

转载 广义线性模型

今天我来介绍一种在机器学习中应用的比较多的模型,叫做广义线性模型(GLM)。这种模型是把自变量的线性预测函数当作因变量的估计值。在机器学习中,有很多模型都是基于广义线性模型的,比如传统的线性回归模型,最大熵模型,Logistic回归,softmax回归,等等。今天主要来学习如何来针对某类型的分布建立相应的广义线性模型。 Contents    1. 

2017-11-22 20:33:11 6232

转载 特征获取

特征抽取和特征选择是DimensionalityReduction(降维)两种方法,但是这两个有相同点,也有不同点之处:1. 概念:特征抽取(Feature Extraction):Creatting a subset of new features by combinations of the exsiting features.也就是说,特征抽取后的新特征是原来特征

2017-11-21 16:57:05 434

转载 逻辑回归

http://blog.csdn.net/pakko/article/details/37878837什么是逻辑回归?Logistic回归与多重线性回归实际上有很多相同之处,最大的区别就在于它们的因变量不同,其他的基本都差不多。正是因为如此,这两种回归可以归于同一个家族,即广义线性模型(generalizedlinear model)。这一家族中的模型形式基本上都差不多

2017-11-21 12:08:42 190

转载 特征选择

特征选择1.相关性通过使用相关性,我们很容易看到特征之间的线性关系。这种关系可以用一条直线拟合。下面通过皮尔逊相关系数(Pearson correlation coefficient)来解释特征的相关性:下面每幅图上方的相关系数Cor(X1, X2)是计算出来的皮尔逊r值,从图中可以看出不同程度的相关性。  p值越高,我们越不能信任这个相关系数 上图

2017-11-21 12:02:20 395

原创 相似性度量

修正cosine考虑的是对item(商品) i打过分的每个user u,其打分的均值,Pearson考虑的是每个item i 的被打分的均值<img src="https://pic4.zhimg.com/50/2d9e3af80ceb49945ce5c0f34d26c9e3_hd.jpg" data-rawwidth="567&

2017-11-21 11:16:48 824

转载 极大似然估计

极大似然估计        以前多次接触过极大似然估计,但一直都不太明白到底什么原理,最近在看贝叶斯分类,对极大似然估计有了新的认识,总结如下:贝叶斯决策        首先来看贝叶斯分类,我们都知道经典的贝叶斯公式:        其中:p(w):为先验概率,表示每种类别分布的概率;:类条件概率,表示在某种类别前提下,某事发生的概率

2017-11-20 22:39:29 307

转载 交叉熵损失函数

本文是《Neural networks and deep learning》概览 中第三章的一部分,讲machine learning算法中用得很多的交叉熵代价函数。1.从方差代价函数说起代价函数经常用方差代价函数(即采用均方误差MSE),比如对于一个神经元(单输入单输出,sigmoid函数),定义其代价函数为:其中y是我们期望的输出,a为神经元的实际输出【 a

2017-11-17 16:01:17 947

原创 链表的生长于翻转

#includeusing namespace std;typedef struct node{int data;node* next;}node;void list_grow(node*& head,int nums[], int len){node* front=NULL;node* temp=NULL;for (int i = 0; i {

2017-11-17 12:03:46 157

原创 矩阵顺时针旋转90度

#include#includeusing namespace std;void rotate_circle(int matrix[][4],int circle_num,int len){queue temp1;queue temp2;for (int i = circle_num - 1; i {temp1.push(matrix[i][len - circ

2017-11-15 21:33:24 604

原创 顺时针打印矩阵

#includeusing namespace std;void print_circle(int matrix[][4], int circle_num, int len){for (int i = circle_num - 1; i {cout }for (int i = circle_num-1; i {cout }for (int i = l

2017-11-15 20:29:15 124

原创 最大子序列和

#include#include#includeusing namespace std;int zdzdh(int* nums,int i){if (i==0)return nums[i];else{if (nums[i] + zdzdh(nums, i - 1) return nums[i];elsereturn zdzdh(nums, i -

2017-11-15 14:23:35 142

原创 一个数可以由哪些数相加得到

#includeusing namespace std;void fj(int n,int qt)//qt记录递归时的嵌套次数{if (n return;if (n == 1){cout cout }if (n == 2){cout cout if (qt>0)qt--;return;}if (n>2){cout

2017-11-14 20:07:45 2283 1

原创 全排列(自己版本)

#include#include#includeusing namespace std;void swap(char letters[],int i,int j){char temp = letters[i];letters[i] = letters[j];letters[j] = temp;}void qpl(char letters [], int st

2017-11-13 23:01:13 210

原创 变态青蛙跳

class Solution {public:    int jumpFloorII(int number) {        int re=0;        if(number            return 0;        if(number==1)            return 1;else            {         

2017-11-13 18:28:19 271

原创 归并排序(自己实现)

#include#includeusing namespace std;void merge(vector& nums, int l, int mid, int r){vector left_nums;vector right_nums;for (int i = l; i {left_nums.push_back(nums[i]);}for (int j

2017-11-13 13:05:32 182

原创 二插排序树(自己实现)

#include#includeusing namespace std;#define Elemtype inttypedef struct node{Elemtype data;node* left_node;node* right_node;}node;void insert(node*& root,Elemtype elem)//由一个根节点去递归的生

2017-11-12 23:03:40 356

原创 堆排序(自己版本)

#include#includeusing namespace std;void heap_adjust(vector& v, int node_bh, int last_node_bh){if (node_bh {int father = node_bh;int node_need_adjust;bool adjust = false;int left_c

2017-11-12 21:17:01 164

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除