自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

小白水手的博客

小白水手

  • 博客(33)
  • 资源 (2)
  • 收藏
  • 关注

原创 【聚类算法】K-means个人实现

代码注释的请忽略,中文注释算是比较详解。修改了之前的版本 1)map 的规则变了 2)源代码的矩阵,list定义有点混乱'''Created on Feb 16, 2011Modify on Mar 27, 2018k Means Clustering for Ch10 of Machine Learning in Action@author: Peter Harrington -...

2018-05-27 20:49:40 567

原创 【python】各种数据类型

1.list 和 turple两个很相似,不同在于: list 是可变的,turple是不可变的。turple没有append,insert方法 但是不可变并不代表内容不变,只是指向的地址不变。 可变在here...

2018-05-27 14:48:46 385

原创 【numpy】方便功能

import numpy as np#pad填充# Z = np.ones((5,5))# Z = np.pad(Z, pad_width=1, mode='constant', constant_values=0)# print(Z)#NaN与None# print('0 * np.nan = ',0*np.nan) #nan# print('np.nan == np.na...

2018-05-26 16:58:50 752

转载 相似度度量

转载

2018-05-25 17:17:28 354

原创 【数据分析】绘制统计图

频率分布直方图# 运行以下代码# sort the values from the top to the least value and slice the first 5 itemsimport pandas as pdimport matplotlib.pyplot as pltimport numpy as nppath7 = './data.csv' # train.cs...

2018-05-24 17:04:24 2137

原创 主流的聚类方法

聚类是按照某个特定的标准(比如相似度,概率,距离准则,即数据点之间的距离)把一个数据集分割成不同的类或簇,使得同一个簇内的数据对象的相似性尽可能大,同时不在同一个簇中的数据对象的差异性也尽可能地大,我们具体的理解为,聚类后同一类的数据尽可能聚集到一起,不同类数据尽量分离。...

2018-05-24 09:36:09 367

转载 Birch

概述Birch(利用层次方法的平衡迭代规约和聚类):就是通过聚类特征(CF)形成一个聚类特征树,root层的CF个数就是聚类个数。概念聚类特征(CF):每一个CF是一个三元组,可以用(N,LS,SS)表示,其中N代表了这个CF中拥有的样本点的数量,LS代表了这个CF中拥有的样本点各个特征维度和向量,SS代表了这个CF中拥有的样本点各特征维度的平方和。 如上图所示:N = 5 ...

2018-05-23 22:18:55 470

转载 GaussianMixtureMode

概述聚类算法大多数采用相似度来判断,而相似度又大多数采用欧式距离长短来衡量,而GMM采用了新的判断依据—–概率,即通过属于某一类的概率大小来判断最终的归属类别 GMM的基本思想就是:任意形状的概率分布都可以用多个高斯分布函数去近似,也就是GMM就是有多个单高斯密度分布组成的,每一个Gaussian叫”Component”,线性的加成在一起就组成了GMM概率密度算法函数n_compon...

2018-05-23 22:13:24 1245

转载 【聚类算法】Mean-shift 算法

转自here基本思想在数据集中选定一个点,然后以这个点为圆心,r为半径,画一个圆,求出这个点到所有点的向量的平均值,而圆心与向量均值的和为新的圆心,然后迭代此过程,直到满足一点的条件结束。后来加了权重系数和核函数,目前在聚类,图像平滑,分割,跟踪等方面有着广泛的应用。 不断找新的圆心,直到密码最大的区域。算法函数a) 核心函数:sklearn.cluster.MeanSh...

2018-05-23 15:34:44 1476

转载 None和NaN 区别

转载自here 为了理解文本的内容,希望本文的读者需要对pandas 的Series使用有一定的经验 本人对series并不熟悉,所以在此做个记录,内容以后补充。数据类型?None是一个python特殊的数据类型,但是NaN却是用一个特殊的floatfrom numpy import NaN #又见识到一个新的NaNfrom pandas import Series, Dat...

2018-05-23 10:21:58 1249

原创 【leetcode】104. Maximum Depth of Binary Tree

# Definition for a binary tree node.# class TreeNode(object):# def __init__(self, x):# self.val = x# self.left = None# self.right = Noneclass Solution(object): d...

2018-05-21 19:44:27 297

原创 【leetcode】100. Same Tree

# Definition for a binary tree node.# class TreeNode:# def __init__(self, x):# self.val = x# self.left = None# self.right = Noneclass Solution: def isSameTree(se...

2018-05-21 19:32:11 261

原创 【leetcode】Longest Palindromic Subsequence

这个DP需要两步完成 [Math Processing Error]dp[i][j]={max(dp[i+1][j],dp[i][j−1])dp[i+1][j−1]+2dp[i][j] = \lbrace{max(dp[i+1][j],dp[i][j-1])}^{dp[i+1][j-1]+2} //C++ AC代码class Solution {public: int long...

2018-05-20 22:55:41 213

原创 【leetcode---DP】70.Climbing Stairs

class Solution(object): def climbStairs(self, n): fun = [] fun.append(1) fun.append(1) for i in range(2,n+1): fun.append(fun[i-1]+fun[i-2]) ret...

2018-05-20 18:54:58 198

原创 【leetcode---DP】746. Min Cost Climbing Stairs

动态规划(Dynamic programming, DP)如果我们用一个数组dp[]来存放到达每一层所需要的花费值。最终结果是求dp[cost.length]的值。 每次可以走1层或者2层,并且可以从0或者从1开始,所以可以得到dp[0]为0,dp[1]为0 从2开始,dp[i]可以由通过dp[i-2]走2层或者通过dp[i-1]走一层到达,而这i-2和i-1层所要花费的值分别为cost[...

2018-05-20 18:23:06 241

原创 【leetcode---DP】121.est Time to Buy and Sell Stock

class Solution(object): def maxProfit(self, prices): """ :type prices: List[int] :rtype: int """ l = l

2018-05-20 17:45:25 182

原创 【科赛网15天培训】前期准备

选择错题 #[题目链接](https://www.icourse163.org/learn/NJU-1001571005?tid=1002701006#/learn/ojhw?id=1003423011)def find_person(dict_users, strU): if strU in dict_users: return dict_use...

2018-05-20 16:11:35 513

原创 【Python爬虫】获取网易云表单

pip install 配置环境 未成功,因为现在使用的是headless。 用了google的headless,扩展应用一直关不掉,导致运行失败,用Firefox试试

2018-05-20 13:07:01 421

原创 【看代码学Python】图像基本处理

import cv2import glob# box folder pathpath = "/box"# original image path#img_path = "/run/media/syc/sakamoto/dianjing/bad_particles/HBsAg_tif"#img_path = "/box"save_path = "/box_cls/"#保存路径fi...

2018-05-19 18:03:06 327

原创 c++ \\ Python读文件 + 写入任意文件

import globimport csvimport os#csvFile = open('文件名','r-读,w-写,a-追加',指定缓冲)csvFile2 = open('out_test4.1.csv','r',newline='')num = 0with csvFile as f: for line in f.readlines():...

2018-05-18 11:25:42 885

转载 Sift特征详解

摘自—here—-1.概述全称:Scale Invariant Feature Transform(尺度不变特征变换) 对旋转,尺度缩放,亮度变化等保持不变性,是一种非常稳定的局部特征。1.1 sift算法具有的特点1.图像的局部特征,对旋转,尺度缩放,亮度变化保持不变,对视角变化,仿射变换,噪声也保持一定程度的稳定性。 2.独特性好,信息量丰富,适用于海量特征库进行快速、...

2018-05-16 17:13:11 4620

原创 《tensorflow 实战》笔记一:实现自编码器及多层感知机

1.自编码器顾名思义,即可以使用自身的高阶特征编码自己。实际上也是一种神经网络,输入和输出是一致的。 借助稀疏编码的思想,目标是使用稀疏的一些高阶特征特征重新组合来重构自己。 特点很明显: 1)期望输入输出一致; 2)希望使用高阶特征来重构自己,不只是复制像素点。2.单层tensorflow实现我们的自编码器会使用到一种参数初始化方法:xavier initializati...

2018-05-15 20:40:43 882

原创 【python入门】python 2 ---- 3差异

在此贴出一个额详细的深度学习的python 的  入门博客   下边是个人的小笔记,适合本人记忆。----------------------------------------nodepad++------------------------------注释多行快捷键:ctrl+k删除注释快捷键:ctrl+q批量多行注释:"""第一行被注释 第二行被注释第三行被注释"""1.----------...

2018-05-09 18:03:48 182

转载 cs231n------神经网络

这一部分,我看过了吴恩达老师的课程笔记,所以只做补充,不做全部了。

2018-05-08 15:30:26 499

转载 cs231n----反向传播

问题陈述:这节的核心问题是:给定函数f(x) ,其中x是输入数据的向量,需要计算函数f关于x的梯度,也就是∇f(x)∇f(x)\nabla f(x)。 目标:之所以关注上述问题,是因为在神经网络中fff对应的是损失函数(L)(L)(L),输入xxx里面包含训练数据和神经网络的权重。举个例子,损失函数可以是SVM的损失函数,输入则包含了训练数据(xi,yi),i=1...N(xi,yi),i=1....

2018-05-08 13:21:08 581

转载 cs321n------最优化笔记

最优化是寻找能使得损失函数最小化的参数W的过程。 铺垫: 一旦理解了这三个部分是如何相互运作的,我们将会回到第一个部分(基于参数的函数映射),然后将其拓展为一个远比线性函数复杂的函数:首先是神经网络,然后是卷积神经网络。而损失函数和最优化过程这两个部分将会保持相对稳定。损失函数可视化(不懂)本课中讨论的损失函数一般都是定义在高维度的空间中(比如,在CIFAR-10中一个线性分类器的...

2018-05-08 01:10:16 808

转载 cs231n----线性分类器

评分(score)函数:原始的图像数据到类别分值的映射 损失(loss)函数:量化预测分类标签的得分与真实类别之间一致性 这两个函数将配合实现最优化, 训练出最优的参数: 即在最优化过程中,将通过更新评分函数的参数来最小化损失函数值。线性分类器f(xi,W,b)=Wxi+bf(xi,W,b)=Wxi+bf(x_i,W,b) = W{x_i}+b 线性函数 在编程的时候...

2018-05-07 22:09:19 404

转载 cs231n---图像分类

目标分类就是常规理解的分类,之后我们可以看到CV中很多看似不同的问题,比如物体检测和分割,都可以归结为图像分类问题。例子图像分类模型读取该图片,并生成该图片属于集合{cat,都给,hat,mug}中各个标签的概率。 图像:248 × 400 × 3 = 297600 困难和挑战视角变化 大小变化 形变:形状并非一成不变 遮挡:部分被挡住,剩下一部分可见 光...

2018-05-07 14:02:01 483

转载 ROI (Region of interest pooling) Pooling 层详解

参考:https://blog.deepsense.ai/region-of-interest-pooling-explained/目标检测typical architecture通常分为两个阶段: 1)region proposal: 给定一个输入图像,找出可找到对象的所有可能位置。这个阶段的输出应该是bounding box列表,这些通常被称为region proposal,或感兴趣的...

2018-05-06 22:22:29 3610 3

转载 【目标检测】FastRCNN算法详解

继2014的RCNN之后,推出了FastRCNN ,构思精巧,流程更为紧凑,大幅提升了目标检测的速度。 同样使用最大规模的网络,FastRCNN 和RCNN相比,训练时间从84小时减少为9.5小时,测试时间从47秒,减少为0.32秒,在PASCAL VOC 2007上的准确率相差无几,约在66%-67%之间.思想 基础:RCNN 简单来说,RCNN使用以下4步实现目标检...

2018-05-06 21:24:20 4395

转载 【目标检测】RCNN算法详解

摘自沈晓璐 有待补充自己的理解Region CNN (RCNN )是利用深度学习进行目标检测的开山之作。思想解决了目标检测两个关键问题问题一:速度之前的经典算法是使用滑动窗口依次判断所有可能的区域。 RCNN是预先提取较可能是物体的候选区域,之后仅在这些候选区域上提取特征,进行判断。问题二:训练集经典的目标检测算法在区域中提取人工设定的特征。 RCNN需要训练深度...

2018-05-06 12:51:51 523

转载 tensorflow实战---手写体识别

1.softmax回归准确率91%,较低 数据集下载自MNIST官网 包含四个压缩文件 不必解压放到目录就好#完整代码#仅做记录,详细解释有待补充import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_datamnist = input_data.read_data_...

2018-05-05 18:40:54 1506 1

转载 搭建神经网络

摘自这里1.搭建神经网络基本流程定义添加神经层的函数 1.训练的数据 2.定义节点准备接收数据 3.定义神经层:隐藏层和预测层 4.定义loss表达式 5.选择optimizer 使loss达到最小 然后对所有变量进行初始化,通过sess.run optimizer,迭代1000次进行学习:import tensorflow as tfimport numpy a...

2018-05-05 12:43:50 402

pytorch训练数据

这是自己已经分好的分类,数据可能有点少,因为我跑的时候是CPU,所有如果想要原数据集(3w张图片)的可以在我博客下留下邮箱,有空会发的。

2018-06-09

VC++6 .0英文版

VC++,win10解压即可正常使用,c/c++均可,非常方便。

2018-03-05

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除