自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

silent56_th的博客

大学生一枚,对机器学习、图像处理感兴趣,偶尔也会刷刷leetcode或者hihocoder。希望在这里可以和大家多多交流,互相学习。

  • 博客(272)
  • 收藏
  • 关注

转载 在Ubuntu上为Shutter添加快捷键

1. 找到shutter的命令行命令2. 在系统设置中添加快捷键详情参考在Ubuntu上为Shutter添加快捷键

2017-04-10 16:43:45 976

原创 远程使用内网服务器的tensorboard和jupyter notebook

基本做法就是通过ssh建立主机和服务器之间的隧道,然后把服务器当地的端口转发到主机。建立SSH隧道关于ssh的应用可以参考ssh -D -L -R 差异。(这篇文章里的host1可以看作客户端,host2看作服务器,host3是中间转接主机3) 主要困难在于服务器位于内网,外网客户端不可见。客户端分两种情况,分别是客户端位于内网和外网。(外网指的是有公网IP,世界任意位置可以通过其IP地址找到该电

2017-04-05 23:25:15 7667 2

原创 win10和ubuntu双系统,ubuntu的dhcp获取IP失败

具体方法是先关掉ipv6, 然后关机,然后开机。尤其是从win10转为ubuntu的时候,要先关机,再开机。作者是在实验室使用win10+ubuntu16.04双系统,然后win10可以上网而ubuntu不行。 ifconfig发现找得到ipv6的IP但是ipv4的IP没有,而且win10可以上网所以硬件问题也初步排除,故认为应该是DHCP的问题。搜索一圈之后认为是ipv6导致的问题,就去关掉ip

2017-03-31 19:07:56 3401

原创 Hinton Neural Network课程笔记11a: Hopfield Net的定义与应用

课程简介Geoffrey Hinton 2012年在coursera上开的网课:Neural Networks for Machine Learning。课程笔记本文只包括Hopfield的定义与应用,并不包括对其的深度理解,以及各种设置的insight。关于Hopfield的详细介绍,可以参考《现代模式识别(第二版)》(里面包括对于Hopfield Net其他角度的理解与应用,讲解也更加系统。个人

2017-03-29 16:45:14 3993

原创 网页中的动画效果转为GIF图片

录屏:软件有很多,win10可以参考 win10录屏操作。视频–>GIF:使用photoshop操作,详情参考如何用photoshop 把视频镜头做成GIF图片。

2017-03-19 20:42:21 4109

原创 win10录屏操作

win+R打开xbox的录屏工具即可

2017-03-19 20:16:43 2141

原创 CS231n课程笔记7:卷积神经网络入门

CS231n简介详见 CS231n课程笔记1:Introduction。 注:斜体字用于注明作者自己的思考,正确性未经过验证,欢迎指教。课程笔记因为卷积神经网络这个部分涉及繁多,也有不少无法用语言详细解释的细节,所以迟迟没有动笔。这次刚好帮老师做了这部分的PPT,就直接把PPT的部分转化过来,也保留了PPT的逻辑,只能说简单介绍了卷积神经网络,详细的部分会在以后的课程笔记中陆续的补充。 以下内

2017-03-19 19:45:54 1751

转载 ubuntu更改硬件时间【win10双系统】

详情参考Ubuntu 16.04将硬件时间UTC改为CST

2017-03-18 15:49:15 877

原创 Keras使用tensorflow代码

几乎所有相关代码都是backend里面,tensorflow与theano共同拥有的函数在backend.common里面,这部分代码无论使用任何backend都可以运行。其中tensorflow相关的位于backend.tensorflow_backend。 如果使用tensorflow backend,几乎所有的Keras.tensor都可以使用tensorflow内部的Operator。

2017-03-15 20:19:48 3439

原创 ubuntu查找python包的位置

使用pip命令中的show选项。 E.g. pip show theano---Metadata-Version: 2.0Name: TheanoVersion: 0.8.2Summary: Optimizing compiler for evaluating mathematical expressions on CPUs and GPUs.Home-page: http://deep

2017-03-14 23:46:54 14072

原创 Keras求取任意两个节点之间的导数

使用backend里面的gradient函数。此函数就是对于tensorflow里面的gradient函数的包装,输入输出都是tensor,可以把此函数想象为Operator。详情请参考backend-functions,tensorflow_backend.py,Gradient Computation。

2017-03-12 22:34:05 2340

翻译 Keras设置以及获取权重

layer的两个函数:get_weights(), set_weights(weights)。 详情请参考about-keras-layers。

2017-03-12 22:26:00 24203 5

原创 CS231n课程笔记6.2:神经网络训练技巧之Ensemble、Dropout

CS231n简介详见 CS231n课程笔记1:Introduction。 注:斜体字用于注明作者自己的思考,正确性未经过验证,欢迎指教。1. EnsembleKarpathy表示:只要使用Ensemble,就可以得到2%的提升。 Ensemble就是训练多个模型,最后把各个模型的结果取均值。 详情请参考 Hinton Neural Network课程笔记10a:融合模型Ensemble, B

2017-03-12 16:42:24 2993

原创 Hinton Neural Network课程笔记10a:融合模型Ensemble, Boosting, Bagging

课程简介Geoffrey Hinton 2012年在coursera上开的网课:Neural Networks for Machine Learning。课程笔记1. 模型融合的原因1.1. bias-variance trade-off当模型过于复杂而数据量不足的时候,就会出现过拟合问题。即学习了很多训练集内部的噪声等内容,在测试集结果不好。通过模型之间取均值可以较好的解决这个问题,尤其是模型预测

2017-03-06 21:51:59 1868

原创 Hinton Neural Network课程笔记9f:Mackay的设定正则化系数方法

课程简介Geoffrey Hinton 2012年在coursera上开的网课:Neural Networks for Machine Learning。课程笔记以下内容基于一些基础知识点:例如MAP,正则项的贝叶斯解释等等。此部分内容因为设计过多公式,暂时跳过,请参考Hinton Neural Network的课程9e或者自行搜索。

2017-03-06 15:34:15 885

原创 Hinton Nerual Networks课程笔记9d:贝叶斯方法入门

课程简介Geoffrey Hinton 2012年在coursera上开的网课:Neural Networks for Machine Learning。课程笔记这里主要对比的是Bayesian方法 和 频率法(最大似然法)。两者的本质区别在于Bayesian中参数也具有分布,而最大似然法中参数只是一个数。 从数学的角度,这两个理论不分优劣,已经进行了好多年的圣战了;从机器学习的角度,两个方法都有很

2017-03-06 14:28:50 719

原创 numpy函数:numpy.add.at

np.add.at(a,indices,b) 假设a.shape=[N,T,D],且b.shape = [N,T,D]/[T,D]/[D],则相当于for indice in indices: a[indice] += b一种特殊情况是b.shape=[len(indices),N,T,D],则相当于:for index,indice in enumerate(indices):

2017-03-04 15:55:27 5999 1

原创 [leetocde 151]Reverse Words in a String

问题描述Given an input string, reverse the string word by word.For example, Given s = “the sky is blue”, return “blue is sky the”.Update (2015-02-12): For C programmers: Try to solve it in-place in O(1)

2017-03-04 15:13:03 344

原创 [leetcode 508]Most Frequent Subtree Sum

问题描述Given the root of a tree, you are asked to find the most frequent subtree sum. The subtree sum of a node is defined as the sum of all the node values formed by the subtree rooted at that node (incl

2017-03-04 14:47:42 298

翻译 Keras解决OOM超内存问题

如果在Keras内部多次使用同一个Model,例如在不同的数据集上训练同一个模型进而得到结果,会存在内存泄露的问题。在运行几次循环之后,就会报错OOM。解决方法是在每个代码后面接clear_session()函数,显示的关闭TFGraph,再重启。详情参考 https://keras.io/backend/#backend-functions。from keras import backend as

2017-03-03 23:31:34 21058 19

转载 Keras指定使用GPU

使用CUDA_VISIBLE_DEVICES.CUDA_VISIBLE_DEVICES=1 python train.py

2017-03-03 23:26:59 15178

翻译 Keras设定GPU使用内存大小(Tensorflow backend)

纯粹搬运工,接受英语的请看原网址:Keras Tensorflow backend automatically allocates all GPU memory。通过设置Keras的Tensorflow后端的全局变量达到。import osimport tensorflow as tfimport keras.backend.tensorflow_backend as KTFdef get_se

2017-03-03 23:22:44 15334

原创 [leetcode 442] Find All Duplicates in an Array

问题描述Given an array of integers, 1 ≤ a[i] ≤ n (n = size of array), some elements appear twice and others appear once.Find all the elements that appear twice in this array.Could you do it without extra s

2017-03-03 14:12:07 485

原创 [leetcode 515]Find Largest Value in Each Tree Row

问题描述You need to find the largest value in each row of a binary tree.Example: Input: 1 / \ 3 2 / \ \ 5 3 9 Output: [1, 3, 9]代码深搜而已。 int cal_depth(TreeNode* root) {

2017-03-03 13:37:07 483

原创 [leetcode 406]Queue Reconstruction by Height

问题描述Suppose you have a random list of people standing in a queue. Each person is described by a pair of integers (h, k), where h is the height of the person and k is the number of people in front of th

2017-03-02 19:27:17 418

原创 CS231n课程笔记5.4:超参数的选择&交叉验证

CS231n简介详见 CS231n课程笔记1:Introduction。 注:斜体字用于注明作者自己的思考,正确性未经过验证,欢迎指教。1. 超参数有哪些与超参数对应的是参数。参数是可以在模型中通过BP(反向传播)进行更新学习的参数,例如各种权值矩阵,偏移量等等。超参数是需要进行程序员自己选择的参数,无法学习获得。 常见的超参数有模型(SVM,Softmax,Multi-layer Neura

2017-02-28 15:23:42 3115

原创 CS231n课程笔记5.3:Batch Normalization

CS231n简介详见 CS231n课程笔记1:Introduction。 注:斜体字用于注明作者自己的思考,正确性未经过验证,欢迎指教。Batch Normalization1. 原理BN(Batch Normalization)的原理很简单,就是对于给定输入做一个减均值除方差的归一化(可以这么做的原因是上诉归一化操作可导,即可以做BP(反向传播))。当然这么做的优劣难于判断,所以后文给出了改进

2017-02-27 21:12:52 2529

原创 [hihocoder1318]非法二进制数

问题描述时间限制:10000ms 单点时限:1000ms 内存限制:256MB 描述 如果一个二进制数包含连续的两个1,我们就称这个二进制数是非法的。小Hi想知道在所有 n 位二进制数(一共有2n个)中,非法二进制数有多少个。例如对于 n = 3,有 011, 110, 111 三个非法二进制数。由于结果可能很大,你只需要输出模109+7的余数。输入 一个整数 n (1 ≤ n ≤ 100

2017-01-04 21:34:41 741

原创 CS231n作业笔记2.6:卷积层以及池化层的实现

CS231n简介详见 CS231n课程笔记1:Introduction。 本文都是作者自己的思考,正确性未经过验证,欢迎指教。作业笔记就是简单实现一下卷积层以及池化层,唯一的难点在于确定索引值,稍微注意一下就好。1. 卷积层1.1. 前向传播 N, C, H, W = x.shape F, C, HH, WW = w.shape stride = conv_param['stride'

2017-01-04 20:53:02 951

原创 CS231n作业笔记2.5:dropout的实现与应用

CS231n简介详见 CS231n课程笔记1:Introduction。 本文都是作者自己的思考,正确性未经过验证,欢迎指教。作业笔记dropout中唯一需要注意的就是为了平衡train与test,通过除以期望值即可。1. 前向传播 if mode == 'train': mask = (np.random.rand(*x.shape)<p) out = x*mask / p

2017-01-04 13:38:14 2341

原创 CS231n作业笔记2.4:Batchnorm的实现与使用

CS231n简介详见 CS231n课程笔记1:Introduction。 本文都是作者自己的思考,正确性未经过验证,欢迎指教。作业笔记Batchnorm的思想简单易懂,实现起来也很轻松,但是却具有很多优良的性质,具体请参考课程笔记。下图简要介绍了一下Batchnorm需要完成的工作以及优点(详情请见CS231n课程笔记5.3:Batch Normalization): 需要注意的有:最后

2017-01-03 21:21:48 9160 6

原创 [hihocoder 1070]RMQ问题再临

问题描述时间限制:10000ms 单点时限:1000ms 内存限制:256MB 描述终于,小Hi和小Ho踏上了回国的旅程。在飞机上,望着采购来的特产——小Hi陷入了沉思:还记得在上上周他们去超市的时候,前前后后挑了那么多的东西,都幸运的没有任何其他人(售货员/其他顾客)来打搅他们的采购过程。但是如果发生了这样的事情,他们的采购又会变得如何呢?于是小Hi便向小Ho提出了这个问题:假设整个货架上从

2016-12-29 20:03:51 257

原创 [hihocoder taige 20-3]最小字典序子序列

问题描述题目3 : Smallest Substring 时间限制:10000ms 单点时限:1000ms 内存限制:256MB 描述 Given a string S and an integer K, your task is to find the lexicographically smallest string T which satisfies: T is a subseq

2016-12-28 20:49:25 642

原创 CS231n作业笔记2.2:多层神经网络的实现

CS231n简介详见 CS231n课程笔记1:Introduction。 本文都是作者自己的思考,正确性未经过验证,欢迎指教。作业笔记这部分就是二层神经网络的拓展,详情参考CS231n作业笔记2.1:两层全连接神经网络的分层实现。 注:这部分不包括dropout以及batch normalization。1. 初始化参数注:这次使用了normal函数,也可以使用randn函数 self.

2016-12-28 19:07:22 1264

原创 [hihocoder taige 20-1]括号配对

问题描述题目1 : Parentheses Matching 时间限制:10000ms 单点时限:1000ms 内存限制:256MB 描述 Given a string of balanced parentheses output all the matching pairs.输入 A string consisting of only parentheses ‘(’ and ‘)’.

2016-12-27 19:29:58 518

原创 CS231n作业笔记2.1:两层全连接神经网络的分层实现

CS231n简介详见 CS231n课程笔记1:Introduction。 本文都是作者自己的思考,正确性未经过验证,欢迎指教。作业笔记1. 神经网络的分层实现实现全连接层+ReLU层的前向传播与后向传播。 参考资料:CS231n课程笔记4.2:神经网络结构,CS231n课程笔记4.1:反向传播BP, CS231n作业笔记1.6:神经网络的误差与梯度计算,CS231n作业笔记1.5:Softma

2016-12-27 18:58:47 5372

原创 CS231n课程笔记5.2:数据预处理&权重矩阵初始化

CS231n简介详见 CS231n课程笔记1:Introduction。 注:斜体字用于注明作者自己的思考,正确性未经过验证,欢迎指教。课程笔记1. 数据预处理1.1. 归一化如下图所示,归一化即使得重心位于原点,方差为1。对于归一化的优点请参考CS231n课程笔记5.1:神经网络历史&激活函数比较。 1.2. PCA & 白化如下图所示,PCA是作用于原数据上的一个线性变换,使得协方差矩阵对

2016-12-27 15:17:49 1914

原创 Ubuntu16.04 开发环境配置

编辑器vimsudo apt-get install vimvim+python 请参考Vim与Python真乃天作之合。codeblocks官网:http://codeblocks.org/sudo add-apt-repository ppa:damien-moore/codeblocks-stablesudo apt-get updatesudo apt-get install codeb

2016-12-25 18:25:16 552

原创 MATLAB点云处理:读取、展示、最近邻、ICP算法求取转移矩阵、旋转

MATLAB中关于点云的几个函数的简单应用。作者使用的是MATLAB R2015b,这几个函数应该是在Computer Vison包里。 全文都是作者自己结合MATLAB文档的理解,欢迎指教。 1. pcread: 输入文件名,返回pointCloud类(用于存储点云)。eg: pcloud = pcread(“filename.ply”) 2. pcshow: 输入pointCloud类,展

2016-12-24 17:49:56 23072 15

原创 CS231n课程笔记5.1:神经网络历史&激活函数比较

CS231n简介详见 CS231n课程笔记1:Introduction。 注:斜体字用于注明作者自己的思考,正确性未经过验证,欢迎指教。课程笔记关于神经网络的简介请参考 CS231n课程笔记4.2:神经网络结构。1. 神经网络历史具有神经网络的结构,但是使用电门手动构造函数。[Frank Rosenblatt, ~1957: Perceptron;Widrow and Hoff, ~1960:

2016-12-24 16:43:03 1062

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除