- 博客(16)
- 收藏
- 关注
原创 C++知识碎片整理(11)——自用数学函数
本文用来存储我用到过的数学方法函数,随着学习深入不断增加声明//类型转换 int string2int(string s);//string-->intstring int2string(int n);//int-->string//数组随机打乱方法void disorder(int a[], int n);//disorganize an array,
2016-09-22 20:44:23 557
原创 打乱数组
有很多的方法进行排序,但在实验过程中我需要打乱的算法,从http://blog.csdn.net/cxllyg/article/details/7986352找到了一个打乱算法,亲测可用。#include <iostream>#include <stdio.h>#include <stdlib.h>#include <time.h>using namespace std;void diso
2016-09-20 16:37:54 1144
原创 C++知识碎片整理(9)——Vector&List
Vector在c++中,vector是一个十分有用的容器,下面对这个容器做一下总结。1 基本操作(1)头文件#include<vector>.(2)创建vector对象,vector<int> vec;(3)尾部插入数字:vec.push_back(a);(4)使用下标访问元素,cout<<vec[0]<<endl,记住下标是从0开始的。(5)使用迭代器访问元素.vector<int>::itera
2016-09-20 10:40:33 353
原创 C++知识碎片整理(8)——生成随机数
关于生成随机数,做一记录生成[start,end]的整随机数srand((unsigned)time(NULL));cout<<(rand() % (end-start+1)) + start<<endl; 未完待续
2016-09-18 09:38:26 425
原创 Caffe入门(6)——Solver求解器
Solver通过协调前向通道结果和反向通道导数来形成参数更新以控制模型优化。学习的任务由Solver和Net承担,Solver负责监督优化和形成参数更新;Net负责产生loss和gradient。Caffe Solver有以下几种:随机梯度下降法(Stochastic Gradient Descent,SGD) AdaDelta 自适应梯度法(Adaptive Gradient, AdaGrad
2016-09-14 19:42:53 1730
原创 Caffe入门(5)——Loss
2016/9/14 文字有待润色Caffe中和其他大部分机器学习一样,通过一个损失函数(或者叫做误差,成本或者目标函数)。一个损失函数通过规划参数设置来确定学习的目标。因此,学习的目标是寻找参数的集合来最小化损失函数。Caffe中Loss是通过网络的前向通道计算的。每一层输入一系列Blobs并输出一系列Blobs。一些层的输出会被用于损失函数计算。一个典型的一对多分类任务的损失函数是SoftmaxW
2016-09-14 13:56:26 862
原创 Caffe入门(4)——Forward and Backward
Forward前向和Backward反向通道是深度网络必须的计算流程。前向通道根据输入计算输出,过程是自底(bottom)向顶(top)的。反向通道根据学习的损失计算梯度,在反向通道中,Caffe反向组合每一层的梯度来计算整个模型的梯度,这个过程是自顶(top)向底(bottom)的。反向通道计算从损失开始计算最后一个计算层的导数,模型剩余的其他导数将通过链式法则逐层计算,使用适当的最优化方法,使整
2016-09-13 22:46:33 2258
原创 Caffe入门(3)——Blob,Layer,and Nets:anatomy of a Caffe model
简述深度学习网络是一种组合模型,表示为相互关联的数据处理层的集合。Caffe把网络定义成一个层与层叠加的模式。一个网络模型需要从底层的输入数据到顶层的损失的整个模型。当数据和数据的派生物通过前向和反响通道流经网络时,caffe以Blobs德兴市存储交互和操作信息:Blob是标准的数组和统一的存储接口。Layer是模型和计算的基础构件,Net是Layer的链接和集合,Blob详细描述了信息如何在Lay
2016-09-13 22:09:01 638
原创 Deep Learning——卷积理解
卷积神经网络是进来很火的深度学习算法,网上解读的文章也非常多,但是感觉也就是抄来抄去,看了很多,但理解仍然不透彻。受博主hjimce启发,感到应该从基本的数学概念入手理解。有查了一些资料,算是对卷积有了一定的理解。我将从三个层次讲解卷积,分别是物理的卷积(信号处理的卷积),图像处理的卷积,卷积神经网络的卷积。物理上的卷积对于这一部分,网上有很多残忍又有趣的回答,可以很好的让我们理解什么是卷积,详见知
2016-09-07 22:44:52 531
原创 Linux——自定义命令
在Linux使用过程中,我经常会遇到要使用位于较深目录下的文本或应用,这样我就需要穿过多层目录才能找到需要的东西,而且经常会记不清楚长长的路径,因此我想减少这种时间浪费。于是就用文本编辑器尝试编写自己的脚本,能够快速打开我需要的应用。以我经常需要用到的xampp为例,要操作xampp要么是在很深的目录下使用命令操作(刚刚过去一个小时,我又忘记这个位置了,可见这个工作的必要性),要么使用xampp-c
2016-09-07 16:19:33 5325
原创 JavaWeb(3)——动态Web项目打包导出与部署
在Eclipse下导航窗口中找到要导出的web项目,右击>Export>WAR file>选定存放地点。将打包好的WAR复制到Tomcat目录/webapps/文件夹中将WAR解压到该文件夹中重启Tomcat,浏览器访问习惯命令行操作的话,可以使用命令行进行这一些列操作 1. 进入web项目文件夹/webcontent/中jar -cvf projectname.war *因为jar,wa
2016-09-04 16:09:01 13796
原创 LibSVM3.21 Matlab 安装
1、下载libsvm 3.21,下载地址http://www.csie.ntu.edu.tw/~cjlin/libsvm/。 2、将工具包放到任何地方均可,将工具包添加到Matlab的搜索路径。Set Path->add with subfolders->save !!一定是subfolders 3、编译。mex -setup 注意:mex后要有空格,然后再是-。会有以下提示 mex
2016-09-02 09:40:27 761
原创 Caffe入门(2)——Blob,Net库测试
编写程序测试caffe的Blob和Net的功能 2016/9/1Blob测试1 cd caffe/ 2 sudo gedit blob_demo.cpp 3 在gedit编辑器中编辑#include <vector>#include <iostream>#include <caffe/blob.hpp>using namespace caffe;using namespace std;
2016-09-01 22:36:20 1247 4
原创 C++知识碎片整理(7)——inline(内联)函数
看caffe源代码看到了一些函数前有这样一个关键词,了解一下它的功能。 2016/9/1 简单理解inline 说明这个函数是内联的,在编译过程中内联函数会直接被源代码替换,提高执行效率。如果类中的某个函数会被调用很多次或者放在循环中,那么建议将这个函数声明为内联,可以提高程序的运行效率。 在小程序中表现不明显,但在大工程项目中效率提升会有意义。举个例子比如 int g(int x) { r
2016-09-01 20:17:08 431
转载 C++知识碎片整理(6) explicit关键词的作用
explicit作用:在C++中,explicit关键字用来修饰类的构造函数,被修饰的构造函数的类,不能发生相应的隐式类型转换,只能以显示的方式进行类型转换。explicit使用注意事项: explicit 关键字只能用于类内部的构造函数声明上。explicit 关键字作用于单个参数的构造函数。在C++中,explicit关键字用来修饰类的构造函数,被修饰的构造函数的类,不能发生相应的隐式类型转换
2016-09-01 19:23:35 246
原创 Linux命令学习(1)——ps
简介Linux中的ps命令是Process Status的缩写。 ps命令用来列出系统中当前运行的那些进程。 ps命令列出的是当前那些进程的快照,就是执行ps命令的那个时刻的那些进程。 如果想要动态的显示进程信息,就可以使用top命令。 kill 命令用于杀死进程。Linux进程状态与对应ps工具状态码linux上进程有5种状态: 运行(正在运行或在运行队列中等待) 中断(休眠中, 受阻
2016-09-01 08:19:37 362
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人