shell程序中 2> /dev/null 代表什么意思?
https://www.zhihu.com/question/53295083
将标准错误重定向到/dev/null,一个只进不出的地方,忽略错误输出
- 0 —— stdin(标准输入)
- 1 —— stdout (标准输出)
- 2 —— stderr (标准错误)
- /dev/null是一个特殊的设备文件,这个文件接收到的任何数据都会被丢弃。因此,null这个设备通常也被成为位桶(bit bucket)或黑洞
jupyter notebook 或者 jupyter qtconsole的时候,经常会用到%matplotlib inline
https://blog.csdn.net/liangzuojiayi/article/details/78183783
https://www.jianshu.com/p/f7f00aaa43d4
https://stackoverflow.com/questions/43027980/purpose-of-matplotlib-inline
%matplotlib inline 可以在Ipython编译器里直接使用,功能是可以内嵌绘图,并且可以省略掉plt.show()这一步
Jupyter意外双击,变成编辑格式,执行该cell,即可恢复阅读模式
https://mooc.study.163.com/learn/2001281002?tid=2001392029#/learn/content?type=detail&id=2001702013
均值图像/深度学习图像预处理中为什么使用零均值化
https://blog.csdn.net/mooneve/article/details/81943904#commentBox
在深度学习中,一般我们会把喂给网络模型的训练图片进行预处理,使用最多的方法就是零均值化(zero-mean) / 中心化,即让所有训练图片中每个位置的像素均值为0,使得像素值范围变为[-128,127],以0为中心。这样做的优点是为了在反向传播中加快网络中每一层权重参数的收敛。为什么能加快呢?李飞飞的cs231n课程中给出了很好的解释。
Caffe Model ZOO
https://github.com/BVLC/caffe/wiki/Model-Zoo
??Transformer
#Load the image
image= caffe.io.load_image(TEST_IMAGE)
plt.imshow(image)
plt.show()
#Load the mean image
mean_image = np.load(MEAN_IMAGE)
mu = mean_image.mean(1).mean(1) # average over pixels to obtain the mean (BGR) pixel values
# create transformer for the input called 'data'
transformer = caffe.io.Transformer({'data': net.blobs['data'].data.shape})
transformer.set_transpose('data', (2,0,1)) # move image channels to outermost dimension
transformer.set_mean('data', mu) # subtract the dataset-mean value in each channel
transformer.set_raw_scale('data', 255) # rescale from [0, 1] to [0, 255]
transformer.set_channel_swap('data', (2,1,0)) # swap channels from RGB to BGR
# set the size of the input (we can skip this if we're happy with the default; we can also change it later, e.g., for different batch sizes)
net.blobs['data'].reshape(1, # batch size
3, # 3-channel (BGR) images
227, 227) # image size is 227x227
transformed_image = transformer.preprocess('data', image)