![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
综合
中山大学阳阳实验室
Guangrun Wang (王广润), husband of Yang Shi. I am studying in SYSU. I am interested in and good at Big Data and Machine Learning.
Yang Shi (石阳), wife of Guangrun Wang. I am studying in SYSU. I am interesting in and good at the science of law, Accountancy and Auditing.
展开
-
好久没有来了
好久没有来这时写博客了。请大家移步我的主页:https://wanggrun.github.io/关注王广润和石阳的新动态。原创 2020-06-17 19:56:18 · 289 阅读 · 0 评论 -
历史消息
我的实验室成立啦!原创 2015-05-24 13:17:45 · 627 阅读 · 0 评论 -
caffe实现RNN(recursive Neural Network, recursive NN)
简单来说:写一个rnn-layer,封装成层。所有的参数都放在该layer变量中。bottom是图片各region的特征向量,top是节点分的若干个class. 在rnn-layer的更上一层,加一个softmax-loss-layer就可以了。所以,关键问题是求好“新”的num(),以使得rnn-layer能承接softmax-loss-layer传回来的残差,进行梯度更新。如图。原创 2015-09-24 21:09:32 · 6676 阅读 · 0 评论 -
caffe中的卷积实现
简单来说: 图像上所有的mxm的窗口转成列向量(im2col),然后合并成一个大的矩阵;滤波器也转成一个mxm的列向量(im2col)。两者实现矩阵运算,就可以利用矩阵运算的快速性了。——王广润原创 2015-09-24 14:18:31 · 813 阅读 · 0 评论 -
caffe finetuning时从源模型到目的模型:将一个layer的参数赋予到多个layer
在net.cpp中template void Net::CopyTrainedLayersFrom(const NetParameter& param) { int num_source_layers = param.layers_size(); vector layer_init_flag(layer_names_.size(), false); for (in原创 2015-12-01 14:20:09 · 4099 阅读 · 0 评论