- 博客(7)
- 资源 (5)
- 收藏
- 关注
原创 resnet笔记(Deep Residual Learning for Image Recognition)
paper下载地址,请戳这里之前学习的时候,写了笔记,这里不再重写啦。请戳这里,查看笔记这个系列的笔记(alexnet、vggnet、googlenet、resnet)写的不是很详细,主要原因是,写笔记的时候,已经不是第一次看paper的时候啦,所以自己能理解的东西就没有再次记到笔记里,只是后来再次看一些博主对论文的解读时,把一些重要的知识点和不太理解的地方,写到笔记里,供自己回忆~
2017-06-08 22:20:40 1040 1
原创 googlenet笔记(Going Deeper with Convolutions)
paper下载地址 请戳这里之前学习时就做了笔记,懒得重写啦。请戳这里
2017-06-08 22:05:14 839
原创 vggnet笔记(Very Deep Convolutional Networks for Large-Scale Image Recognition)
之前学习这篇paper的时候在有道云笔记里就做了记录,懒得再写一遍啦(捂脸)我直接把这篇笔记分享到这里,请戳这里论文下载地址,请戳这里
2017-06-08 21:31:43 1110
原创 alexnet笔记(ImageNet Classification with Deep Convolutional Neural Networks)
笔记一定要在看过paper的基础上再学习,切记!!! 我建议paper看至少两遍吧,我都是这样做的,每一遍都有不同的收获~之前学习这篇paper的时候在有道云笔记里就做了笔记,不想再写一遍啦,直接附上笔记分享地址paper下载地址还是写了一遍,当然内容不大相同啦,建议都看看,加深印象哈哈摘要: 6千万参数,65万神经元 5个卷积层(其中一些层后面跟着pooling层)+ 3层全连接层(其中最后
2017-06-05 20:40:08 833
原创 Ubuntu16.04安装XGBoost简明教程
一、pip方式(未测试,看好多博主推荐的极简安装方式) 打开终端,输入:sudo pip install xgboost二、git方式(官网给的,亲测可以~)1、打开终端,用git指令克隆GitHub上的xgboost代码仓库,注意recursive参数的使用:git clone --recursive https://github.com/dmlc/xgboost2、建立共享库(此过程需要一点时
2017-06-02 11:02:50 3966
原创 Kaggle房价预测进阶版/bagging/boosting/AdaBoost/XGBoost
所谓进阶篇,无非是从模型的角度考虑,用了bagging、boosting(AdaBoost)、XGBoost三个牛X的模型,或者说是模型框架。 前期的数据处理阶段,即step1/2/3和 kaggle房价预测/Ridge/RandomForest/cross_validation 里面的step1/2/3没有任何不同。所以,我这里从step4开始写:Step 4: 建立模型 把数据集分回 训
2017-06-02 10:39:10 8292 2
原创 kaggle房价预测/Ridge/RandomForest/cross_validation
kaggle房价预测比赛官方地址实验平台:Windows10 64位 + sublime text 3 + anaconda 2 64位(Python2) + numpy + pandas + matplotlib + sklearnStep 0:引入相关的包# coding:utf-8 # 注意读取文件时,Windows系统的\\和Linux系统的/的区别import numpy as np im
2017-06-02 09:59:07 6493 1
allElectronicInformationGainOri.dot
2016-10-23
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人