机器学习
文章平均质量分 51
Maxwellhang
这个作者很懒,什么都没留下…
展开
-
caffe C++接口前馈调用
#ifndef CPU_ONLY#define CPU_ONLY#endif#include <string>#include <vector>#include <iostream>#include "caffe/caffe.hpp"#include "caffe/layers/input_layer.hpp"#include "caffe/layers/conv_layer.hpp"#include "caffe/net.hpp"#include原创 2021-02-21 17:53:19 · 111 阅读 · 0 评论 -
采坑lightGBM的windows安装gpu版本
踩坑lightGBM的windows安装gpu版本 最近有个念头想搞一波boost,有不想折腾Linux,在安装了windows下的gpu版本xgboost之后,听闻传说中的倚天剑lightGBM神速无敌,为了不可惜一个1060ti的gpu,强行在windows上安装。 然而,就像预想的一样,想不采坑,那是很困难的。按照官方的步骤,安装了cuda和boost以及cmake之后,...原创 2018-03-30 20:54:13 · 6105 阅读 · 5 评论 -
记录用tensorflow 实现Cosin_Cross_templateMatch层
#-*- coding:utf-8 -*-import tensorflow as tfimport cv2import numpy as npimport matplotlib.pyplot as pltfrom Integral_image import *## read img #####tm_path = '/home/wdh/pytorch-CycleGAN-and-pix2原创 2017-11-25 22:03:56 · 290 阅读 · 0 评论 -
记录使用tensorflow实现大卷积核卷积的代码
#-*- coding:utf-8 -*-import tensorflow as tfimport cv2import numpy as npimport matplotlib.pyplot as plt## read img #####tm_path = '/home/wdh/pytorch-CycleGAN-and-pix2pix1_run/datasets/maps_0/test原创 2017-11-24 16:11:57 · 823 阅读 · 0 评论 -
记录快速傅里叶变换计算相关面并附tensorflow相应层代码
Fast Template Matching,J. P. Lewis#-*- coding:utf-8 -*-import numpy as npimport matplotlib.pyplot as pltimport cv2from Integral_image import *## read img #####tm_path = '/home/wdh/pytorch-CycleGA原创 2017-11-27 16:20:55 · 1283 阅读 · 1 评论 -
ICA特征脸试验
ICA特征脸和PCA的区别 1)ICA分析的是盲源独立信号2)ICA是把每一幅图作为一个特征,把每个像素点作为一个观测值,即时间t。特征脸是所有图像中统计独立的脸,各个特征脸线性加权可以重构脸。而PCA是把每一幅图作为一个观测值,而把像素点作为一个特征。特征脸是掩模系数,特征脸点乘原数据得到特征值。各特征脸之间没有重构关系。原创 2017-09-16 15:53:54 · 625 阅读 · 0 评论 -
PCA原理及特征脸
PCA 推导PCA的matlab实现和特征脸这是之前的文章,一直没有誊过来。1. PCA 推导PCA是主成分分析,推导其实很简单。 假设有N维数据M个,组成N*M的矩阵X,希望投射到另一个空间使得沿着第一主轴的维度方差最大。设投影到第一主轴的向量为u。假设X已经去中心化,有 cov=XXTcov=XX^T 为协方差矩阵。 目标函数为: max uTXXTus.t. uTu=1max原创 2017-09-16 15:37:02 · 7525 阅读 · 2 评论 -
C++徒手撸多层感知机(MLP)训练MNIST数据集
模型建立1 基本单位层11 输入层12 损失层13 激活层14 全连接层2 网络3 优化方法代码构建1 层11 输入层12 损失层13 激活层14 全连接层2 网络3 优化方法试验的构建1 解析MNIST2 试验流程3 试验效果不足和展望1. 模型建立1.1 基本单位–层神经网络可以抽象为层:每个层的作用是把自己后面那一层的数据,通过前向计算到自己层的数据中,原创 2017-09-05 11:44:36 · 2053 阅读 · 1 评论 -
C_SVC推导(经典的SVM模型)
C_SVC推导1. 模型假设假设现在有训练数据XX,是m∗nm*n的矩阵,mm是样本数量,nn是样本向量的维数,记样本中第ii个样本为x(i)x^{(i)},标签为y(i)y^{(i)},y∈{+1,−1}y\in\{+1,-1\} 现在考虑二分类问题,样本的标签为y⃗ \vec{y},是m∗1m*1的向量。 目的,找到一个最优的相关面,以方程w⃗ ∗x⃗ +b=0\vec{w}*\vec{x}原创 2017-03-21 15:57:36 · 14468 阅读 · 3 评论 -
初窥keras
代码来源于如何用卷积神经网络CNN识别手写数字集? 加了一点可视化的输出,可视化需要安装pydot 和 graphviz ,可以命令行输入 pip install pydot-ng & brew install graphviz 如果失败,在ubuntu环境下可以输入 sudo apt install graphviz 如 上代码:# Larger CNN for the MNIST Da原创 2017-01-07 17:39:04 · 466 阅读 · 0 评论 -
梯度下降法和误差反向传播推导
梯度下降法原理梯度下降法的示意图如下 前提:假设x⃗ 1×m\vec x_{1\times m}和y⃗ 1×n\vec y_{1\times n}的向量有一个函数关系y⃗ =f(x⃗ |θ)\vec y=f(\vec x|\theta),其中θ\theta是一个ll维的参数向量,为例拟合初函数ff. 现有,kk组观测值,得到训练集矩阵Xk×mX_{k\times m}和Yk×nY_{k\time原创 2017-01-06 09:54:37 · 5943 阅读 · 0 评论 -
朴素贝叶斯方法推导
朴素贝叶斯条件XX 为n维向量空间,YY为类别标签,假设有k个类别,每一维XX有不同的取值公式推导假设在可以观察到的空间(训练集)中,可以观察P(X|Y)P(X|Y)即每个YY对应的类别取值中XX的概率分布。比如在Y=ciY=c_i类中,X=xiX=x_i的概率是0.04。 有: P(X=xi|Y=yi)P(Y=yi)=P(X=xi,Y=yi)P(X=x_i|Y=y_i)P(Y=y_i)=原创 2016-12-23 16:58:48 · 553 阅读 · 0 评论 -
线性最小二乘回归和核岭回归
一般线性回归最小二乘法推导原理,求平方误差最小 假设有k个观测值XiX_i,YiY_i,有关系Y=f(X|θ)Y=f(X|\theta),其中θ=(θ1,θ2,...,θl)\theta=(\theta_1,\theta_2,...,\theta_l) 平方误差和为: Λ=12∑i=1k[f(Xi|θ)−Yi]2\begin{eqnarray}\Lambda&=&\dfrac{1}{2}\su原创 2017-01-04 22:29:16 · 5480 阅读 · 2 评论