自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(16)
  • 收藏
  • 关注

原创 算法程序

算法程序 1、// 从小到大排序的函数模版template <class T> void Sort(T arr[], int size){ T temp; for (int i = 0; i != size - 1; ++i) for (int j = i + 1; j != size; ++j) if (arr[i] > arr[j]) { temp = arr[i]; arr[i] = arr[j]; arr[j] = t...

2020-08-03 23:29:37 720

转载 神经网络 专业术语解释(Batch Size, Iteration,Epoch)

转自:https://blog.csdn.net/tracylining/article/details/80781937            https://blog.csdn.net/qq_34886403/article/details/82558399 1)Batch Size(批尺寸):一次训练所选取的样本数。    Batch Size的大小影响模型的优化程度和速度,...

2019-01-10 16:23:24 1039 1

转载 【王晓刚】图像识别中的深度学习

转载来自  https://mp.weixin.qq.com/s?__biz=MzAwNDExMTQwNQ==&amp;mid=209152042&amp;idx=1&amp;sn=fa0053e66cad3d2f7b107479014d4478#rd 来源:《中国计算机学会通讯》第8期《专题》作者: 王晓刚 图像识别中的深度学习1、深度学习发展历史深...

2018-07-29 20:59:08 829

转载 Dropout与 Data Augmentation

1、Dropout    Dropout是通过修改神经网络本身来实现的,它是在训练网络时用的一种技巧。它的流程如下:         假设我们要训练上图这个网络,在训练开始时,我们随机地“删除”一半的隐层单元,视它们为不存在,得到如下的网络:           保持输入输出层不变,按照BP算法更新上图神经网络中的权值(虚线连接的单元不更新,因为它们被“临时删除”了)。    以上就是一次迭代的过...

2018-05-21 11:11:37 1112

原创 Matlab实现 最小二乘法( least square method ) - 多阶

一、实现效果         二、源码%========= 最小二乘法( least square method ) - 多阶 ==========% 矩阵形式,稍微修改便可拟合多阶曲线,不过可直接调用 polyfit% 原理参考:http://www.cnblogs.com/softlin/p/5965939.htmlclear;close all;%===============...

2018-05-15 22:55:40 3149

原创 Matlab实现 最小二乘法( least square method ) - 单特征

一、实现效果    二、源码%========= 最小二乘法( least square method ) - 单特征 ==========% 原理参考:http://www.cnblogs.com/softlin/p/5815531.htmlclear;close all; %=============== generate data ====================x =...

2018-05-15 22:50:19 2194

原创 Matlab 实现 卡尔曼滤波(Kalman filtering)

一、卡尔曼滤波器核心的5个公式            二、实现效果             三、源码%============== Kalman filtering ================clear;close all;%=============== generate data ====================orginal_data = (1:2:200);no...

2018-05-10 23:57:19 9860 2

原创 Matlab 实现 PCA

    PCA是最常用的一种降维方法,用一个超平面(直线的高维推广)对所有的样本进行恰当的表达。该超平面应具有的性质:    1)最近重构性:样本点到超平面的距离都足够近;    2)最大可分性:样本点在超平面的投影都尽可能分开                一、PCA 算法             二、实现效果三、源码%============== PCA ================ ...

2018-05-06 16:38:29 2948

原创 Matlab 实现 K_MEANS

一、实现效果二、源码%============== K_means ================clear;close all; total_width = 100;total_height = 100;pts_num = 100; %=============== generate data ====================n_class = 2; % set...

2018-04-19 19:21:05 432

转载 认识GAN

        GAN主要包括了两个部分,即生成器generator与判别器discriminator。生成器主要用来学习真实图像分布从而让自身生成的图像更加真实,以骗过判别器。判别器则需要对接收的图片进行真假判别。在整个过程中,生成器努力地让生成的图像更加真实,而判别器则努力地去识别出图像的真假,这个过程相当于一个二人博弈,随着时间的推移,生成器和判别器在不断地进行对抗,最终两个网络达到了一个动...

2018-04-10 09:02:16 302

原创 机器学习常用算法

1、SVM详见  https://www.youtube.com/watch?v=1NxnPkZM9bc2、K-means详见  https://www.youtube.com/watch?v=_aWzGGNrcic3、其他参考  https://www.leiphone.com/news/201707/nL57wR7ZtbfsRgDR.html

2018-04-08 17:14:21 235

转载 softmax、池化、padding

1、softmax        假如有两个数,a和b,并且a&gt;b,如果取max,那么就直接取a,没有第二种可能        但有的时候我不想这样,因为这样会造成分值小的那个饥饿。所以我希望分值大的那一项经常取到,分值小的那一项也偶尔可以取到,那么我用softmax就可以了。现在还是a和b,a&gt;b,如果我们取按照softmax来计算取a和b的概率,那a的softmax值大于b的,所以...

2018-04-08 10:55:56 863

转载 梯度下降法的三种形式BGD、SGD以及MBGD

原文链接:http://www.cnblogs.com/maybe2030/ 阅读目录1. 批量梯度下降法BGD2. 随机梯度下降法SGD3. 小批量梯度下降法MBGD4. 总结  在应用机器学习算法时,我们通常采用梯度下降法来对采用的算法进行训练。其实,常用的梯度下降法还具体包含有三种不同的形式,它们也各自有着不同的优缺点。1. 批量梯度下降法BGD   批量梯度下降法(Batch Gradie...

2018-04-07 23:45:05 634

转载 谷歌大神带你十分钟看懂TensorFlow

文/数据侠GasparovicTensorFlow 是世界上最受欢迎的开源机器学习框架,它具有快速、灵活并适合产品级大规模应用等特点,让每个开发者和研究者都能方便地使用人工智能来解决多样化的挑战。今天DT君给大家推荐的这个视频(及文字实录),是2017年谷歌开发者大会欧洲站上,谷歌研究院工程师Andrew Gasparovic所做演讲。他用深入浅出、妙趣横生的方式,给大家分享了TensorFlow...

2018-03-29 16:31:25 1955

转载 卷积神经网络

BackGround人眼在识别图像时,往往从局部到全局局部与局部之间联系往往不太紧密我们不需要神经网络中的每个结点都掌握全局的知识,因此可以从这里减少需要学习的参数数量Weight share但这样参数其实还是挺多的,所以有了另一种方法:权值共享取图片的一小块,在上面做神经网络分析,会得到一些预测将切片做好的神经网络作用于图片的每个区域,得到一系列输出可以增加切片个数提取更多特征在这个过程中,梯度...

2018-03-24 15:38:45 306

转载 四大经典CNN网络技术原理

AI科技评论按:2017年2月28日下午3点,《TensorFlow实战》作者黄文坚做客【硬创公开课】,为我们讲解了关于四大经典CNN网络:AlexNet、VGGNet、Google Inception Net和ResNet的基本原理。本次公开课内容主要节选自作者《TensorFlow实战》第6章,关于这四大CNN网络实现方式可参考作者新书《TensorFlow实战》,其中有这几种网络的详细实现步...

2018-03-24 10:22:44 5496

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除