Tiger_v
码龄7年
关注
提问 私信
  • 博客:32,839
    32,839
    总访问量
  • 7
    原创
  • 2,258,388
    排名
  • 12
    粉丝
  • 0
    铁粉
IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:上海市
  • 加入CSDN时间: 2018-03-23
博客简介:

Tiger_v的博客

查看详细资料
个人成就
  • 获得12次点赞
  • 内容获得3次评论
  • 获得33次收藏
创作历程
  • 1篇
    2020年
  • 1篇
    2019年
  • 14篇
    2018年
成就勋章
TA的专栏
  • Old data
    1篇
创作活动更多

新星杯·14天创作挑战营·第9期

这是一个以写作博客为目的的创作活动,旨在鼓励大学生博主们挖掘自己的创作潜能,展现自己的写作才华。如果你是一位热爱写作的、想要展现自己创作才华的小伙伴,那么,快来参加吧!我们一起发掘写作的魅力,书写出属于我们的故事。我们诚挚邀请你们参加为期14天的创作挑战赛! 注: 1、参赛者可以进入活动群进行交流、分享创作心得,互相鼓励与支持(开卷),答疑及活动群请见 https://bbs.csdn.net/topics/619626357 2、文章质量分查询:https://www.csdn.net/qc

475人参与 去参加
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

算法程序

算法程序 1、// 从小到大排序的函数模版template <class T> void Sort(T arr[], int size){ T temp; for (int i = 0; i != size - 1; ++i) for (int j = i + 1; j != size; ++j) if (arr[i] > arr[j]) { temp = arr[i]; arr[i] = arr[j]; arr[j] = t...
原创
发布博客 2020.08.03 ·
747 阅读 ·
0 点赞 ·
0 评论 ·
3 收藏

神经网络 专业术语解释(Batch Size, Iteration,Epoch)

转自:https://blog.csdn.net/tracylining/article/details/80781937            https://blog.csdn.net/qq_34886403/article/details/82558399 1)Batch Size(批尺寸):一次训练所选取的样本数。    Batch Size的大小影响模型的优化程度和速度,...
转载
发布博客 2019.01.10 ·
1099 阅读 ·
1 点赞 ·
1 评论 ·
4 收藏

【王晓刚】图像识别中的深度学习

转载来自  https://mp.weixin.qq.com/s?__biz=MzAwNDExMTQwNQ==&amp;mid=209152042&amp;idx=1&amp;sn=fa0053e66cad3d2f7b107479014d4478#rd 来源:《中国计算机学会通讯》第8期《专题》作者: 王晓刚 图像识别中的深度学习1、深度学习发展历史深...
转载
发布博客 2018.07.29 ·
877 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

Dropout与 Data Augmentation

1、Dropout    Dropout是通过修改神经网络本身来实现的,它是在训练网络时用的一种技巧。它的流程如下:         假设我们要训练上图这个网络,在训练开始时,我们随机地“删除”一半的隐层单元,视它们为不存在,得到如下的网络:           保持输入输出层不变,按照BP算法更新上图神经网络中的权值(虚线连接的单元不更新,因为它们被“临时删除”了)。    以上就是一次迭代的过...
转载
发布博客 2018.05.21 ·
1157 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

Matlab实现 最小二乘法( least square method ) - 多阶

一、实现效果         二、源码%========= 最小二乘法( least square method ) - 多阶 ==========% 矩阵形式,稍微修改便可拟合多阶曲线,不过可直接调用 polyfit% 原理参考:http://www.cnblogs.com/softlin/p/5965939.htmlclear;close all;%===============...
原创
发布博客 2018.05.15 ·
3232 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

Matlab实现 最小二乘法( least square method ) - 单特征

一、实现效果    二、源码%========= 最小二乘法( least square method ) - 单特征 ==========% 原理参考:http://www.cnblogs.com/softlin/p/5815531.htmlclear;close all; %=============== generate data ====================x =...
原创
发布博客 2018.05.15 ·
2256 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

Matlab 实现 卡尔曼滤波(Kalman filtering)

一、卡尔曼滤波器核心的5个公式            二、实现效果             三、源码%============== Kalman filtering ================clear;close all;%=============== generate data ====================orginal_data = (1:2:200);no...
原创
发布博客 2018.05.10 ·
9988 阅读 ·
3 点赞 ·
0 评论 ·
24 收藏

Matlab 实现 PCA

    PCA是最常用的一种降维方法,用一个超平面(直线的高维推广)对所有的样本进行恰当的表达。该超平面应具有的性质:    1)最近重构性:样本点到超平面的距离都足够近;    2)最大可分性:样本点在超平面的投影都尽可能分开                一、PCA 算法             二、实现效果三、源码%============== PCA ================ ...
原创
发布博客 2018.05.06 ·
2983 阅读 ·
0 点赞 ·
0 评论 ·
9 收藏

Matlab 实现 K_MEANS

一、实现效果二、源码%============== K_means ================clear;close all; total_width = 100;total_height = 100;pts_num = 100; %=============== generate data ====================n_class = 2; % set...
原创
发布博客 2018.04.19 ·
445 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

认识GAN

        GAN主要包括了两个部分,即生成器generator与判别器discriminator。生成器主要用来学习真实图像分布从而让自身生成的图像更加真实,以骗过判别器。判别器则需要对接收的图片进行真假判别。在整个过程中,生成器努力地让生成的图像更加真实,而判别器则努力地去识别出图像的真假,这个过程相当于一个二人博弈,随着时间的推移,生成器和判别器在不断地进行对抗,最终两个网络达到了一个动...
转载
发布博客 2018.04.10 ·
328 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

机器学习常用算法

1、SVM详见  https://www.youtube.com/watch?v=1NxnPkZM9bc2、K-means详见  https://www.youtube.com/watch?v=_aWzGGNrcic3、其他参考  https://www.leiphone.com/news/201707/nL57wR7ZtbfsRgDR.html
原创
发布博客 2018.04.08 ·
263 阅读 ·
1 点赞 ·
0 评论 ·
0 收藏

softmax、池化、padding

1、softmax        假如有两个数,a和b,并且a&gt;b,如果取max,那么就直接取a,没有第二种可能        但有的时候我不想这样,因为这样会造成分值小的那个饥饿。所以我希望分值大的那一项经常取到,分值小的那一项也偶尔可以取到,那么我用softmax就可以了。现在还是a和b,a&gt;b,如果我们取按照softmax来计算取a和b的概率,那a的softmax值大于b的,所以...
转载
发布博客 2018.04.08 ·
899 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

梯度下降法的三种形式BGD、SGD以及MBGD

原文链接:http://www.cnblogs.com/maybe2030/ 阅读目录1. 批量梯度下降法BGD2. 随机梯度下降法SGD3. 小批量梯度下降法MBGD4. 总结  在应用机器学习算法时,我们通常采用梯度下降法来对采用的算法进行训练。其实,常用的梯度下降法还具体包含有三种不同的形式,它们也各自有着不同的优缺点。1. 批量梯度下降法BGD   批量梯度下降法(Batch Gradie...
转载
发布博客 2018.04.07 ·
674 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

谷歌大神带你十分钟看懂TensorFlow

文/数据侠GasparovicTensorFlow 是世界上最受欢迎的开源机器学习框架,它具有快速、灵活并适合产品级大规模应用等特点,让每个开发者和研究者都能方便地使用人工智能来解决多样化的挑战。今天DT君给大家推荐的这个视频(及文字实录),是2017年谷歌开发者大会欧洲站上,谷歌研究院工程师Andrew Gasparovic所做演讲。他用深入浅出、妙趣横生的方式,给大家分享了TensorFlow...
转载
发布博客 2018.03.29 ·
1991 阅读 ·
4 点赞 ·
0 评论 ·
9 收藏

卷积神经网络

BackGround人眼在识别图像时,往往从局部到全局局部与局部之间联系往往不太紧密我们不需要神经网络中的每个结点都掌握全局的知识,因此可以从这里减少需要学习的参数数量Weight share但这样参数其实还是挺多的,所以有了另一种方法:权值共享取图片的一小块,在上面做神经网络分析,会得到一些预测将切片做好的神经网络作用于图片的每个区域,得到一系列输出可以增加切片个数提取更多特征在这个过程中,梯度...
转载
发布博客 2018.03.24 ·
324 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

四大经典CNN网络技术原理

AI科技评论按:2017年2月28日下午3点,《TensorFlow实战》作者黄文坚做客【硬创公开课】,为我们讲解了关于四大经典CNN网络:AlexNet、VGGNet、Google Inception Net和ResNet的基本原理。本次公开课内容主要节选自作者《TensorFlow实战》第6章,关于这四大CNN网络实现方式可参考作者新书《TensorFlow实战》,其中有这几种网络的详细实现步...
转载
发布博客 2018.03.24 ·
5544 阅读 ·
3 点赞 ·
0 评论 ·
20 收藏
加载更多