![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
LeeOhe丶
这个作者很懒,什么都没留下…
展开
-
视频时序检测——video temporal detection
视频分割问题可以看作 :参考https://tianchi.aliyun.com/course/video?liveId=41180事件event、activity、action视频事件检测+动作识别原创 2020-07-30 22:26:55 · 702 阅读 · 0 评论 -
tensorflow训练越来越慢的解决办法——重置/清空计算图
在tensorflow训练中,每组训练速度越来越慢,时长越来越高、从运行日志中可以看到:每个视频花费时间从9s到165s、到207s。这样每组数据有81个视频、导致每组数据训练时长从12分钟变到3小时变到4小时(一开始只需要十几分钟)~~虽然还差几组数据就训练完了,但这速度这简直不能忍#·····································运行日志1···········...原创 2019-12-23 21:46:23 · 5082 阅读 · 0 评论 -
设置每个GPU内存占用率,
tensorflow默认占用全部gpu内存,这样会出错设置每个GPU内存占用率70%gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction=0.7)config=tf.ConfigProto(gpu_options=gpu_options)sess = tf.Session(config=config)ps:具体...原创 2019-12-18 11:17:37 · 852 阅读 · 0 评论 -
残差网络为什么有用?
一般来说,神经网络的深度不应该太深,否则会出现梯度消失和梯度爆炸的情况。loss值在减小到一定程度后,随着训练的增加甚至会反弹。而残差网络的深度可以很深,很容易学得恒等函数,让loss很难反弹。一个网络深度越深,它在训练集上训练的效率就会有所减弱,这也是有时候我们不希望加深网络的原因。而事实并非如此,至少在训练 ResNets网络时,并非完全如此,举个例子:设有一个大型神经网...转载 2019-11-15 20:22:17 · 5630 阅读 · 0 评论 -
吴恩达老师深度学习课程完整笔记
为了方便学习深度学习课程,转载一个吴恩达老师的一个深度学习笔记,转载的网站是下面这个https://blog.csdn.net/red_stone1/article/details/80207815从去年8月份开始,AI界大IP吴恩达在coursera上开设了由5们课组成的深度学习专项课程,掀起了一股人工智能深度学习热潮。这里附上deeplearning.ai的官网:deeplea...转载 2019-11-14 13:28:09 · 444 阅读 · 1 评论 -
动态时间规整-DTW算法
前言动态时间规整(Dynamic Time Warping,DTW)是孤立词识别的早期技术,梳理一下,主要包括: 1)孤立词识别操作步骤; 2)DTW原理;内容基本就是两个博文的整合,最后一并给出链接。一、孤立词识别操作步骤基本原理:基本操作是预加重、分帧,端点检测技术又叫有话帧检测(Voice activity detection,VAD)技术。特征提取...转载 2019-11-12 21:06:41 · 821 阅读 · 0 评论 -
神经网络为什么可以逼近任何一个函数? 为什么激活函数要用非线性函数?
▍什么是激活函数在神经元中,输入的inputs通过加权求和,然后被作用了一个函数,这个函数就是激活函数Activation Function。激活函数在神经网络中的位置如图所示:▍为什么要用非线性函数要解释这个问题,可以反过来思考一下,为什么激活函数不能使用线性函数。如果使用线性函数,每一层输出都是上层输入的线性函数,无论神经网络有多少层,输出都是输入的线性组合。加深神经网络的...转载 2019-10-26 16:02:17 · 3674 阅读 · 2 评论 -
神经网络学习率
在吴恩达作业,第一课第二周中,有这样一个例子Interpretation:Different learning rates give different costs and thus different predictions results. If the learning rate is too large (0.01), the cost may oscillate ...原创 2019-10-26 10:41:25 · 1111 阅读 · 0 评论 -
李宏毅深度学习(一):深度学习模型的基本结构
李宏毅深度学习(一):深度学习模型的基本结构转自简书的一位大神博主:文哥的学习日记原系列博客地址:https://www.jianshu.com/nb/13240984视频地址:https://www.bilibili.com/video/av9770302/from=search&seid=905421046757750252ppt地址:http://speech.ee.n...转载 2019-10-21 19:07:06 · 1123 阅读 · 0 评论 -
Tensorflow入门笔记——五、tensorboard基本操作
使用命令:tensorboard --logdir=C:\Users\vip_g\logsC:\Users\vip_g\logs这个路径可以任意定义的打开方式:用浏览器,输入地址localhost:6006Tensorboard 操作tf.summary.scalar – 损失函数或者学习率曲线tf.summary.image – 图像输出tf.s...原创 2019-10-18 20:58:47 · 152 阅读 · 0 评论 -
Tensorflow入门笔记——四、人工神经网络
其中,隐藏层的数目一般是输入层节点个书的1/5~1/10(经验)原创 2019-10-13 21:40:31 · 165 阅读 · 0 评论 -
Tensorflow入门笔记——三、梯度下降算法
3.1 反向传播算法(Back_Propogation)简称BP输入层——隐藏层——输出层,如图:计算误差E,不断跟新权重w1-wn,来减小误差E原创 2019-10-10 10:46:57 · 103 阅读 · 0 评论 -
Tensorflow入门笔记——二、Feed和Fetch
2.1 Feed喂数据,Feach从tensorflow中取出数据2.2 Feed示例代码:可以在session中执行操作时在把数据的值传入。(Feed的数据的值通过字典的形式传入)import tensorflow as tf#Feed#创建占位符input1=tf.placeholder(tf.float32)input2=tf.placeholder(t...原创 2019-10-10 09:47:53 · 163 阅读 · 0 评论 -
Tensorflow入门笔记——一、常量与变量 操作数与占位符
开发者峰会:TensorflowLite中文官网:https://tensorflow.google.cn/中文社区:http://www.tensorfly.cn/一、常量与变量 import tensorflow as tfimport numpy as npprint(tf.__version__)#变量定义的几种方法def var_demo(): ...原创 2019-10-09 21:51:48 · 159 阅读 · 0 评论