深度学习
深度学习
持续努力
努力不辜负每一天. 享受编程和技术带来的快乐!
展开
-
NLP( 包括语音识别)
任务:NLU(理解),NLG(生成)应用:情感分析,聊天机器人(QA), 机器翻译,摘要生成,NLP 与语音识别、语音合成语音交互:进行对话交互时,机器往往需要完成“听懂——理解——回答”的闭环。这个闭环涉及到三类技术:语音识别(ASR)、自然语言处理(NLP)以及语音合成(TTS)。语音识别(Automatic Speech Recognition):简称ASR,是将声音转化成文字的过程,相当于耳朵。自然语言处理(Natural Language Processing):简称NLP,是理解和处原创 2021-04-18 14:55:27 · 3868 阅读 · 0 评论 -
repost 2013年DNNresearch
首页搜索门户 谷歌收购DNNresearch能获得什么? ...原创 2021-03-29 13:47:31 · 188 阅读 · 0 评论 -
Domain Adaptation
speech talk原创 2021-03-28 10:59:49 · 86 阅读 · 0 评论 -
模型压缩 方法汇总和梳理
转载于:https://blog.csdn.net/JNingWei/article/details/79218745 Introduction预训练后的深度神经网络模型往往存在着严重的 过参数化 问题,其中只有约5%的参数子集是真正有用的。为此,对模型进行 时间 和 空间 上的压缩,便谓之曰“模型压缩” 。模型压缩技术包括 前端压缩...转载 2018-11-05 15:39:56 · 4696 阅读 · 0 评论 -
调参技巧
深度学习应用 http://caffe...转载 2019-02-12 20:48:13 · 379 阅读 · 0 评论 -
调参技巧
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/h4565445654/article/details/70477979 </div> <div id="content_vie...转载 2019-02-12 20:39:42 · 339 阅读 · 0 评论 -
调参 参数设置
版权声明:本文为博主原创文章,转载必须注明是转载文章和原文超链接以及作者信息。 https://blog.csdn.net/qq_20259459/article/details/53943413 </div> <link rel="stylesheet" href="https://csdnimg....转载 2019-02-12 20:37:32 · 740 阅读 · 0 评论 -
调参 精华
我们在学习使用深度学习的过程中最最重要的就是调参,而调参的能力是需要长期积累才能形成的,因为每一种数据库和每一种网络结构都需要不同的参数以达到最佳效果。而寻找这个最佳的参数的过程就叫做调参。正文:一. 参数是指那些?参数其实是个比较泛化的称呼,因为它不仅仅包括一些数字的调整,它也包括了相关的网络结构的调整和一些函...转载 2019-02-12 20:34:51 · 372 阅读 · 0 评论 -
调参资料总结
调参是个头疼的事情,Yann LeCun、Yoshua Bengio和Geoffrey Hinton这些大牛为什么能够跳出各种牛逼的网络?下面一些推荐的书和文章:调参资料总结Neural Network: Trick of the TradePractical Recommendations for Gradient-based Tr...转载 2018-12-20 19:40:35 · 360 阅读 · 0 评论 -
PASCAL VOC CHALLENGE 2010年后计算AP的方法
图表参考http://blog.sina.com.cn/s/blog_9db078090102whzw.html 转载 2018-12-20 20:12:36 · 2210 阅读 · 1 评论 -
cnn调参经验 多动手 多总结
这个问题,其实我也是初学,水平有限,说说自己的感觉吧。在潜意识里,我始终觉得神经网络的东西和中医看病有种隐隐的联系,经验(自己的和别人的)、感觉这些谈不上有什么标准化的东西确是挺重要的东西。基于此,调试一个神经网络,就需要首先熟悉网络的每个层、每个参数的作用是什么,为什么要有这样的设置,通常researcher们都基于什么样的原则来设置?...转载 2019-02-12 20:54:19 · 447 阅读 · 0 评论 -
调参
经常会被问到你用深度学习训练模型时怎么样改善你的结果呢?然后每次都懵逼了,一是自己懂的不多,二是实验的不多,三是记性不行忘记了。所以写这篇博客,记录下别人以及自己的一些经验。Ilya Sutskever(Hinton的学生)讲述了有关深度学习的见解及实用建议:获取数据:确保要有高质量的输入/输出数据集,这个数据集要足够大、具有代表性...转载 2019-02-12 20:27:20 · 632 阅读 · 0 评论 -
Attention机制
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/mpk_no1/article/details/72862348 深度学习里的Attention model其实模拟的是人脑的注意力模型,举个例子来说,当我们观赏一幅画时,虽然我们可以看到整幅画的全貌...转载 2018-12-14 15:38:51 · 1197 阅读 · 0 评论 -
Attention机制
作者 | 张俊林责编 | 何永灿最近两年,注意力模型(Attention Model)被广泛使用在自然语言处理、图像识别及语音识别等各种不同类型的深度学习任务中,是深度学习技术中最值得关注与深入了解的核心技术之一。本文以机器翻译为例,深入浅出地介绍了深度学习中注意力机制的原理及关键计算机制,同时也抽象出其本质思想,并...转载 2018-12-14 15:00:00 · 235 阅读 · 0 评论 -
resnet_v2.py源码详解 resnet v1与resnet v2
https://zhuanlan.zhihu.com/p/39316040https://blog.csdn.net/chenyuping333/article/details/82344334转载 2019-04-30 19:23:39 · 1090 阅读 · 0 评论 -
详解深度学习之经典网络架构(六):ResNet 两代(ResNet v1和ResNet v2)
目录https://blog.csdn.net/chenyuping333/article/details/82344334一、ResNet v1二、ResNet v2一、ResNet v1一说起“深度学习”,自然就联想到它非常显著的特点“深、深、深”(重要的事说三遍...转载 2019-04-28 23:21:03 · 1301 阅读 · 0 评论 -
Dilated Residual Networks
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/zym19941119/article/details/81019201 </div> <div id="content_vie...转载 2019-01-19 14:22:53 · 484 阅读 · 0 评论 -
MobileNet v1
https://www.cnblogs.com/darkknightzh/p/9410540.html <div id="post_detail"><div class="post"> <h2> <a id="cb_post_title_url" href="https://www.cnblogs.com/darkknightzh/p/9...转载 2019-06-10 21:14:03 · 399 阅读 · 0 评论 -
depthwise separable conv的复杂度计算
https://www.cnblogs.com/hellcat/p/9726528.htmlhttps://www.cnblogs.com/adong7639/p/7918527.htmlhttps://www.jianshu.com/p/38dc74d12fcf?utm_source=oschina-app转载 2019-06-10 21:17:25 · 367 阅读 · 0 评论 -
深度可分离卷积的官方接口:slim.separable_conv2d == slim.separable_convolution2d ==depthwise conv+ pointwise conv
https://github.com/tensorflow/tensorflow/blob/master/tensorflow/contrib/layers/python/layers/layers.py 需要梯子原创 2019-06-10 21:21:36 · 4000 阅读 · 0 评论 -
卷积神经网络中十大拍案叫绝的操作
变形卷积核、可分离卷积?卷积神经网络中十大拍案叫绝的操作。Professor ho千亿个神经元的一份子/愿天下无BUG 关注他1,098 人赞了该文章CNN从2012年的AlexNet发展至今,科学家们发明出各种各样的CNN模型,一个比一个深,一个比一个准确,一个比一个轻量。我下面会对近几年一些具有变革性的工...转载 2018-12-14 12:34:40 · 251 阅读 · 0 评论