深度学习
wind_liang
这个作者很懒,什么都没留下…
展开
-
深度学习零基础入门一:线性回归
Linear Regression 美 [ˈlɪniər] [rɪˈɡrɛʃən] : 线性回归Loss funcition 美 [lɔs] [ˈfʌŋkʃən] : 损失函数Gradient Descent 美[ˈɡrediənt] [dɪˈsɛnt] : 梯度下降Model 美 [ˈmɑdl] : 模型本文是对李宏毅教授课程的笔记加上自己的理解重新组织,如有原创 2018-01-22 18:34:30 · 1984 阅读 · 0 评论 -
零基础入门深度学习三:梯度下降优化
tuning 美 ['tjunɪŋ] : 调整learning rate 美[ˈlɚnɪŋ ret] : 学习速率stochastic 美 [stə'kæstɪk]:随机的batch 美 [bætʃ] : 一批dimension 美 [dɪˈmɛnʃən, daɪ-] : 维度mean 美 [min] : 平均数standard deviation美原创 2018-02-02 15:15:40 · 361 阅读 · 0 评论 -
深度学习零基础入门零
毕业设计是和深度学习相关,之前零零碎碎的学习了一些相关知识,这里开个系列文章总结一些,以免又看了忘,再看又不方便。深度学习目前可以说是非常火了,而深度学习是机器学习的一个分支,机器学习也只是人工智能的一个分支。我是跟着李宏毅教授的上课视频一起学,这是地址 http://speech.ee.ntu.edu.tw/~tlkagk/courses.html ,我看的是里边的原创 2018-01-20 22:16:45 · 846 阅读 · 0 评论 -
零基础入门深度学习二:梯度下降
Gradient Descent 美[ˈɡrediənt] [dɪˈsɛnt] : 梯度下降Loss funcition 美 [lɔs] [ˈfʌŋkʃən] : 损失函数Local Minima 美 [ˈloʊkl] ['mɪnɪmə] : 局部最小值Taylor series 美[ˈtelɚ] [ˈsɪriz] : 泰勒级数本文是对李宏毅教授课程的笔记加上自原创 2018-01-30 15:37:01 · 317 阅读 · 0 评论 -
零基础入门深度学习五:逻辑回归
Sigmoid 美 ['sɪgmɔɪd] : S 形的Discriminative 美 [dɪ'skrɪməˌneɪtɪv] : 判别本文是对李宏毅教授课程的笔记加上自己的理解重新组织,如有错误,感谢指出。视频及 PPT 原教程:https://pan.baidu.com/s/1brbb6rX 密码:ty1r接着上篇的生成模型,我们进行下公式的变形,见证奇迹的发生!问题的关键是求出 P( x |...原创 2018-02-12 19:55:52 · 350 阅读 · 0 评论 -
零基础入门深度学习四:生成模型
Generative 美 [ˈdʒɛnərətɪv, -əˌre-] : 能生产的,有生产力的; 生殖的; Model 美 [ˈmɑdl] : 模型likelihood [ˈlaɪkliˌhʊd] : 似然函数Maximum 美 [ˈmæksəməm] : 最大值features 美 ['fitʃəz] : 特征vector 美[ˈvɛktɚ] : 向量原创 2018-02-07 18:57:47 · 1231 阅读 · 0 评论 -
零基础入门深度学习六:深度学习基本概念
本文是对李宏毅教授课程的笔记加上自己的理解重新组织,如有错误,感谢指出。视频及 PPT 原教程:https://pan.baidu.com/s/1dAFnki 密码:5rsd还没有看过前几篇机器学习理论的童鞋,推荐先把前几篇看完。这里接着上篇的 Logistic Regression 来讲。Limitation of Logistic Regression看这样一个二元分类问题,假设我们有四个数据...原创 2018-03-13 10:05:43 · 505 阅读 · 0 评论