人工智能
不吐桔子皮
这个作者很懒,什么都没留下…
展开
-
机器学习(3)之优化器(梯度下降方法(Gradient Descent))用来调整学习率(learning rate)
1.Tuning your learning rates如果每次调的太大,loss变化就很快:调的太小,loss变化的太慢,这样都找不到最小的loss。Adaptive Learning Rates原创 2020-06-12 23:58:55 · 1341 阅读 · 0 评论 -
论文笔记:(字符级卷积用于文本分类)《Character-level Convolutional Networks for Text Classification》
1.论文背景在这篇论文之前,几乎所有的文本分类技术都是基于单词的,在这篇论文中,作者把字符级的文本当做原始的信号输入。这篇论文,仅仅使用字符,运用在卷积神经网络上。作者发现,当训练大规模数据集的时候,深度卷积神经网络并不需要单词层面的意义(包括语言的语法和语义)。这是非常激动人心的工程简化,因为不管什么语言,它都是由字符组成的,因此这对于构建跨语言的系统至关重要。还有一个好处,对于异常的字符组成(比如拼写错误)和表情符,该模型依然能够应付。2.论文动机以字符作为输入和以词作为输入相比,词向量的维度更原创 2020-06-08 09:59:31 · 872 阅读 · 1 评论 -
深度学习模型之LSTM(都能理解的LSTM原理详解)
一、循环神经网络(Recurrent Neural Network,RNN)循环神经网络(Recurrent Neural Network,RNN)相比一般的神经网络来说,他能够处理序列变化的数据。比如某个单词的意思会因为上文提到的内容不同而有不同的含义,那么RNN就能解决这类问题。来看一个简单的例子,对于RNN来说,对于输入的一句话,它的每一个单词输入完已有会存到一个记忆单元里面(图中蓝色的方框)参与下一个单词的输入,需要注意的是这是同一个神经网络,只不过是在三个不同的时间点被使用了三次。(注:以下图原创 2020-06-09 17:31:56 · 10594 阅读 · 0 评论 -
机器学习(2)之误差来源,以及怎么导致过拟合和欠拟合
主要根据李宏毅教授的视频做的笔记和总结。视频讲的很通俗易懂,主要是记录博客笔记,方便自己以后查找复习,感兴趣的小伙伴可以参考,可以留言相互交流。误差来源于bias和variance,即偏差和方差。bias表示瞄的准,variance表示打的稳。模型越简单,variance小,bias大;模型越复杂variance大,bias小因为模型简单的话,取得区域(space)就比较小,所以导致离目标远,bias就比较大,model复杂同样的道理,如下图:模型越复杂,瞄的越准,bias越来越小,但是原创 2020-06-08 16:24:49 · 442 阅读 · 0 评论 -
机器学习(1)之线性回归实现过程(Linear regression)和过拟合、正则化
线性回归实现过程训练数据:y = b + w * x先收集一系列的数据,(x,y)的值。通过损失函数求w和b的值:(找到的值需要使loss函数的值最小)梯度下降法找w和b使得loss函数的值最小,这里求导后前面加负号是为了让导数和w的值同增同减。对于w和b两个参数,求偏导即可。梯度下降法求偏导结果:这样就可以得到b和w的值,也就有了y = b + w * x,把测试集的数据代入测试即可。那么对于一些更复杂的问题,可以考虑更复杂的模型,比如:y = b + w1 * x + w原创 2020-06-07 23:11:11 · 493 阅读 · 0 评论 -
什么是机器学习(做一些通俗易懂的介绍)
这里是看了李宏毅教授深度学习视频的一些想法和总结。什么是机器学习?机器学习就是自动找函数。比如语音识别,输入的就是声音,输出文字,但是声音这个函数很复杂,没法用一个函数表示。这样的例子还有很多,比如“阿尔法狗”,输入的是棋盘的棋子,输出的是下一步的落子。也没法直接用一个函数去表示出来。还有比如下图的一些例子。看到这里我们就明白,其实机器学习就是为了找出你需要的这个函数。怎么找这个函数?那么,怎么告诉机器你要找什么样的函数呢?这里就需要提供给机器有标签的数据(labeled data)去学习,原创 2020-06-07 21:25:40 · 786 阅读 · 0 评论