到了教室,叶开辛缩到了最后一排的角落里,这是他最熟悉的位置。
“咦?你换电脑了?这是什么机子啊?”
“啊?”叶开辛也懵圈了,这该怎么说呢,魔法书现在还没有出呢。
“呃……我也不知道唉,家里给我寄过来了一台,说是我哥正好要换新电脑,旧的电脑不用了。”
“哦哦,看着还不错啊,和新的一样。”
上课铃响了,叶开辛顿时感觉头脑开始疲惫起来。
不行,这样下去又要睡着了,叶开辛想着之前的豪言壮志,思索如何能摆脱困意。
反正现在时间还充裕着,不如查查我这毕设咋做吧。嗯……我这个毕设要用到什么来着,哦,听老师说好像要用到计算机视觉和深度学习什么的?
想到这里,叶开辛打开了浏览器,打开了知网,搜了监控、深度学习等关键字,发现更困了。算了,还是先从概念开始吧。
叶开辛叹了一口气。在必应上打了深度学习四个字,然后,打开了深度学习的百度百科。
嗯,深度学习是机器学习的一个新的研究方向。主要分为三类,不过,这三类都是啥啊,怎么看不懂啊。虽然不知所云,不过叶开辛发现了一个特点,就是文中一直提到了神经网络这四个字。
好的,看来这是一个突破口啊,于是,叶开辛果断必应了神经网络,这一刻他感觉自己热血激昂,好像中二病犯了。
浏览器加载的飞快,叶开辛如狼似虎地在屏幕上扫射着,他要找一个比百度百科更高端一点的资料,于是,他打开了百度百科下面的一个网页。
这是一篇博客,名字叫《神经网络浅讲:从神经元到深度学习》。浅讲?哎呦不错哟。叶开辛看到浅讲这两个字的时候心里开心不已。看到“本文对阅读没有一定的前提要求”,叶开辛更开心了。这简直是为我量身定做啊。
叶开辛往下看去,发现这篇文章还挺长。哟西,这节课把他给解决掉!
这篇章的开头是前言,大致讲了经典的神经网络有三层,即输入层、隐藏层和输出层,还有附加的两幅图。嗯,讲的还是挺清晰明了的。叶开辛点了点头,绞尽脑汁之后,他提炼出了两个结论:1.神经网络分为上下型和左右型;2.这些个圈圈之间的带箭头的线十分重要,代表着权重。
接下来文章讲了神经元。等等,神经元?!叶开辛一下子回到了高中被生物统治的恐惧,每次生物课几乎都能让他深度睡眠。他还回忆起了高考前模拟考试生物六个选择题36分全错的惨痛经历……
“一个神经元通常具有多个树突……”叶开辛明白了神经网络中的神经元模型可以类比到人的神经元中。输入类比为树突,输出类比为轴突。好吧,对于生物为阴影的叶开辛来说这些形象生动的比喻已经不再形象,于是这部分他就匆匆略过,接着往下看去。
接下来讲的是单层神经网络。叶开辛看到神经网络在1958年之后就掀起过一阵浪潮。呵,当时的人可真时髦。在叶开辛的印象中,这一次的人工智能大讨论还是在阿尔法狗的横空出世之后。
在翻来覆去看了这一节之后,叶开辛发现了重点是神经网络中的运算可以转化为矩阵运算,虽然叶开辛线性代数课上没少睡觉,但是他知道很多东西转化为矩阵运算之后就会有重大突破。
不过看了许久,叶开辛发现有几个点自己没办法机智的想明白:1.什么是逻辑回归模型;2.什么是决策分界;3.文中说感知器对异或分类问题很难解决,增加到两层计算量会过大。这都是什么玩意啊,不过这些问题并没有让叶开辛烦恼多久,秉着囫囵吞枣的阅读精神没想多久他就跳过去往下看啦。
没想到,这一囫囵就囫囵到底了……不管怎么说,叶开辛心想,总算是硬着头皮看完了,虽然不明白的很多,但他得到了很重要的情报,就是后面的插图和前面的都差不多,就是中间多了好几层,嗯,反正结构都差不多,随着时间的推移,我一定能慢慢明白的!
想到这里,叶开辛忘我地美美伸了个懒腰,舒展完之后,发现台上老师冰冷的目光向他袭来……
闲话瞎扯脑洞毕设2
最新推荐文章于 2024-06-28 14:54:59 发布