深度学习之美
文章平均质量分 92
通俗易懂话AI,循序渐进学DL,感受深度学习之美,把握科技前沿
玉来愈宏(张玉宏)
《品味大数据》(北京大学出版社,2016年10月)、《深度学习之美》(电子工业出版社,2018年7月)、《Python极简讲义——一本书入门数据分析与机器学习》作者
展开
-
TensorFlow 2.x调试错误解决:_SymbolicException: Inputs to eager execution function cannot be Keras symbolic
出现的这样错误:调试TensorFlow 2.0 程序时,发现错误如下:_SymbolicException: Inputs to eager execution function cannot be Keras symbolic tensors, but found [<tf.Tensor 'my_rnn/lstm_cell/cond/Identity:0' shape=(None, 100) dtype=float32>, <tf.Tensor 'my_rnn/lstm_cel原创 2020-05-22 05:29:17 · 4961 阅读 · 7 评论 -
《深度学习之美》推荐序:通俗也是一种美德
2017年5月份到8月份,《品味大数据》作者张玉宏博士在云栖社区连载了十四篇深度学习入门文章。这些文章,在云栖社区备受好评——“通俗易懂”、“坐等更新”、“大神的更新频率可以快点吗?”……并且,篇篇阅读过万。目前深度学习入门系列文章第一季更新已结束,云栖社区将文章集结成专题,以便更多人从中受益。这14篇精彩的博客在这里:https://yq.aliyun.com/topic/111,请你过...原创 2018-06-27 05:43:39 · 1250 阅读 · 0 评论 -
【深度学习之美】一入侯门“深”似海,深度学习深几许(入门系列之一)
在这个深度学习系列文章中,我们力图用最为通俗易懂、图文并茂的方式,带你入门深度学习。我们都知道,高手从来都是自学出来的。所以,这个深度学习的入门系列,能带给你的是“从入门到精通”,还是“从入门到放弃”,一切都取决你个人的认知。成就你自己的,永远都是你自己,是吧?原创 2017-05-23 06:45:12 · 4569 阅读 · 0 评论 -
【深度学习之美】人工“碳”索意犹尽,智能“硅”来未可知(入门系列之二)
现在的人工智能,大致就是用“硅基大脑”模拟或重现“碳基大脑的过程”。那么,在未来会不会出现“碳硅合一”的大脑或者全面超越人脑的“硅基大脑”呢?专家们的回答是“会的”。而由深度学习引领的人工智能,正在开启这样的时代。原创 2017-06-06 21:48:04 · 1254 阅读 · 0 评论 -
【深度学习之美】神经网络不胜语, M-P模型似可寻(入门系列之三)
“那些在个人设备里,谦谦卑卑地为我们哼着歌曲的数字仆人,总有一天会成为我们的霸主!”在“忍无可忍,无需再忍”这句俗语背后,也隐藏中神经网络常用的“激活函数”和“卷积”的概念。知其道,用其妙,THIS IS HOW!原创 2017-06-06 21:51:13 · 1694 阅读 · 0 评论 -
【深度学习之美】“机器学习”三重门,“中庸之道”趋若人(入门系列之四)
王国维说过人有三重境界,对应的,“机器学习”也有三大类不同算法,而有着“中庸之道”的半监督学习可能就是未来机器学习的大趋势,它一步一步地走“像”人类!原创 2017-06-06 21:54:55 · 970 阅读 · 0 评论 -
【深度学习之美】Hello World感知机,懂你我心才安息 (入门系列之五)
感知机,就如同神经网络(包括深度学习)的“Hello World”。如果不懂它,就如同“为人不识陈近南,便称英雄也枉然”一样尴尬。当感知机可以模拟人类的感知能力,当它能够明辨与或非,但它最大的“疑惑”就是“异或”。难道机器领域也只能是异性才能有结果吗?原创 2017-06-18 16:37:12 · 1386 阅读 · 0 评论 -
【深度学习之美】损失函数减肥用,神经网络调权重(入门系列之六)
有人开玩笑说,男人有两大烦恼:一是把别人的肚子搞大了,二是把自己的肚子搞大了。对于后者,除了减(jian)肥(shen),似乎别无他法。可你知道吗?这减肥背后的机理,和前馈神经网络利用损失函数,来反向调节各个神经元之间的连接权重,其实是一样一样的。为啥咧?原创 2017-06-18 16:39:23 · 4007 阅读 · 0 评论 -
【深度学习之美】山重水复疑无路,最快下降问梯度(入门系列之七)
(原文于2017年6月发表于云栖社区:https://yq.aliyun.com/articles/105339)一年多前,吴军博士写了一本畅销书《智能时代》[1]。书里提到,在人工智能领域,有一个流派叫“鸟飞派”,亦称之为“模仿派”。说的是,当人们要学习飞翔的时候,最先想到的是模仿鸟一样去飞翔。很多年前,印度诗人泰戈尔出了本《飞鸟集》,里面有个名句:“天空没有留下翅膀的痕迹,但我已经飞过”。有人...原创 2018-06-24 12:31:56 · 806 阅读 · 0 评论 -
【深度学习之美】BP算法双向传,链式求导最缠绵(入门系列之八)
8.1 BP神经网络极简史在神经网络(甚至深度学习)参数训练中,BP(Back Propagation)算法非常重要,它都占据举足轻重的地位。在提及BP算法时,我们常将它与杰弗里•辛顿(Geoffrey Hinton)的名字联系在一起。但实际上,辛顿还真不是第一个提出BP算法的人,就像爱迪生不是第一个发明电灯的人一样。但人们记住的,永远都是那个让电灯“飞入平常百姓家”的功勋人物爱迪生,而不是它的第...原创 2018-06-24 12:34:42 · 2060 阅读 · 0 评论 -
【深度学习之美】全面连接困何处,卷积网络见解深(入门系列之九)
在前面的文章中,我们介绍了反向传播(Back Propagation,简称BP) 算法,在本质上,BP算法是一种全连接神经网络。BP算法也有很多成功的应用,但只能适用于“浅层”网络,因为“肤浅”,所以也就限制了它的特征表征能力,进而也就局限了它的应用范围。为什么它难以“深刻”呢?在很大程度上问题就出在它的“全连接”上。难道“全连接”不好吗?它更全面啊,难道全面反而是缺陷?我们暂时不讨论这个问题,等...原创 2018-06-24 12:36:22 · 620 阅读 · 0 评论 -
【深度学习之美】卷地风来忽吹散,积得飘零美如画(入门系列之十)
在前面的章节中,我们简要地介绍了卷积神经网络的来龙去脉。接下来我们逐一来解释它之所以成功的几个核心要素。卷积神经网络的名字就来自于其中的卷积操作。因此说到卷积神经网络,它最核心概念可能莫过于“什么是卷积”?10.1 卷积的数学定义脱离卷积神经网络这个应用背景,“卷积”其实是一个标准的数学概念。早在3.4节中,我们已经提及到“卷积”的概念:所谓卷积,不过是一个函数和另一个函数在某个维度上的加权“叠加...原创 2018-06-24 12:37:53 · 452 阅读 · 0 评论 -
【深度学习之美】局部连接来减参,权值共享肩并肩(入门系列之十一)
很多年前,著名物理学家爱因斯坦说过一句名言:Everything should be made as simple as possible, but not simpler(越简单越好,但是还不能过分简单)。”是的,只有名人才能说名言。如果这句话是我的说的,你可能认为这不是废话吗?我把爱老爷子搬出来,自然不是想唬你,而是因为他的名言和我们今天要讲的主题有点相关。我们知道,相比于全连接的前馈网络,卷...原创 2018-06-24 12:53:26 · 1604 阅读 · 0 评论 -
【深度学习之美】激活引入非线性,池化预防过拟合(入门系列之十二)
12.1 两个看似闲扯的问题在开讲本章内容之前,先请你思考两个问题呗:第一个问题,你能用直线画出一张漂亮的笑脸吗?第二个问题是,你知道那副著名的对联:“诸葛一生唯谨慎,吕端大事不糊涂”,说得是什么典故吗?如果你不是抬杠的话,我想你第一个问题的答案,应该是不能。因为直线的表现力非常有限,只有曲线才能画出更美的线条。因此,才有英国画家和美学家威廉•荷加兹(William Hogarth,1697~17...原创 2018-06-24 12:55:18 · 745 阅读 · 0 评论 -
【深度学习之美】循环递归RNN,序列建模套路深(入门系列之十三)
13.1 你可能不具备的一种思维近来,吴京主演的电影《战狼 Ⅱ》大获好评。走进电影院的你,如痴如醉,外加一把爱国泪,绝不肯错过冷锋的每一个镜头。假设情况不是这样,仅想打发无聊时光的你,随机选择了一部电影,不凑巧,电影是部烂片,电影播到10分钟20分钟时,你会怎么办?是当机立断地拂袖而去呢?还是强打精神看下去(毕竟电影票花了80块人民币啊)?在经济学领域,有个重要的概念,叫“沉没成本”。说...原创 2018-06-24 12:56:56 · 2757 阅读 · 1 评论 -
【深度学习之美】LSTM长短记,长序依赖可追忆(入门系列之十四)
14.1 遗忘是件好事还是坏事?如果我问你,遗忘,是件好事,还是坏事?或许你会说,当然是件坏事啊,我可羡慕记忆力好的人了。可我要告诉你,如果你到现在还记得,两岁时,隔壁家的小女孩“横刀夺爱”,抢了你的棒棒糖,估计你现在还可能单身。如此“记”仇的人,不孤独也难啊?的确,有时候,遗忘是好事,它会让大脑清理无用“内存”,让你能得以重新起航。其实从脑科学的角度来看,记忆是一种生物运算,它需要消耗能量的。从...原创 2018-06-24 12:58:55 · 1176 阅读 · 0 评论