人工智能
Lee-Oct
这个作者很懒,什么都没留下…
展开
-
关于softmax回归
softmax的思想是为神经网络定义新类型的输出层。它开始的方式和sigmoid层(符号层?)一样,通过形成加权来输入: 但是我们不使用sigmoid函数来获得输出,而是在softmax层将softmax函数应用到 根据这个函数,第j个输出神经元的激活(activation)就为(记为式子1): ‘ 在分母中,我们对所有输出神经元求和。 假定我们有一个具有4个神经元的神经网络,分别...原创 2018-05-17 20:59:46 · 516 阅读 · 0 评论 -
可视化MNIST:关于降维的探讨(1)
该文章整理翻译自http://colah.github.io/posts/2014-10-Visualizing-MNIST/ 众所周知,我们人类在二维和三维上能够理性的进行思考,通过努力,我们可以从第四维来思考。但是机器学习经常要求我们使用成千上万个维度——或者数万,或者数百万!即使是非常简单的事情,当你在非常高的维度上做的时候,也会变得难以理解。 这时,就需要一些工具的辅助。高手已经建...原创 2018-05-16 08:46:55 · 2824 阅读 · 1 评论 -
可视化MNIST:关于降维的探讨(2)
4. Sammon映射 到这里,我们应该能想到更好的解决方法——–考虑不同的成本函数。 首先,MDS有很多变化。主要的思想就是成本函数强调局部结构比全局结构更重要。一个非常简单的例子是萨蒙的映射,由代价函数定义: 在Sammon映射中,更致力于地保持邻近点之间的距离,而不是那些相距很远的点之间的距离。如果两个点在原来的空间中是两个相近的两倍,那么保持它们之间的距离是两倍重要。 对于MN...原创 2018-05-16 14:49:42 · 2028 阅读 · 1 评论