- 博客(2)
- 收藏
- 关注
原创 面试准备笔记
面试准备笔记 @(收集箱)[201801, 0111] 简历:https://github.com/MingChaoXu/yart/ 面试准备笔记 问题整理 机器学习理论知识 bagging 过拟合的解决方法 Google netresnet loss选择 交叉熵和sigmoid搭配的优势 kmeans原理 KNN原理 哈希过程时间复杂度与空间复杂度 项目相关 LSTM反向传播推
2018-01-13 10:27:34 372
原创 PCA等降维操作与深度学习的不同点的一些思考
深度学习的本质上是将数据从低维空间映射到高维空间,但是并不仅仅有这个作用,拿全连接层举例,假设输入数据500维,可以映射到1000维做一个升维操作,也可以降维到256维,但往往经过一个完整的神经网络后,可以将数据映射到高维空间,这样做的目的就是让数据变得线性可分。因为线性分类器是非常简单的分类器,这样数据映射到高维空间后就能较为容易的分开。其他SVM、核方法、等等也有类似的基本思想。 但是在早期
2018-01-10 20:39:24 2269
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人