机器学习
文章平均质量分 64
CHAO_bismarck
计算机专业硕士在读
展开
-
linux工作站基本操作笔记 2021-1-10
linux工作站基本操作笔记1.利用ssh远程登录linux工作站要求:工作站联网ubuntu系统 win10 工作站和笔记本在同一局域网下ubuntu:ifconfig #查看 inet win10(cmd):ipconfig #查看 inet win10登录(cmd):ssh jsj@**.**.***.*** #内网址登录失败可能是unbuntu未下载或未打开sshsudo apt-get install openssh-server #下载sudo servic原创 2021-01-10 11:26:20 · 830 阅读 · 0 评论 -
深度学习笔记(三)2020-12-13
声明:博主为小白,以下为学习笔记,如有错误,欢迎批评指正。吴恩达改善神经网络视频学习笔记-优化算法1.Mini-batchbatch gradient descent —BGD —batch=maxstachastic gradient descent —SGD 随机梯度下降 —batch=1batch过大(样本很多)如BGD收敛很快,非常稳定没有震荡,但可能陷入局部最优出不来;对机器配置有要求;一次bacth遍历完所有样本才更新参数,迭代时间长训练速度慢。batch过小收敛慢,产生振荡甚至原创 2020-12-13 11:08:17 · 191 阅读 · 0 评论 -
深度学习笔记(二)2020-12-06
改善神经网络笔记1.训练集用于训练参数,验证集用于训练超参数(选择模型),测试集用于评估模型最终性能。数据少时,tran:test->7:3,tran:dev:test=2:2:6数据多时,(一百万)验证集和测试集只占到10%或者更少验证集和测试集最好同分布,验证集获得有偏估计,是包含在训练数据中的,测试集获得无偏估计,不包含在训练数据中。2.偏差bias和方差variance偏差大–>更复杂的网络,训练更长时间方差大–>更多的数据,正则化...原创 2020-12-06 16:46:23 · 158 阅读 · 0 评论 -
深度学习笔记(一)2020-12-06
1.为什么用卷积?参数共享:提取图片某特征一部分的滤波器可以应用到这张图片其他部分很好的提取特征,因此共享参数也取得不错的效果。稀疏连接:一个输出像素点只与输入的3*3个像素点有关。这两种机制减少了参数,并能取得很好的平移不变性。2.端到端的思想深度学习则为我们提供了另一种范式即“端到端”学习方式,整个学习流程并不进行人为的子问题划分,而是完全交给深度学习模型直接学习从原始输入到期望输出的映射。相比分治策略,“端到端”的学习方式具有协同增效的优势,有更大可能获得全局最优解。3.池化层的好处特征原创 2020-12-06 16:41:29 · 232 阅读 · 0 评论 -
常用聚类原理与应用(层次化聚类、k-means、均值漂移聚类)
聚类算法综述声明:本文章为博主(计算机本科生)选修课结课拓展小论文,仅供参考。摘要:聚类分析是一种对多样本数据进行定量分类的一种多元统计分析方法,是机器学习中无监督学习的典型代表。聚类分析可以根据应用样本的不同上可以分为Q型聚类和R型聚类,其中聚类的标准均来源于样本的属性距离即相似程度。聚类算法常用于机器学习、数据分析等领域中,常用的聚类方法有层次化聚类、k-means聚类、均值漂移聚类,它...原创 2020-08-08 22:51:53 · 4651 阅读 · 0 评论