读书笔记
米兰的小耳朵
这个作者很懒,什么都没留下…
展开
-
Misc of GFS
为什么分布式存储很难实现?Performance -> ShardingFault -> ToleranceTolerance -> ReplicationReplication -> ConsistencyConsistency -> Low PerformanceGFS 简介aimfeatureBIG & FASTsingle data centerGlobal内部使用shardingBig Seq原创 2020-08-18 18:31:39 · 220 阅读 · 1 评论 -
2020 mit 6.824 GFS FAQ
原子追加写为什么是至少一次而不是正好一次?论文 3.1 节, 第7步 says that if a write fails at one of thesecondaries, the client re-tries the write. That will cause the datato be appended more than once at the non-failed replicas.How does an application know what sections of..原创 2020-08-16 21:40:34 · 186 阅读 · 0 评论 -
机器学习中的数学基础(简单基础)
找到损失函数最小处数学基础:注意这里的凸函数是导数逐渐增大的,即图形上的凹函数。原创 2019-01-23 19:57:44 · 186 阅读 · 0 评论 -
《机器学习》读书笔记---第二章 模型评估与选择
1.经验误差与过拟合错误率: 错误样本/样本数学习器在训练集上的误差叫做 “训练误差”或“经验误差”,在新样本上的误差称为“泛化误差”, 我们希望得到泛化误差小的学习器,而我们能做的是使经验误差最小化,但这样容易导致泛化性能下降,出现“过拟合”现象。我们要做的就是避免过拟合。机器学习面临的问题通常是NP难甚至更难问题,而有效的学习算法必然是在多项式时间内运行完成,若可彻底避免过拟合,则通过经...原创 2019-01-20 15:22:47 · 295 阅读 · 0 评论