读书笔记
米兰的小耳朵
Don't settle. Keep moving.
展开
-
Misc of GFS
为什么分布式存储很难实现? Performance -> Sharding Fault -> Tolerance Tolerance -> Replication Replication -> Consistency Consistency -> Low Performance GFS 简介 aim feature BIG & FAST single data center Global 内部使用 sharding Big Seq原创 2020-08-18 18:31:39 · 223 阅读 · 1 评论 -
2020 mit 6.824 GFS FAQ
原子追加写为什么是至少一次而不是正好一次? 论文 3.1 节, 第7步 says that if a write fails at one of the secondaries, the client re-tries the write. That will cause the data to be appended more than once at the non-failed replicas. How does an application know what sections of..原创 2020-08-16 21:40:34 · 188 阅读 · 0 评论 -
机器学习中的数学基础(简单基础)
找到损失函数最小处 数学基础: 注意这里的凸函数是导数逐渐增大的,即图形上的凹函数。原创 2019-01-23 19:57:44 · 188 阅读 · 0 评论 -
《机器学习》读书笔记---第二章 模型评估与选择
1.经验误差与过拟合 错误率: 错误样本/样本数 学习器在训练集上的误差叫做 “训练误差”或“经验误差”,在新样本上的误差称为“泛化误差”, 我们希望得到泛化误差小的学习器,而我们能做的是使经验误差最小化,但这样容易导致泛化性能下降,出现“过拟合”现象。 我们要做的就是避免过拟合。机器学习面临的问题通常是NP难甚至更难问题,而有效的学习算法必然是在多项式时间内运行完成,若可彻底避免过拟合,则通过经...原创 2019-01-20 15:22:47 · 304 阅读 · 0 评论