ML
ortyi
脚踏实地,踏踏实实积累专业知识。切勿好高骛远、心浮气躁。干一行爱一行精一行。干哪一行就要吃哪一行的苦。其实计算机的设计凝结了人类的智慧,是对生活经验的哲学升华,学习这一行真的乐在其中(虽然有调不完的bug,哈哈哈)。做一个开开心心,快快乐乐,简简单单的程序员。争取成为一名对这个社会有意义有价值有贡献的人。
展开
-
ML学习--随记
ML杂记 损失函数变化剧烈的原因: (1) 学习率选的太大; (2)batch_size太小; 尽量保证训练数据的分布与测试数据的分布一致。 tensorflow重要库函数: (1) tf.layers,现在常用的; (2) tf.contrib.layers.fully_connected(),以后可能会被废弃; (3) slim,1.8版本之后被放弃; 衡量两个分布之间的差异使用交叉熵。 熵...原创 2019-04-26 16:39:29 · 208 阅读 · 0 评论 -
ML---逻辑回归
用途:是分类算法不是回归算法,用于二分类或多分类。回归模型的YYY是连续的,分类模型的YYY是离散的。 模型形式:hθ(X)=11+e−Xθh_{\theta}(X)=\frac {1}{1+e^{-X\theta}}hθ(X)=1+e−Xθ1 XXX:模型的特征输入,维度为m×nm\times nm×n,m个样本. hθ(x)h_{\theta}(x)hθ(x):模型输出,可以理解为某...原创 2019-07-17 14:10:11 · 146 阅读 · 0 评论 -
ML与DL中的一些基础知识---激活函数与损失函数等
1. 常用激活函数 (1) sigmoid函数 公式:f(x)=11+e−xf(x)=\frac{1}{1+e^{-x}}f(x)=1+e−x1 求导:∂f∂x=f(x)(1−f(x))=ex(1+ex)2\frac{\partial f}{\partial x}=f(x)(1-f(x))=\frac{e^x}{(1+e^x)^2}∂x∂f=f(x)(1−f(x))=(1+ex)2ex ...原创 2020-10-23 11:06:18 · 429 阅读 · 0 评论