- 博客(1)
- 收藏
- 关注
原创 第一章 机器学习基础
Hard Sigmoid 可以看作是两个修正线性单元(Rectified Linear Unit,ReLU)的加总,ReLU 的 图像有一个水平的线,走到某个地方有一个转折的点,变成一个斜坡,其对应的公式为 c ∗ max(0, b + wx1)训练数据:指的是将以往的数据进行带入 判断我们设立的未知参数对不对 将预估结果和真实结果进行一个比对 将预估结果和真实结果进行误差的计算统计 L即为统计和平均值 L和误差成正相关 带入不同的未知参数计算L 选取最适配的未知参数组合。
2024-06-14 10:32:45 495 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人