在深度学习的一个代码中看到这个表示,起初这个是作为损失值的初始值。代码中逻辑是后续的loss值大于小前的就保存模型到本地,更新参数。
查询了下,在python中并没有无穷小的类似表示。如果需要表示无穷小,可以使用接近于零的数值来表示,比如1e-100
在深度学习的一个代码中看到这个表示,起初这个是作为损失值的初始值。代码中逻辑是后续的loss值大于小前的就保存模型到本地,更新参数。
查询了下,在python中并没有无穷小的类似表示。如果需要表示无穷小,可以使用接近于零的数值来表示,比如1e-100