深度学习 & 机器学习
深度学习
temperamentalkj
这个作者很懒,什么都没留下…
展开
-
分割时原图与mask的可视化
参考链接:博客地址import numpy as npimport cv2, oscurrent_path = os.getcwd()img_path = os.path.join(current_path, r'data/landslide_data/img/0.tif')mask_path = os.path.join(current_path, r'data/landslide_data/mask/0.tif')imshow_path = os.path.join(current_pat原创 2021-08-30 09:47:01 · 823 阅读 · 0 评论 -
deep Learning学习笔记
一、UNet详解训练深度学习模型分三步:数据处理(数据加载、标签定义、数据增强方法)模型选择(比如语义分割UNet等)算法选择(Loss、优化算法)研究一个深度学习算法流程:先看网络结构然后看Loss计算方法最后看训练方法UNet讲解,见参考博客...原创 2021-08-17 20:44:45 · 74 阅读 · 0 评论 -
分水岭算法
参考博客:https://www.pythonf.cn/read/83484分水岭算法用到的开运算、腐蚀、膨胀函数的介绍:https://www.cnblogs.com/XJT2018/p/9958895.htmlTHRESH_BINARY_INV、THRESH_OTSU进行二值化的介绍:https://www.cnblogs.com/ssyfj/p/9272615.html...原创 2020-05-21 18:24:23 · 227 阅读 · 0 评论 -
稀疏学习参考资料
参考资料:https://www.cnblogs.com/daniel-D/p/3222576.html原创 2020-10-11 20:33:04 · 98 阅读 · 0 评论 -
图像分割评价指标 - dice coefficient
dice coefficient是用于评估两个样本的相似性的统计量,本质上是衡量两个样本的重叠部分。公式:表示集合X、Y之间的共同元素,|X| X元素个数,|Y| Y元素个数。...原创 2020-02-19 11:32:43 · 5843 阅读 · 0 评论 -
keras中loss与val_loss的关系
loss是训练集的损失值,val_loss是测试集的损失值以下是loss与val_loss的变化反映出训练走向的规律总结:train loss 不断下降,test loss不断下降,说明网络仍在学习;(最好的)train loss 不断下降,test loss趋于不变,说明网络过拟合;(max pool或者正则化)train loss 趋于不变,test loss不断下降,说明数据集100...转载 2020-02-24 19:59:20 · 3565 阅读 · 0 评论 -
分类问题损失函数 - 交叉熵
一、交叉熵参考链接:https://zhuanlan.zhihu.com/p/61944055熵:表示随机变量不确定的度量,是对所有可能发生的事件产生的信息量的期望。公式如下:相对熵:又称KL散度,用于衡量对于同一个随机变量x的两个分布p(x)和q(x)之间的差异。在机器学习中,p(x)从常用于描述样本的真实分布,而q(x)常用于表示预测的分布。KL散度值越小表示两个分布越接近。 公式如下...原创 2020-02-19 10:32:32 · 848 阅读 · 0 评论