笔记
文章平均质量分 66
ShayneCh
这个作者很懒,什么都没留下…
展开
-
java并发笔记
文章目录wait和sleep的区别Callable和Runnable区别Lock锁synchronized和lock的区别并发下ArrayList不安全的解决方案并发下HashSet不安全的解决方案并发下HashMap不安全工具类ReadWriteLock(接口)BlockingQueue(接口)线程池(三大方法、7大参数、4种拒绝策略)函数式接口ForkJoin异步任务JMMVolatile单例模式CAS各种锁公平锁、非公平锁可重入锁(递归锁)自旋锁死锁wait和sleep的区别wait是Objec原创 2022-04-05 18:54:16 · 306 阅读 · 0 评论 -
边缘检测&纹理表示
边缘检测边缘:图像中亮度明显而急剧变化的点边缘的种类图像中亮度明显而急剧变化的地方噪声的影响解决方法:先平滑高斯一阶偏导高斯一阶偏导卷积核的方差变化高斯核 vs.高斯一阶偏导核这样提取的图片会输出所有可能出现Canny边缘检测器...原创 2020-11-01 19:15:03 · 862 阅读 · 1 评论 -
直方图均衡
2020-11-7 学习总结直方图均衡直方图均衡的连续形式主要是三个公式ps(s)=pr(r)∣drds∣p_s(s) = p_r(r)|\frac{dr}{ds}|ps(s)=pr(r)∣dsdr∣dsdr=dT(r)dr=(L−1)ddr[∫0rpr(w)dw]=(L−1)pr(r)\frac{ds}{dr} = \frac{dT(r)}{dr} = (L - 1)\frac{d}{dr}[\int_0^r p_r(w)dw] = (L - 1)p_r(r) drds=drd原创 2021-04-09 11:16:32 · 168 阅读 · 0 评论 -
直方图处理
2020-11-6 学习总结今天学习了直方图基础知识,看了一篇论文的摘要和引言部分。直方图处理灰度级范围为[0,L−1][0, L - 1][0,L−1]的数字图像的直方图是离散函数h(rk)=nkh(r_{k}) = n_{k}h(rk)=nk,其中rkr_{k}rk是第kkk级灰度值,nkn_{k}nk是图像中灰度为rkr_{k}rk的像素的个数。通常,我们会用到归一化直方图,即使用所有元素h(rk)h(r_{k})h(rk)除以图像中的像素总数nnn所得到的图形:p(rk)=h(原创 2020-11-10 19:35:43 · 159 阅读 · 0 评论 -
图像增强matlab实现
图像增强图像反转就是反转整个图像的灰度,用以下式子来描述:s=L−1−rs = L - 1 -rs=L−1−r其中r是原始图像的灰度,s是变换后的灰度值g = imread('E:/faces/137341995_e7c48e9a75.jpg');subplot(1, 2, 1);imshow(g);xlabel('原图')subplot(1, 2, 2)g1 = imadjust(g,[0,1],[1,0],1);%对灰度级图像进行灰度变换imshow(g1);xlabel('原创 2020-11-05 18:05:01 · 3245 阅读 · 1 评论 -
深入医学图像分析综述
深入医学图像分析Altaf F , Islam S M S , Akhtar N , et al. Going Deep in Medical Image Analysis: Concepts, Methods, Challenges and Future Directions[J]. IEEE Access, 2019.医学图像分析的深度学习方法检测/定位,分割,配准,分类深入医学图像分析的挑战缺乏适当标注的数据:可以认为,深度学习与其他机器学习技术的唯一区别在于它能够模拟极其复杂的数学原创 2020-11-05 18:03:53 · 478 阅读 · 0 评论 -
变分自编码器(VAE)
生成模型产生式模型PixelRNN 与 PixelCNN优点: -似然函数可以精确计算 -利用似然函数的值可以有效地评估模型性能缺点: -序列产生 慢变分自编码器 Variational Autoencoders(VAE)自编码器学习方法损失计算训练后移除编码器变分自编码器基于典型自编码器拓展成的概率框架=> 可以产生新的样本定义一个难以计算的密度函数=> 通过推导来优化一个下边界优点: -产生式模型里的一种主要方法 -可以计算 q(z|x原创 2020-11-04 19:52:00 · 356 阅读 · 0 评论 -
图像分割
图像分割语义分割给每个像素分配类别标签,不区分实例,只考虑像素类别。传统的分割思路利用滑动窗口机制,对每个像素点提取周围像素对中心像素分类,这种方法效率太低,多个区域被重复计算。2014年出现的FCN,去掉了传统卷积神经网络末端的全连接层,实现了端到端的对每个像素的分类。随后的语义分割模型基本都采用这种结构。除了全连接层,语义分割另一个重要的问题是池化层。池化层能进一步提取抽象特征增加感受域,但是丢弃了像素的位置信息。而语义分割需要类别标签和原图像对齐,因此需要从新引入像素的位置信息。有两种不原创 2020-11-03 11:01:01 · 235 阅读 · 2 评论 -
图像噪声与卷积核
#2020.10.31 学习总结 1.图像去噪与卷积 2.高斯卷积核 3.图像噪声与中值滤波器原创 2020-10-31 19:54:05 · 805 阅读 · 0 评论 -
批标准化
2020.10.30 学习总结批归一化论文的学习批归一化论文的学习批归一化论文的学习 Batch Normalization是Google在2015年提出来的,现在已经成为了深度学习中比较常用的方法了。批归一化就是对每个mini-batch进行归一化处理,原文应用了一个叫做内部协变量偏移的名词,在神经网络训练的过程中从每一层输出的值之间分布的变化,而这种变化又受到前一层输入到这一层值之间分布的影响,我们称之为内部协变量偏移。 这种处理方法能够能够允许我们使用更大的学习率,也不用太在意权值得初始化。原创 2020-10-30 21:24:06 · 181 阅读 · 0 评论