自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 资源 (1)
  • 收藏
  • 关注

原创 svm输出距离

目标在svm预测试,经常会预测错一些结果,本文主要通过svm输出的距离来减少这种错误率基于from sklearn.svm import SVC dec,n_class = clf.decision_function(test_features) predict = decision_vote(dec<0,-dec,len(n_class)) max = predict.max() predict_class = predict.argmax()+1由于decis

2020-06-30 17:32:51 5478

原创 python 跳出多重循环

class Getoutforloop(Exception): passif __name__ == '__main__': try: for i in range(10): for j in range(10): if i==5 and j==4: raise Getoutforloop() else:

2020-06-24 13:24:31 166

原创 python whl文件

pip install 库名出错时在https://www.lfd.uci.edu/~gohlke/pythonlibs/#lxml找对应的whl文件,找不到直接搜库名对应的whl或者https://pypi.tuna.tsinghua.edu.cn/simple/在这个里面找,一般都有

2020-06-23 16:32:42 223

原创 resnet理解

1 resnet的出发点是认为深度网络不应该比浅层网络性能差,所以为了防止网络退化,引入恒等映射,这样可以吧原始信息流入更深的层,抑制了信息的退化2残差块有用是因为这一条之路的倒数是1,所以可以把深层的loss很好的保留传递给浅层,因为神经网络一个很大的问题就是梯度链式法则带来的梯度弥散...

2020-06-22 18:06:09 150

原创 opencv 去高光

illuminationChange(src, mask, dst=None, alpha=None, beta=None):alpha,beta两个参数共同决定消除高光后图像的模糊程度(范围0~2,0比较清晰,2比较模糊)import cv2def mask(path): img = cv2.imread(path,cv2.IMREAD_GRAYSCALE) _,mask = cv2.threshold(img,200,255,cv2.THRESH_BINARY) retu

2020-06-17 16:34:25 3134 2

原创 两张图片的相似度

from skimage.measure import compare_ssimimport cv2if __name__ == '__main__': img1 = cv2.imread(r'facebank/ab/1.jpg') img2 = cv2.imread(r'facebank/yangmi/1.jpg') img2 = cv2.resize(img2,(img1.shape[1],img1.shape[0]),interpolation=cv2.INTER_L

2020-06-17 13:59:51 369

原创 1*1 卷积

11卷积降维,最后通过11卷积进行升维原始参数:33256(一个卷积核参数)256 + 33256256=1179648优化参数:1125664+336464+1164*256=69632(将近17倍)

2020-06-12 15:49:34 293

原创 BatchNorm

BN的基本思想其实相当直观:因为深层神经网络在做非线性变换前的激活输入值(就是那个x=WU+B,U是输入)随着网络深度加深或者在训练过程中,其分布逐渐发生偏移或者变动,之所以训练收敛慢,一般是整体分布逐渐往非线性函数的取值区间的上下限两端靠近(对于Sigmoid函数来说,意味着激活输入值WU+B是大的负值或正值),所以这导致反向传播时低层神经网络的梯度消失,这是训练深层神经网络收敛越来越慢的本质原因,而BN就是通过一定的规范化手段,把每层神经网络任意神经元这个输入值的分布强行拉回到均值为0方差为1的标准正态

2020-06-12 13:51:44 146

原创 dropout

取平均的作用: 先回到标准的模型即没有dropout,我们用相同的训练数据去训练5个不同的神经网络,一般会得到5个不同的结果,此时我们可以采用 “5个结果取均值”或者“多数取胜的投票策略”去决定最终结果。例如3个网络判断结果为数字9,那么很有可能真正的结果就是数字9,其它两个网络给出了错误结果。这种“综合起来取平均”的策略通常可以有效防止过拟合问题。因为不同的网络可能产生不同的过拟合,取平均则有可能让一些“相反的”拟合互相抵消。dropout掉不同的隐藏神经元就类似在训练不同的网络,随机删掉一半隐藏神经元导

2020-06-10 10:24:15 190

原创 图片叠加

import cv2import numpy as npif __name__ == '__main__': img1_path = 'facebank/ab/1.jpg' img2_path = 'facebank/ab/2.jpg' w = 0.8 img1 =cv2.imread(img1_path) img2 = cv2.imread(img2_path) img2 = cv2.resize(img2,(img1.shape[1],img1.sh

2020-06-09 16:35:10 184

原创 face_dataloader

from torch.utils.data import DataLoaderfrom torchvision import transforms as transfrom torchvision.datasets import ImageFolderimport numpy as npe_preprocess(tensor): return tensor*0.5+0.5def get_train_dataset(imgs_folder): train_transform = t

2020-06-04 13:59:08 147

原创 虹膜的瞳孔定位

定位精确的算法不精确 https://blog.csdn.net/Lee_z_Adam/article/details/106235731import numpy as npfrom scipy import signaldef ContourIntegralCircular(imagen,y_0,x_0,r,angs): y = np.zeros([len(angs),r.shape[0],r.shape[1],r.shape[2]],dtype=int) x = np.zeros

2020-06-03 13:53:13 681 1

原创 arcface mobilefacenat

from torch.nn import Linear,Conv2d,BatchNorm1d,BatchNorm2d,PReLU,ReLU,Sigmoid,Dropout,MaxPool2d,AdaptiveAvgPool2d,Sequential,Module,Parameterimport torchclass Flatten(Module): def forward(self, input): return input.view(input.size(0), -1)

2020-06-02 10:49:47 285

原创 arcface backbone

from torch.nn import Linear,Conv2d,BatchNorm1d,BatchNorm2d,PReLU,ReLU,Sigmoid,Dropout,MaxPool2d,AdaptiveAvgPool2d,Sequential,Module,Parameterimport torchfrom collections import namedtupleimport mathclass Flatten(Module): def forward(self, input):

2020-06-01 15:04:16 312

weights.zip

mtcnn权重

2020-05-28

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除